Cet article est un article miroir de traduction automatique, veuillez cliquer ici pour accéder à l’article original.

Vue: 8357|Répondre: 0

Enroulement des commandes du shell HDFS de Hadoop

[Copié le lien]
Publié sur 05/07/2019 15:29:44 | | | |
Coque FS

L’invocation de la commande Shell du système de fichiers (FS) doit prendre la forme de bin/hadoop <args>fs. Toutes les commandes de shell FS utilisent le chemin URI comme paramètre. Le format URI est scheme://authority/path. Pour les systèmes de fichiers HDFS, le schéma est hdfs, et pour les systèmes de fichiers locaux, le schéma est un fichier. Les paramètres du schéma et de l’autorité sont optionnels, et si non spécifiés, le schéma par défaut spécifié dans la configuration sera utilisé. Un fichier ou répertoire HDFS tel que /parent/child peut être représenté par hdfs ://namenode :namenodeport/parent/child, ou simplement /parent/child (en supposant que la valeur par défaut dans votre fichier de configuration soit namenode :namenodeport). La plupart des commandes FS Shell se comportent de manière similaire à leurs homologues Unix Shell, avec des différences qui seront notées dans la section suivante. Les informations d’erreur sont envoyées à stderr, et d’autres informations sont envoyées à stdout.



chatComment utiliser : hadoop fs -cat URI [URI ...]

Sortez le contenu du fichier spécifié par chemin vers stdout.

Exemple:

Hadoop FS -cat HDFS ://host1 :port1/file1 hdfs ://host2 :port2/file2
Hadoop FS -cat file:///file3 /user/hadoop/file4
Valeur de retour :
Retourne 0 avec succès, ne répond pas à -1.

chgrp
Comment utiliser : hadoop fs -chgrp [-R] GROUPE URI [URI ...] Changer l’association des groupes de fichiers. Avec -R, effectuez le changement récursivement à travers la structure de répertoires. L’utilisateur doit être le propriétaire des fichiers, ou alors un super-utilisateur. Des informations supplémentaires se trouvent dans le Guide utilisateur des permissions. -->

Changez le groupe auquel appartient le fichier. Utiliser -R effectuera le changement de manière récursive sous la structure des répertoires. L’utilisateur de la commande doit être le propriétaire du fichier ou un super-utilisateur. Pour plus d’informations, consultez le Guide utilisateur des permissions HDFS.

chmod
Utilisation : hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]

Changez les permissions d’un fichier. Utiliser -R effectuera le changement de manière récursive sous la structure des répertoires. L’utilisateur de la commande doit être le propriétaire du fichier ou un super-utilisateur. Pour plus d’informations, consultez le Guide utilisateur des permissions HDFS.

chown
Comment utiliser : hadoop fs -chown [-R] [PROPRIÉTAIRE][ :[GROUP]] URI [URI ]

Changez le propriétaire du fichier. Utiliser -R effectuera le changement de manière récursive sous la structure des répertoires. L’utilisateur de la commande doit être un super-utilisateur. Pour plus d’informations, consultez le Guide utilisateur des permissions HDFS.

copyFromLocal
Comment utiliser : hadoop fs -<localsrc>copyFromLocal URI

Sauf que le chemin source est un fichier local, similaire à la commande put.

copyToLocal
Utilisation : hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>

C’est similaire à la commande get, sauf que le chemin cible est un fichier local.

CP
Comment utiliser : hadoop fs -cp URI [URI ...] <dest>

Copiez les fichiers du chemin source vers le chemin de destination. Cette commande permet plusieurs chemins sources, auquel cas le chemin de destination doit être un répertoire.
Exemple:

hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
Valeur de retour :

Retourne 0 avec succès, ne répond pas à -1.

du
Comment utiliser : hadoop fs -du URI [URI ...]

Affiche la taille de tous les fichiers du répertoire, ou lorsqu’un seul fichier est spécifié.
Exemple:
Hadoop FS -du /user/hadoop/dir1 /user/hadoop/file1 hdfs ://host :port/user/hadoop/dir1
Valeur de retour :
Retourne 0 avec succès, ne répond pas à -1.

dus
Comment utiliser : hadoop fs -<args>dus

Affiche la taille du fichier.

Effacer

Comment utiliser : Hadoop FS - expurger

Vide la poubelle de recyclage. Veuillez consulter la documentation de conception HDFS pour plus d’informations sur les caractéristiques de la poubelle de recyclage.

Avoir

Comment utiliser : hadoop fs -get [-ignorecrc] [-<src><localdst>crc ]
Copiez les fichiers dans votre système de fichiers local. Vous pouvez utiliser l’option -ignorecrc pour copier les fichiers qui ont échoué à la vérification CRC. Utilisez l’option -crc pour copier le fichier avec les informations CRC.

Exemple:

hadoop fs - get /user/hadoop/file localfile
Hadoop FS -Get HDFS ://host :port/user/hadoop/file localfile
Valeur de retour :

Retourne 0 avec succès, ne répond pas à -1.

getmerge
Comment utiliser : hadoop fs -getmerge <src> <localdst> [addnl]

Acceptez un répertoire source et un fichier cible en entrée, et connectez tous les fichiers du répertoire source au fichier cible local. Addnl est optionnel et précise qu’un saut de ligne est ajouté à la fin de chaque fichier.

ls
Comment utiliser : hadoop fs -ls <args>

S’il s’agit d’un fichier, les informations du fichier sont renvoyées dans le format suivant :
Nom <副本数> du fichier Taille du fichier Date de modification : Heure modifiée : Permissions ID utilisateur, ID de groupe et ID
S’il s’agit d’un répertoire, il renvoie une liste de ses sous-fichiers directs, comme dans Unix. La table des matières renvoie les informations suivantes :
Nom <dir> du répertoire Date modifiée Heure modifiée Permission ID utilisateur ID de groupe
Exemple:
Hadoop FS -LS /user/hadoop/file1 /user/hadoop/file2 hdfs ://host :port/user/hadoop/dir1 /nonexistentfile
Valeur de retour :
Retourne 0 avec succès, ne répond pas à -1.

LSR

Comment utiliser : hadoop fs -<args>lsr
L’ordre est le cas. Similaire à ls -R dans Unix.

MKDIR
Comment utiliser : hadoop fs -mkdir <paths>
Acceptez l’URI spécifié par le chemin comme paramètre pour créer ces répertoires. Il se comporte comme le mkdir -p d’Unix, qui crée des répertoires parents à tous les niveaux du chemin.

Exemple:

Hadoop FS -mkdir /utilisateur/hadoop/dir1 /utilisateur/hadoop/dir2
Hadoop FS -mkdir HDFs ://host1 :port1/user/hadoop/dir hdfs ://host2 :port2/user/hadoop/dir
Valeur de retour :

Retourne 0 avec succès, ne répond pas à -1.

déplacer depuis Local

Comment utiliser : dfs -moveFromLocal <src> <dst>

Affiche un message « non implémenté ».

MV
Utilisation : hadoop fs -mv URI [URI ...] <dest>

Déplacez les fichiers du chemin source vers le chemin de destination. Cette commande permet plusieurs chemins sources, auquel cas le chemin de destination doit être un répertoire. Il est interdit de déplacer des fichiers entre différents systèmes de fichiers.
Exemple:

hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
Hadoop FS -MV HDFS ://host :port/file1 hdfs ://host :port/file2 hdfs ://host :port/file3 hdfs ://host :port/dir1
Valeur de retour :

Retourne 0 avec succès, ne répond pas à -1.

put
Comment utiliser : hadoop fs - put <localsrc> ... <dst>

Copiez un ou plusieurs chemins sources du système de fichiers local vers le système de fichiers de destination. Il prend également en charge la lecture des entrées standard et leur écriture dans le système de fichiers cible.
hadoop fs - put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
Hadoop FS -put localfile HDFs ://host :port/hadoop/hadoopfile
Hadoop FS - put - HDFs ://host :port/hadoop/hadoopfile
Lisez l’entrée de l’entrée standard.
Valeur de retour :

Retourne 0 avec succès, ne répond pas à -1.

RM
Comment utiliser : hadoop fs -rm URI [URI ...]

Supprimez le fichier spécifié. Seuls les répertoires et fichiers non vides sont supprimés. Pour plus d’informations, consultez la commande rmr pour la suppression récursive.
Exemple:

Hadoop FS -RM HDFS ://host :port/file /user/hadoop/emptydir
Valeur de retour :

Retourne 0 avec succès, ne répond pas à -1.

RMR
Comment utiliser : hadoop fs -rmr URI [URI ...]

Supprimer.
Exemple:

Hadoop FS -RMR /user/hadoop/dir
Hadoop FS -RMR HDFS ://host :port/user/hadoop/dir
Valeur de retour :

Retourne 0 avec succès, ne répond pas à -1.

setrep
Comment utiliser : hadoop fs -setrep [-R<path>]

Changez le facteur de copie d’un fichier. L’option -R est utilisée pour modifier récursivement le facteur de copie de tous les fichiers du répertoire.

Exemple:

hadoop fs -setrep -w 3 -R /user/hadoop/dir1
Valeur de retour :

Retourne 0 avec succès, ne répond pas à -1.

Statistique
Utilisation : hadoop fs -stat URI [URI ...]

Rend des statistiques pour le chemin spécifié.

Exemple:

Hadoop FS -Path de statistique
Valeur de retour :
Retourne 0 avec succès, ne répond pas à -1.

queue
Comment utiliser : hadoop fs -tail [-f] URI

Sortez le contenu des derniers 1K octets du fichier dans stdout. Supportez l’option -f, le comportement est cohérent avec Unix.

Exemple:

Hadoop FS - Nom de chemin de queue
Valeur de retour :
Retourne 0 avec succès, ne répond pas à -1.

test
Comment utiliser : hadoop fs -test -[ezd] URI

Options:
-Vérifiez si le fichier existe. Retour de 0 s’il est présent.
-z Vérifiez si le fichier est à 0 octet. Si oui, ça ne retourne rien.
-d Retourne 1 si le chemin est un répertoire, sinon 0.
Exemple:

Hadoop FS -test -e Nom de fichier

SMS
Comment utiliser : hadoop fs <src>-text
Sortez le fichier source au format texte. Les formats autorisés sont zip et TextRecordInputStream.

touchz

Comment utiliser : hadoop fs -touchz URI [URI ...]
Créez un fichier vide avec 0 octet.

Exemple:

Hadoop -Touchz Nom de chemin
Valeur de retour :
Retourne 0 avec succès, ne répond pas à -1.

Liens officiels :La connexion hyperlientérée est visible.




Précédent:Maîtriser l’accès à l’interface Java API de HDFS
Prochain:Opérations API pour Hadoop - HDFS
Démenti:
Tous les logiciels, supports de programmation ou articles publiés par Code Farmer Network sont uniquement destinés à l’apprentissage et à la recherche ; Le contenu ci-dessus ne doit pas être utilisé à des fins commerciales ou illégales, sinon les utilisateurs assumeront toutes les conséquences. Les informations sur ce site proviennent d’Internet, et les litiges de droits d’auteur n’ont rien à voir avec ce site. Vous devez supprimer complètement le contenu ci-dessus de votre ordinateur dans les 24 heures suivant le téléchargement. Si vous aimez le programme, merci de soutenir un logiciel authentique, d’acheter l’immatriculation et d’obtenir de meilleurs services authentiques. En cas d’infraction, veuillez nous contacter par e-mail.

Mail To:help@itsvse.com