FS Shell
At aktivere File System (FS) Shell-kommandoen bør være i form af bin/hadoop fs<args>. Alle FS-shell-kommandoer bruger URI-stien som parameter. URI-formatet er scheme://authority/path. For HDFS-filsystemer er scheme hdfs, og for lokale filsystemer er scheme file. Skemaet og autoritetsparametrene er valgfrie, og hvis det ikke specificeres, vil standardskemaet, der er angivet i konfigurationen, blive brugt. En HDFS-fil eller mappe såsom /parent/child kan repræsenteres som hdfs://namenode:namenodeport/parent/child, eller blot /parent/child (forudsat at standardværdien i din konfigurationsfil er namenode:namenodeport). De fleste FS Shell-kommandoer opfører sig på samme måde som deres Unix Shell-modstykker, med forskelle der vil blive nævnt i det følgende afsnit. Fejlinformation outputtes til stderr, og anden information outputtet til stdout.
katSådan bruger man: hadoop fs -cat URI [URI ...]
Output indholdet af den sti-specificerede fil til stdout.
Eksempel:
Hadoop FS -cat hdfs://host1:port1/file1 hdfs://host2:port2/file2 Hadoop FS -cat file:///file3 /user/hadoop/file4 Returværdi: Returnerer 0 med succes, returnerer ikke -1.
chgrp Sådan bruger man: hadoop fs -chgrp [-R] GRUPPE URI [URI ...] Ændr gruppe-tilknytning af filer. Med -R foretages ændringen rekursivt gennem mappestrukturen. Brugeren skal være ejer af filer, eller ellers en superbruger. Yderligere information findes i Permissions User Guide. -->
Ændr den gruppe, filen tilhører. Ved at bruge -R vil ændringen ske rekursivt under mappestrukturen. Brugeren af kommandoen skal være ejer af filen eller en superbruger. For mere information, se HDFS Permissions User Guide.
chmod Sådan bruger man: hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
Ændr tilladelserne for en fil. Ved at bruge -R vil ændringen ske rekursivt under mappestrukturen. Brugeren af kommandoen skal være ejer af filen eller en superbruger. For mere information, se HDFS Permissions User Guide.
chown Sådan bruger man: hadoop fs -chown [-R] [EJER][:[GROUP]] URI [URI ]
Skift ejeren af filen. Ved at bruge -R vil ændringen ske rekursivt under mappestrukturen. Brugeren af kommandoen skal være en superbruger. For mere information, se HDFS Permissions User Guide.
copyFromLocal Sådan bruger man: hadoop fs -copyFromLocal <localsrc> URI
Bortset fra at kildestien er en lokal fil, ligesom put-kommandoen.
copyToLocal Sådan bruger man: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
Lignende get-kommandoen, bortset fra at målstien er en lokal fil.
CP Sådan bruger man: hadoop fs -cp URI [URI ...] <dest>
Kopier filer fra kildestien til destinationsstien. Denne kommando tillader flere kildestier, hvor destinationsstien skal være en mappe. Eksempel:
Hadoop FS -cp /bruger/hadoop/fil1 /bruger/hadoop/fil2 Hadoop FS -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir Returværdi:
Returnerer 0 med succes, returnerer ikke -1.
du Sådan bruger man: hadoop fs -du URI [URI ...]
Viser størrelsen på alle filer i mappen, eller når kun én fil er angivet. Eksempel: Hadoop FS -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1 Returværdi: Returnerer 0 med succes, returnerer ikke -1.
DUS Sådan bruger man: hadoop fs -<args>dus
Viser filens størrelse.
Sletning
Sådan bruger du: Hadoop FS -expunge
Tøm genbrugsbeholderen. Se venligst HDFS' designdokumentation for mere information om genbrugsbeholderens egenskaber.
Få fat
Sådan bruger man: hadoop fs -get [-ignorecrc] [-crc <src> <localdst>] Kopier filer til dit lokale filsystem. Du kan bruge -ignorecrc-muligheden til at kopiere filer, der ikke har fejlet CRC-verifikation. Brug -crc-muligheden til at kopiere filen sammen med CRC-informationen.
Eksempel:
hadoop fs -get /user/hadoop/file localfile Hadoop FS -hent hdfs://host:port/user/hadoop/file localfile Returværdi:
Returnerer 0 med succes, returnerer ikke -1.
getmerge Sådan bruger man: hadoop fs -getmerge <src> <localdst> [addnl]
Accepter en kildemappe og en målfil som input, og forbind alle filerne i kildemappen til den lokale målfil. ADDNL er valgfrit og specificerer, at der tilføjes et linjeskift til slutningen af hver fil.
ls Sådan bruger man: hadoop fs -ls <args>
Hvis det er en fil, returneres filinformationen i følgende format: Filnavn <副本数> Filstørrelse Dato Ændret: Tid ændret: Tilladelser Bruger-ID, Gruppe-ID og ID Hvis det er en mappe, returnerer den en liste over sine direkte underfiler, ligesom i Unix. Indholdsforhøjelsen giver følgende oplysninger: Mappenavn <dir> Ændret dato Ændret tid Tilladelse Bruger-ID Gruppe-ID Eksempel: Hadoop FS -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://host:port/user/hadoop/dir1 /nonexistentfile Returværdi: Returnerer 0 med succes, returnerer ikke -1.
LSR
Sådan bruger man: hadoop fs -<args>lsr Er kommando. Ligner ls -R i Unix.
mkdir Sådan bruger man: hadoop fs -mkdir <paths> Accepter den URI, der er specificeret af stien, som parameter for at oprette disse mapper. Den opfører sig som Unix's mkdir -p, som opretter forældremapper på alle niveauer i stien.
Eksempel:
Hadoop FS -mkdir /user/hadoop/dir1 /user/hadoop/dir2 Hadoop FS -mkdir hdfs://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir Returværdi:
Returnerer 0 med succes, returnerer ikke -1.
movefromLocal
Sådan bruger du: dfs -moveFromLocal <src> <dst>
Sender en "ikke implementeret"-besked.
MV Sådan bruger man: hadoop fs -mv URI [URI ...] <dest>
Flyt filer fra kildestien til destinationsstien. Denne kommando tillader flere kildestier, hvor destinationsstien skal være en mappe. Det er ikke tilladt at flytte filer mellem forskellige filsystemer. Eksempel:
Hadoop FS -mv /user/hadoop/file1 /user/hadoop/file2 Hadoop FS -MV HDFS://host:port/file1 hdfs://host:port/file2 hdfs://host:port/file3 hdfs://host:port/dir1 Returværdi:
Returnerer 0 med succes, returnerer ikke -1.
Sæt Sådan bruger man: hadoop fs -put <localsrc> ... <dst>
Kopier en enkelt eller flere kildestier fra det lokale filsystem til destinationsfilsystemet. Den understøtter også læsning af input fra standardinput og skrivning af dem til målfilsystemet. Hadoop FS -put localfile /user/hadoop/hadoopfile Hadoop FS -put localfile1 localfile2 /user/hadoop/hadoopdir Hadoop FS -put localfile hdfs://host:port/hadoop/hadoopfile Hadoop FS -put - hdfs://host:port/hadoop/hadoopfile Læs input fra standardinput. Returværdi:
Returnerer 0 med succes, returnerer ikke -1.
RM Sådan bruger man: hadoop fs -rm URI [URI ...]
Slet den angivne fil. Kun ikke-tomme mapper og filer slettes. For mere information, se rmr-kommandoen for rekursiv sletning. Eksempel:
Hadoop FS -rm hdfs://host:port/file /user/hadoop/emptydir Returværdi:
Returnerer 0 med succes, returnerer ikke -1.
RMR Sådan bruger man: hadoop fs -rmr URI [URI ...]
Slet. Eksempel:
Hadoop FS -rmr /bruger/hadoop/DIR Hadoop FS -rmr hdfs://host:port/user/hadoop/dir Returværdi:
Returnerer 0 med succes, returnerer ikke -1.
setrep Sådan bruger man: hadoop fs -setrep [-R<path>]
Ændr kopifaktoren på en fil. -R-muligheden bruges til rekursivt at ændre kopifaktoren for alle filer i mappen.
Eksempel:
hadoop fs -setrep -w 3 -R /user/hadoop/dir1 Returværdi:
Returnerer 0 med succes, returnerer ikke -1.
stat Sådan bruger man: hadoop fs -stat URI [URI ...]
Returnerer statistikker for den angivne sti.
Eksempel:
Hadoop FS -stat sti Returværdi: Returnerer 0 med succes, returnerer ikke -1.
Hale Sådan bruger man: hadoop fs -tail [-f] URI
Output indholdet af de sidste 1K bytes af filen til stdout. Understøttelse af -f-muligheden, adfærden er konsistent med Unix.
Eksempel:
Hadoop FS -halestinavn Returværdi: Returnerer 0 med succes, returnerer ikke -1.
test Sådan bruger man: hadoop fs -test -[ezd] URI
Muligheder: -e Tjek om filen findes. Returnerer 0, hvis det er til stede. -z Tjek om filen er 0 bytes. Hvis ja, returnerer 0. -d returnerer 1, hvis stien er en mappe, ellers 0. Eksempel:
hadoop fs -test -e filnavn
Tekst Sådan bruger man: hadoop fs <src>-text Output kildefilen som tekstformat. Tilladte formater er zip og TextRecordInputStream.
touchz Sådan bruger man: hadoop fs -touchz URI [URI ...] Opret en tom fil med 0 bytes.
Eksempel:
Hadoop -touchz stinavn Returværdi: Returnerer 0 med succes, returnerer ikke -1.
Officielle links:Hyperlink-login er synlig.
|