FS Shell
Volání příkazu File System (FS) Shell by mělo být ve formě bin/hadoop fs<args>. Všechny příkazy ve FS shell používají jako parametr cestu URI. Formát URI je scheme://authority/path. Pro souborové systémy HDFS je scheme hdfs a pro lokální souborové systémy scheme je soubor. Parametry schématu a autority jsou volitelné, a pokud nejsou specifikovány, použije se výchozí schéma specifikované v konfiguraci. HDFS soubor nebo adresář, například /parent/child, lze reprezentovat jako hdfs://namenode:namenodeport/parent/child, nebo jednoduše /parent/child (za předpokladu, že výchozí hodnota ve vašem konfiguračním souboru je namenode:namenodeport). Většina příkazů FS Shell se chová podobně jako jejich unixové protějšky, s rozdíly, které budou uvedeny v následující části. Chybové informace jsou výstupovány do stderr a další informace jsou vytištěny do stdout.
KočkaJak používat: hadoop fs -cat URI [URI ...]
Výstup obsahu souboru určeného cestou do stdout.
Příklad:
Hadoop FS -cat HDFS://host1:port1/file1 HDFS://host2:port2/file2 hadoop fs -cat file:///file3 /user/hadoop/file4 Návratnost: Úspěšně vrátí 0, nevrátí -1.
CHGRP Jak používat: hadoop fs -chgrp [-R] SKUPINA URI [URI ...] Změňte skupinové asociace souborů. S -R proveďte změnu rekurzivně skrze strukturu adresářů. Uživatel musí být vlastníkem souborů, nebo superuživatelem. Další informace najdete v uživatelském příručce Oprávnění. -->
Změňte skupinu, do které soubor patří. Použitím -R se změna provede rekurzivně v rámci adresářové struktury. Uživatelem příkazu musí být vlastník souboru nebo superuživatel. Pro více informací viz Uživatelská příručka oprávnění HDFS.
chmod Jak používat: hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
Změňte oprávnění souboru. Použitím -R se změna provede rekurzivně v rámci adresářové struktury. Uživatelem příkazu musí být vlastník souboru nebo superuživatel. Pro více informací viz Uživatelská příručka oprávnění HDFS.
Chown Jak používat: hadoop fs -chown [-R] [MAJITEL][:[GROUP]] URI [URI ]
Změňte vlastníka souboru. Použitím -R se změna provede rekurzivně v rámci adresářové struktury. Uživatel příkazu musí být superuživatel. Pro více informací viz Uživatelská příručka oprávnění HDFS.
copyFromLocal Jak používat: hadoop fs -copyFromLocal <localsrc> URI
Jenže zdrojová cesta je lokální soubor, podobně jako příkaz put.
copyToLocal Jak používat: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
Podobně jako příkaz get, ale cílová cesta je lokální soubor.
cp Jak používat: hadoop fs -cp URI [URI ...] <dest>
Zkopírujte soubory ze zdrojové cesty na cílovou cestu. Tento příkaz umožňuje více zdrojových cest, v takovém případě musí být cílovou cestou adresář. Příklad:
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir Návratnost:
Úspěšně vrátí 0, nevrátí -1.
du Jak používat: hadoop fs -du URI [URI ...]
Zobrazuje velikost všech souborů v adresáři, nebo když je specifikován pouze jeden soubor. Příklad: hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1 Návratnost: Úspěšně vrátí 0, nevrátí -1.
Dus Jak použít: hadoop fs -<args>dus
Zobrazuje velikost souboru.
Vymazání
Jak používat: Hadoop FS - vymazání
Vysypte koš. Pro více informací o charakteristikách kontejneru na recyklaci se prosím podívejte na návrhovou dokumentaci HDFS.
Dostaň
Jak používat: hadoop fs -get [-ignorecrc] [-crc <src> <localdst>] Zkopírujte soubory do svého lokálního souborového systému. Můžete použít možnost -ignorecrc ke zkopírování souborů, které neprošly ověřením CRC. Použijte možnost -crc pro zkopírování souboru spolu s informacemi o CRC.
Příklad:
hadoop fs -get /user/hadoop/file localfile hadoop fs -get hdfs://host:port/user/hadoop/file localfile Návratnost:
Úspěšně vrátí 0, nevrátí -1.
getmerge Jak používat: hadoop fs -<src> <localdst> getmerge [addnl]
Přijměte zdrojový adresář a cílový soubor jako vstup a všechny soubory ve zdrojovém adresáři připojte k lokálnímu cílovému souboru. addnl je volitelný a specifikuje, že na konec každého souboru je přidán zlom řádku.
ls Jak používat: hadoop fs -ls <args>
Pokud jde o soubor, informace o souboru se vrací v následujícím formátu: Název souboru <副本数> Velikost souboru Datum úpravy: Čas úpravy: Oprávnění Uživatelské ID, ID skupiny a ID Pokud je to adresář, vrátí seznam svých přímých podsouborů, stejně jako v Unixu. Obsah vrací následující informace: Název adresáře <dir> Změna Datum změny Čas Oprávnění ID uživatele Skupinové ID Příklad: hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://host:port/user/hadoop/dir1 /nonexistentfile Návratnost: Úspěšně vrátí 0, nevrátí -1.
LSR
Jak používat: hadoop fs -<args>lsr Je velení. Podobně jako ls-R v Unixu.
mkdir Jak používat: hadoop fs -mkdir <paths> Přijměte URI určené cestou jako parametr pro vytvoření těchto adresářů. Chová se jako unixův mkdir -p, který vytváří rodičovské adresáře na všech úrovních cesty.
Příklad:
hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2 Hadoop FS -mkdir hdfs://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir Návratnost:
Úspěšně vrátí 0, nevrátí -1.
přesunout se z místního prostředí
Jak používat: dfs -moveFromLocal <src> <dst>
Výstup vyjde zprávou "neimplementováno".
MV Jak používat: hadoop fs -mv URI [URI ...] <dest>
Přesuňte soubory ze zdrojové cesty na cílovou cestu. Tento příkaz umožňuje více zdrojových cest, v takovém případě musí být cílovou cestou adresář. Přesouvání souborů mezi různými souborovými systémy není povoleno. Příklad:
hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2 Hadoop FS -MV HDFS://host:port/file1 HDFS://host:port/file2 HDFS://host:port/file3 HDFS://host:port/dir1 Návratnost:
Úspěšně vrátí 0, nevrátí -1.
Dát Jak používat: hadoop fs -put <localsrc> ... <dst>
Zkopírovat jednu nebo více zdrojových cest z lokálního souborového systému do cílového souborového systému. Podporuje také čtení vstupů ze standardních vstupů a jejich zápis do cílového souborového systému. hadoop fs -put localfile /user/hadoop/hadoopfile hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile hadoop fs -put - hdfs://host:port/hadoop/hadoopfile Čti vstup ze standardního vstupu. Návratnost:
Úspěšně vrátí 0, nevrátí -1.
RM Jak používat: hadoop fs -rm URI [URI ...]
Smažte uvedený soubor. Mažou se pouze neprázdné adresáře a soubory. Pro více informací se podívejte na příkaz rmr pro rekurzivní mazání. Příklad:
hadoop fs -rm hdfs://host:port/file /user/hadoop/emptydir Návratnost:
Úspěšně vrátí 0, nevrátí -1.
RMR Jak používat: hadoop fs -rmr URI [URI ...]
Smazat. Příklad:
hadoop fs -rmr /user/hadoop/dir Hadoop FS -rmr HDFS://host:port/user/hadoop/dir Návratnost:
Úspěšně vrátí 0, nevrátí -1.
setrep Jak používat: hadoop fs -setrep [-R<path>]
Změňte kopírovací faktor souboru. Volba -R se používá k rekurzivní změně kopírovacího faktoru všech souborů v adresáři.
Příklad:
hadoop fs -setrep -w 3 -R /user/hadoop/dir1 Návratnost:
Úspěšně vrátí 0, nevrátí -1.
Statistika Jak používat: hadoop fs -stat URI [URI ...]
Vrací statistiky pro zadanou cestu.
Příklad:
Hadoop FS - cesta ke statistikám Návratnost: Úspěšně vrátí 0, nevrátí -1.
Ocas Jak používat: hadoop fs -tail [-f] URI
Výstup obsahu posledních 1K bajtů souboru do stdout. Podporujte možnost -f, chování je konzistentní s Unixem.
Příklad:
Hadoop FS -tail pathname Návratnost: Úspěšně vrátí 0, nevrátí -1.
test Jak použít: hadoop fs -test -[ezd] URI
Možnosti: -e Zkontroluj, jestli soubor existuje. Pokud je přítomen, vrací 0. -z Zkontroluj, zda je soubor 0 bajtů. Pokud ano, vrátí 0. -d Vrací 1, pokud je cesta adresář, jinak 0. Příklad:
Hadoop fs -test -e název souboru
Text Jak používat: hadoop fs <src>-text Výstup zdrojového souboru je textový formát. Povolené formáty jsou zip a TextRecordInputStream.
touchz Jak používat: hadoop fs -touchz URI [URI ...] Vytvořte prázdný soubor s 0 bajty.
Příklad:
Název cesty hadoop -touchz Návratnost: Úspěšně vrátí 0, nevrátí -1.
Oficiální odkazy:Přihlášení k hypertextovému odkazu je viditelné.
|