Tento článek je zrcadlovým článkem o strojovém překladu, klikněte zde pro přechod na původní článek.

Pohled: 8357|Odpověď: 0

Hadoop HDFS Shell příkazový rollup

[Kopírovat odkaz]
Zveřejněno 05.07.2019 15:29:44 | | | |
FS Shell

Volání příkazu File System (FS) Shell by mělo být ve formě bin/hadoop fs<args>. Všechny příkazy ve FS shell používají jako parametr cestu URI. Formát URI je scheme://authority/path. Pro souborové systémy HDFS je scheme hdfs a pro lokální souborové systémy scheme je soubor. Parametry schématu a autority jsou volitelné, a pokud nejsou specifikovány, použije se výchozí schéma specifikované v konfiguraci. HDFS soubor nebo adresář, například /parent/child, lze reprezentovat jako hdfs://namenode:namenodeport/parent/child, nebo jednoduše /parent/child (za předpokladu, že výchozí hodnota ve vašem konfiguračním souboru je namenode:namenodeport). Většina příkazů FS Shell se chová podobně jako jejich unixové protějšky, s rozdíly, které budou uvedeny v následující části. Chybové informace jsou výstupovány do stderr a další informace jsou vytištěny do stdout.



KočkaJak používat: hadoop fs -cat URI [URI ...]

Výstup obsahu souboru určeného cestou do stdout.

Příklad:

Hadoop FS -cat HDFS://host1:port1/file1 HDFS://host2:port2/file2
hadoop fs -cat file:///file3 /user/hadoop/file4
Návratnost:
Úspěšně vrátí 0, nevrátí -1.

CHGRP
Jak používat: hadoop fs -chgrp [-R] SKUPINA URI [URI ...] Změňte skupinové asociace souborů. S -R proveďte změnu rekurzivně skrze strukturu adresářů. Uživatel musí být vlastníkem souborů, nebo superuživatelem. Další informace najdete v uživatelském příručce Oprávnění. -->

Změňte skupinu, do které soubor patří. Použitím -R se změna provede rekurzivně v rámci adresářové struktury. Uživatelem příkazu musí být vlastník souboru nebo superuživatel. Pro více informací viz Uživatelská příručka oprávnění HDFS.

chmod
Jak používat: hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]

Změňte oprávnění souboru. Použitím -R se změna provede rekurzivně v rámci adresářové struktury. Uživatelem příkazu musí být vlastník souboru nebo superuživatel. Pro více informací viz Uživatelská příručka oprávnění HDFS.

Chown
Jak používat: hadoop fs -chown [-R] [MAJITEL][:[GROUP]] URI [URI ]

Změňte vlastníka souboru. Použitím -R se změna provede rekurzivně v rámci adresářové struktury. Uživatel příkazu musí být superuživatel. Pro více informací viz Uživatelská příručka oprávnění HDFS.

copyFromLocal
Jak používat: hadoop fs -copyFromLocal <localsrc> URI

Jenže zdrojová cesta je lokální soubor, podobně jako příkaz put.

copyToLocal
Jak používat: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>

Podobně jako příkaz get, ale cílová cesta je lokální soubor.

cp
Jak používat: hadoop fs -cp URI [URI ...] <dest>

Zkopírujte soubory ze zdrojové cesty na cílovou cestu. Tento příkaz umožňuje více zdrojových cest, v takovém případě musí být cílovou cestou adresář.
Příklad:

hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
Návratnost:

Úspěšně vrátí 0, nevrátí -1.

du
Jak používat: hadoop fs -du URI [URI ...]

Zobrazuje velikost všech souborů v adresáři, nebo když je specifikován pouze jeden soubor.
Příklad:
hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1
Návratnost:
Úspěšně vrátí 0, nevrátí -1.

Dus
Jak použít: hadoop fs -<args>dus

Zobrazuje velikost souboru.

Vymazání

Jak používat: Hadoop FS - vymazání

Vysypte koš. Pro více informací o charakteristikách kontejneru na recyklaci se prosím podívejte na návrhovou dokumentaci HDFS.

Dostaň

Jak používat: hadoop fs -get [-ignorecrc] [-crc <src> <localdst>]
Zkopírujte soubory do svého lokálního souborového systému. Můžete použít možnost -ignorecrc ke zkopírování souborů, které neprošly ověřením CRC. Použijte možnost -crc pro zkopírování souboru spolu s informacemi o CRC.

Příklad:

hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://host:port/user/hadoop/file localfile
Návratnost:

Úspěšně vrátí 0, nevrátí -1.

getmerge
Jak používat: hadoop fs -<src> <localdst> getmerge [addnl]

Přijměte zdrojový adresář a cílový soubor jako vstup a všechny soubory ve zdrojovém adresáři připojte k lokálnímu cílovému souboru. addnl je volitelný a specifikuje, že na konec každého souboru je přidán zlom řádku.

ls
Jak používat: hadoop fs -ls <args>

Pokud jde o soubor, informace o souboru se vrací v následujícím formátu:
Název souboru <副本数> Velikost souboru Datum úpravy: Čas úpravy: Oprávnění Uživatelské ID, ID skupiny a ID
Pokud je to adresář, vrátí seznam svých přímých podsouborů, stejně jako v Unixu. Obsah vrací následující informace:
Název adresáře <dir> Změna Datum změny Čas Oprávnění ID uživatele Skupinové ID
Příklad:
hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://host:port/user/hadoop/dir1 /nonexistentfile
Návratnost:
Úspěšně vrátí 0, nevrátí -1.

LSR

Jak používat: hadoop fs -<args>lsr
Je velení. Podobně jako ls-R v Unixu.

mkdir
Jak používat: hadoop fs -mkdir <paths>
Přijměte URI určené cestou jako parametr pro vytvoření těchto adresářů. Chová se jako unixův mkdir -p, který vytváří rodičovské adresáře na všech úrovních cesty.

Příklad:

hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
Hadoop FS -mkdir hdfs://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir
Návratnost:

Úspěšně vrátí 0, nevrátí -1.

přesunout se z místního prostředí

Jak používat: dfs -moveFromLocal <src> <dst>

Výstup vyjde zprávou "neimplementováno".

MV
Jak používat: hadoop fs -mv URI [URI ...] <dest>

Přesuňte soubory ze zdrojové cesty na cílovou cestu. Tento příkaz umožňuje více zdrojových cest, v takovém případě musí být cílovou cestou adresář. Přesouvání souborů mezi různými souborovými systémy není povoleno.
Příklad:

hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
Hadoop FS -MV HDFS://host:port/file1 HDFS://host:port/file2 HDFS://host:port/file3 HDFS://host:port/dir1
Návratnost:

Úspěšně vrátí 0, nevrátí -1.

Dát
Jak používat: hadoop fs -put <localsrc> ... <dst>

Zkopírovat jednu nebo více zdrojových cest z lokálního souborového systému do cílového souborového systému. Podporuje také čtení vstupů ze standardních vstupů a jejich zápis do cílového souborového systému.
hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile
hadoop fs -put - hdfs://host:port/hadoop/hadoopfile
Čti vstup ze standardního vstupu.
Návratnost:

Úspěšně vrátí 0, nevrátí -1.

RM
Jak používat: hadoop fs -rm URI [URI ...]

Smažte uvedený soubor. Mažou se pouze neprázdné adresáře a soubory. Pro více informací se podívejte na příkaz rmr pro rekurzivní mazání.
Příklad:

hadoop fs -rm hdfs://host:port/file /user/hadoop/emptydir
Návratnost:

Úspěšně vrátí 0, nevrátí -1.

RMR
Jak používat: hadoop fs -rmr URI [URI ...]

Smazat.
Příklad:

hadoop fs -rmr /user/hadoop/dir
Hadoop FS -rmr HDFS://host:port/user/hadoop/dir
Návratnost:

Úspěšně vrátí 0, nevrátí -1.

setrep
Jak používat: hadoop fs -setrep [-R<path>]

Změňte kopírovací faktor souboru. Volba -R se používá k rekurzivní změně kopírovacího faktoru všech souborů v adresáři.

Příklad:

hadoop fs -setrep -w 3 -R /user/hadoop/dir1
Návratnost:

Úspěšně vrátí 0, nevrátí -1.

Statistika
Jak používat: hadoop fs -stat URI [URI ...]

Vrací statistiky pro zadanou cestu.

Příklad:

Hadoop FS - cesta ke statistikám
Návratnost:
Úspěšně vrátí 0, nevrátí -1.

Ocas
Jak používat: hadoop fs -tail [-f] URI

Výstup obsahu posledních 1K bajtů souboru do stdout. Podporujte možnost -f, chování je konzistentní s Unixem.

Příklad:

Hadoop FS -tail pathname
Návratnost:
Úspěšně vrátí 0, nevrátí -1.

test
Jak použít: hadoop fs -test -[ezd] URI

Možnosti:
-e Zkontroluj, jestli soubor existuje. Pokud je přítomen, vrací 0.
-z Zkontroluj, zda je soubor 0 bajtů. Pokud ano, vrátí 0.
-d Vrací 1, pokud je cesta adresář, jinak 0.
Příklad:

Hadoop fs -test -e název souboru

Text
Jak používat: hadoop fs <src>-text
Výstup zdrojového souboru je textový formát. Povolené formáty jsou zip a TextRecordInputStream.

touchz

Jak používat: hadoop fs -touchz URI [URI ...]
Vytvořte prázdný soubor s 0 bajty.

Příklad:

Název cesty hadoop -touchz
Návratnost:
Úspěšně vrátí 0, nevrátí -1.

Oficiální odkazy:Přihlášení k hypertextovému odkazu je viditelné.




Předchozí:Ovládněte přístup k rozhraní Java API v HDFS
Další:API operace pro Hadoop - HDFS
Zřeknutí se:
Veškerý software, programovací materiály nebo články publikované organizací Code Farmer Network slouží pouze k učení a výzkumu; Výše uvedený obsah nesmí být používán pro komerční ani nelegální účely, jinak nesou všechny důsledky uživatelé. Informace na tomto webu pocházejí z internetu a spory o autorská práva s tímto webem nesouvisí. Musíte výše uvedený obsah ze svého počítače zcela smazat do 24 hodin od stažení. Pokud se vám program líbí, podporujte prosím originální software, kupte si registraci a získejte lepší skutečné služby. Pokud dojde k jakémukoli porušení, kontaktujte nás prosím e-mailem.

Mail To:help@itsvse.com