Artikel ini adalah artikel cermin dari terjemahan mesin, silakan klik di sini untuk melompat ke artikel aslinya.

Melihat: 8357|Jawab: 0

Rollup perintah Hadoop HDFS Shell

[Salin tautan]
Diposting pada 05/07/2019 15.29.44 | | | |
FS Shell

Memanggil perintah Shell Sistem File (FS) harus dalam bentuk bin/hadoop fs<args>. Semua perintah shell FS menggunakan jalur URI sebagai parameter. Format URI adalah scheme://authority/path. Untuk sistem file HDFS, skema adalah hdfs, dan untuk sistem file lokal, skema adalah file. Parameter skema dan otoritas bersifat opsional, dan jika tidak ditentukan, skema default yang ditentukan dalam konfigurasi akan digunakan. File atau direktori HDFS seperti /parent/child dapat direpresentasikan sebagai hdfs://namenode:namenodeport/parent/child, atau hanya /parent/child (dengan asumsi nilai default dalam file konfigurasi Anda adalah namenode:namenodeport). Sebagian besar perintah FS Shell berperilaku mirip dengan rekan Unix Shell mereka, dengan perbedaan yang akan dicatat di bagian berikut. Informasi kesalahan dikeluarkan ke stderr, dan informasi lainnya dikeluarkan ke stdout.



kucingCara menggunakan: hadoop fs -cat URI [URI ...]

Keluarkan konten file yang ditentukan jalur ke stdout.

Contoh:

hadoop fs -cat hdfs://host1:port1/file1 hdfs://host2:port2/file2
hadoop fs -cat file:///file3 /user/hadoop/file4
Nilai pengembalian:
Berhasil mengembalikan 0, gagal mengembalikan -1.

chgrp
Cara menggunakan: hadoop fs -chgrp [-R] GROUP URI [URI ...] Ubah asosiasi grup file. Dengan -R, buat perubahan secara rekursif melalui struktur direktori. Pengguna harus menjadi pemilik file, atau pengguna super. Informasi tambahan ada di Panduan Pengguna Izin. -->

Ubah grup tempat file berada. Menggunakan -R akan membuat perubahan secara rekursif di bawah struktur direktori. Pengguna perintah harus menjadi pemilik file atau superuser. Untuk informasi selengkapnya, lihat Panduan Pengguna Izin HDFS.

chmod
Cara menggunakan: hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]

Ubah izin file. Menggunakan -R akan membuat perubahan secara rekursif di bawah struktur direktori. Pengguna perintah harus menjadi pemilik file atau superuser. Untuk informasi selengkapnya, lihat Panduan Pengguna Izin HDFS.

chown
Cara menggunakan: hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]

Ubah pemilik file. Menggunakan -R akan membuat perubahan secara rekursif di bawah struktur direktori. Pengguna perintah harus superuser. Untuk informasi selengkapnya, lihat Panduan Pengguna Izin HDFS.

copyFromLocal
Cara menggunakan: hadoop fs -copyFromLocal <localsrc> URI

Kecuali bahwa jalur sumber adalah file lokal, mirip dengan perintah put.

copyToLocal
Cara menggunakan: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>

Mirip dengan perintah get, kecuali bahwa jalur target adalah file lokal.

cp
Cara menggunakan: hadoop fs -cp URI [URI ...] <dest>

Salin file dari jalur sumber ke jalur tujuan. Perintah ini memungkinkan beberapa jalur sumber, dalam hal ini jalur tujuan harus berupa direktori.
Contoh:

hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
Nilai pengembalian:

Berhasil mengembalikan 0, gagal mengembalikan -1.

du
Cara menggunakan: hadoop fs -du URI [URI ...]

Menampilkan ukuran semua file di direktori, atau ketika hanya satu file yang ditentukan.
Contoh:
hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1
Nilai pengembalian:
Berhasil mengembalikan 0, gagal mengembalikan -1.

dus
Cara menggunakan: hadoop fs -<args>dus

Menampilkan ukuran file.

menghapus

Cara menggunakan: Hadoop FS -expunge

Kosongkan tempat sampah. Silakan merujuk ke dokumentasi desain HDFS untuk informasi lebih lanjut tentang karakteristik tempat sampah daur ulang.

dapatkan

Cara menggunakan: hadoop fs -get [-ignorecrc] [-crc <src> <localdst>]
Salin file ke sistem file lokal Anda. Anda dapat menggunakan opsi -ignorecrc untuk menyalin file yang gagal verifikasi CRC. Gunakan opsi -crc untuk menyalin file bersama dengan informasi CRC.

Contoh:

hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://host:port/user/hadoop/file localfile
Nilai pengembalian:

Berhasil mengembalikan 0, gagal mengembalikan -1.

getmerge
Cara menggunakan: hadoop fs -getmerge <src> <localdst> [addnl]

Terima direktori sumber dan file target sebagai input, dan sambungkan semua file di direktori sumber ke file target lokal. addnl bersifat opsional dan menentukan bahwa jeda baris ditambahkan ke akhir setiap file.

ls
Cara menggunakan: hadoop fs -ls <args>

Jika itu adalah file, informasi file dikembalikan dalam format berikut:
Nama File <副本数> Ukuran File Tanggal Diubah: Waktu Diubah: ID Pengguna Izin, ID Grup, dan ID
Jika itu adalah direktori, itu mengembalikan daftar subfile langsungnya, seperti di Unix. Daftar isi mengembalikan informasi berikut:
Nama <dir> Direktori Tanggal Dimodifikasi Izin Waktu yang Dimodifikasi ID Pengguna ID Grup
Contoh:
hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://host:port/user/hadoop/dir1 /nonexistentfile
Nilai pengembalian:
Berhasil mengembalikan 0, gagal mengembalikan -1.

LSR

Cara menggunakan: hadoop fs -<args>lsr
perintah ls. Mirip dengan ls -R di Unix.

mkdir
Cara menggunakan: hadoop fs -mkdir <paths>
Terima URI yang ditentukan oleh jalur sebagai parameter untuk membuat direktori ini. Ini berperilaku seperti mkdir -p Unix, yang membuat direktori induk di semua tingkatan di jalur.

Contoh:

hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
hadoop fs -mkdir hdfs://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir
Nilai pengembalian:

Berhasil mengembalikan 0, gagal mengembalikan -1.

pindahdariLokal

Cara menggunakan: dfs -moveFromLocal <src> <dst>

Mengeluarkan pesan "tidak diimplementasikan".

mv
Cara menggunakan: hadoop fs -mv URI [URI ...] <dest>

Pindahkan file dari jalur sumber ke jalur tujuan. Perintah ini memungkinkan beberapa jalur sumber, dalam hal ini jalur tujuan harus berupa direktori. Memindahkan file di antara sistem file yang berbeda tidak diperbolehkan.
Contoh:

hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
Hadoop FS -mv hdfs://host:port/file1 hdfs://host:port/file2 hdfs://host:port/file3 hdfs://host:port/dir1
Nilai pengembalian:

Berhasil mengembalikan 0, gagal mengembalikan -1.

menempatkan
Cara menggunakan: hadoop fs -put <localsrc> ... <dst>

Salin satu atau beberapa jalur sumber dari sistem file lokal ke sistem file tujuan. Ini juga mendukung membaca input dari input standar dan menulisnya ke sistem file target.
hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile
hadoop fs -put - hdfs://host:port/hadoop/hadoopfile
Baca input dari input standar.
Nilai pengembalian:

Berhasil mengembalikan 0, gagal mengembalikan -1.

rm
Cara menggunakan: hadoop fs -rm URI [URI ...]

Hapus file yang ditentukan. Hanya direktori dan file yang tidak kosong yang dihapus. Untuk informasi selengkapnya, lihat perintah rmr untuk penghapusan rekursif.
Contoh:

Hadoop FS -rm hdfs://host:port/file /user/hadoop/emptydir
Nilai pengembalian:

Berhasil mengembalikan 0, gagal mengembalikan -1.

RMR
Cara menggunakan: hadoop fs -rmr URI [URI ...]

hapus.
Contoh:

Hadoop FS -RMR /Pengguna/Hadoop/Dir
Hadoop FS -rmr hdfs://host:port/user/hadoop/dir
Nilai pengembalian:

Berhasil mengembalikan 0, gagal mengembalikan -1.

setrep
Cara menggunakan: hadoop fs -setrep [-R<path>]

Ubah faktor salinan file. Opsi -R digunakan untuk mengubah faktor salinan semua file di direktori secara rekursif.

Contoh:

hadoop fs -setrep -w 3 -r /user/hadoop/dir1
Nilai pengembalian:

Berhasil mengembalikan 0, gagal mengembalikan -1.

Statistik
Cara menggunakan: hadoop fs -stat URI [URI ...]

Mengembalikan statistik untuk jalur yang ditentukan.

Contoh:

Hadoop FS -Jalur Stat
Nilai pengembalian:
Berhasil mengembalikan 0, gagal mengembalikan -1.

ekor
Cara menggunakan: hadoop fs -tail [-f] URI

Keluarkan konten 1K byte terakhir file ke stdout. Mendukung opsi -f, perilakunya konsisten dengan Unix.

Contoh:

Hadoop FS -Nama jalur ekor
Nilai pengembalian:
Berhasil mengembalikan 0, gagal mengembalikan -1.

ujian
Cara menggunakan: hadoop fs -test -[ezd] URI

Opsi:
-e Periksa apakah file itu ada. Mengembalikan 0 jika ada.
-z Periksa apakah file 0 byte. Jika ya, mengembalikan 0.
-d Mengembalikan 1 jika jalurnya adalah direktori, jika tidak, 0.
Contoh:

Hadoop fs -test -e nama file

Teks
Cara menggunakan: hadoop fs <src>-text
Keluarkan file sumber sebagai format teks. Format yang diizinkan adalah zip dan TextRecordInputStream.

sentuh

Cara menggunakan: hadoop fs -touchz URI [URI ...]
Buat file kosong dengan 0 byte.

Contoh:

Nama jalur Hadoop -touchz
Nilai pengembalian:
Berhasil mengembalikan 0, gagal mengembalikan -1.

Link resmi:Login hyperlink terlihat.




Mantan:Kuasai akses antarmuka Java API HDFS
Depan:Operasi API untuk Hadoop - HDFS
Sanggahan:
Semua perangkat lunak, materi pemrograman, atau artikel yang diterbitkan oleh Code Farmer Network hanya untuk tujuan pembelajaran dan penelitian; Konten di atas tidak boleh digunakan untuk tujuan komersial atau ilegal, jika tidak, pengguna akan menanggung semua konsekuensi. Informasi di situs ini berasal dari Internet, dan sengketa hak cipta tidak ada hubungannya dengan situs ini. Anda harus sepenuhnya menghapus konten di atas dari komputer Anda dalam waktu 24 jam setelah pengunduhan. Jika Anda menyukai program ini, harap dukung perangkat lunak asli, pembelian pendaftaran, dan dapatkan layanan asli yang lebih baik. Jika ada pelanggaran, silakan hubungi kami melalui email.

Mail To:help@itsvse.com