Baru-baru ini, perusahaan perlu menggunakan hbase untuk menyimpan data dalam jumlah besar, dan manajer telah memberi kami pelajaran tentang pengetahuan yang relevan.
Lingkungan:
Sistem:
CentOS Linux rilis 7.5.1804 (Inti)
Perintah:
Versi Java:
Versi Java "1.8.0_191" Lingkungan Runtime Java(TM) SE (build 1.8.0_191-b12) Java HotSpot(TM) 64-Bit Server VM (build 25.191-b12, mode campuran)
Perintah:
Versi Hadoop:
Hadoop 2.8.3 SubversiLogin hyperlink terlihat.-r b3fe56402d908019d99af1f1f4fc65cb1d1436a2 Disusun oleh jdu pada 2017-12-05T03:43Z Dikompilasi dengan protoc 2.5.0 Dari sumber dengan checksum 9ff4856d824e983fa510d3f843e3f19d Perintah ini dijalankan menggunakan /home/itsvse/apache/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar
Perintah:
Versi HBase:
2.1.1, rb60a92d6864ef27295027f5961cb46f9162d7637, Jum 26 Okt 19:27:03 PDT 2018
Perintah shell hbase:
Shell HBase dapat dimulai menggunakan perintah berikut
[root@master ~]# temukan / -nama "hbase"
/home/itsvse/apache/hbase-2.1.1/docs/testapidocs/org/apache/hadoop/hbase
/home/itsvse/apache/hbase-2.1.1/docs/testapidocs/org/apache/hbase
/home/itsvse/apache/hbase-2.1.1/docs/testapidocs/src-html/org/apache/hadoop/hbase
/home/itsvse/apache/hbase-2.1.1/docs/testapidocs/src-html/org/apache/hbase
/home/itsvse/apache/hbase-2.1.1/docs/apidocs/org/apache/hadoop/hbase
/home/itsvse/apache/hbase-2.1.1/docs/apidocs/org/apache/hbase
/home/itsvse/apache/hbase-2.1.1/docs/apidocs/src-html/org/apache/hadoop/hbase
/home/itsvse/apache/hbase-2.1.1/docs/apidocs/src-html/org/apache/hbase
/home/itsvse/apache/hbase-2.1.1/bin/hbase
/home/itsvse/apache/hbase-2.1.1/lib/ruby/hbase [root@master ~]# cd /home/itsvse/apache/hbase-2.1.1/bin/ [root@master bin]# ./hbase shell
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/itsvse/apache/hadoop-2.8.3/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/itsvse/apache/hbase-2.1.1/lib/client-facing-thirdparty/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindingsuntuk penjelasan.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
Cangkang HBase Gunakan "bantuan" untuk mendapatkan daftar perintah yang didukung. Gunakan "exit" untuk keluar dari shell interaktif ini. Untuk Referensi, silakan kunjungi:http://hbase.apache.org/2.0/book.html#shell Versi 2.1.1, rb60a92d6864ef27295027f5961cb46f9162d7637, Jum 26 Okt 19:27:03 PDT 2018 Butuh 0,0050 detik hbase(utama):001:0> hbase(utama):002:0* hbase(utama):003:0* versi 2.1.1, rb60a92d6864ef27295027f5961cb46f9162d7637, Jum 26 Okt 19:27:03 PDT 2018 Butuh 0,0006 detik hbase(utama):004:0>
Perkenalan
Setelah penginstalan Hadoop berhasil dimulai, jalankan perintah jps untuk memeriksa apakah proses berhasil dimulai, jika berhasil (tidak diuji).
[hadoop@master ~]$jps
Masternode akan muncul: NamaNode Pelacak Pekerjaan SecondaryNameNode
slave1 node muncul: TanggalNode Pelacak Tugas
slave2node muncul: TanggalNode Pelacak Tugas
Versi HBase mendukung versi Hadoop
S adalah singkatan dari support X tidak didukung NT adalah singkatan dari tidak ada tes
Tautan referensi:Login hyperlink terlihat.
Beberapa perintah operasi dasar HBase Shell tercantum sebagai berikut:
| Nama | Ekspresi perintah | | Lihat tabel apa saja yang ada | Daftar | | Membuat tabel | buat 'nama tabel', 'nama kolom 1', 'nama kolom 2', 'nama kolom N' | | Menambahkan rekaman | Masukkan 'nama tabel', 'nama baris', 'nama kolom:', 'nilai' | | Lihat catatan | Dapatkan 'nama tabel', 'nama baris' | | Melihat jumlah total rekaman dalam tabel | hitung 'nama tabel' | | Hapus rekaman | Hapus 'nama tabel', 'nama baris', 'nama kolom' | | Menghapus tabel | Tabel harus diblokir sebelum tabel dapat dihapus, langkah pertama adalah menonaktifkan 'nama tabel' Langkah kedua adalah menjatuhkan 'nama tabel' | | Lihat semua catatan | Pindai "nama tabel" | | Melihat semua data di kolom tertentu tabel | Pindai "nama tabel" , ['nama kolom:'] | | Perbarui catatan | Ini adalah menulis ulang dan mengembalikannya |
Memahami
Hadoop Distributed File System (HDFS), HBase adalah proyek penyimpanan data berdasarkan Hadoop, dan Hive digunakan untuk analisis data.
(Akhir)
|