Video: Trigger SQL File from Snowflake CLI Client 2024
Klien sarang pertama adalah antara muka baris Hive (CLI). Untuk menguasai titik-titik yang lebih baik dari klien CLI Hive, ia mungkin dapat membantu mengkaji seni bina sarang (agak sibuk).
Dalam angka kedua, senibina diselaraskan untuk memberi tumpuan hanya pada komponen yang diperlukan ketika menjalankan CLI.
Ini adalah komponen Hive yang diperlukan ketika menjalankan CLI pada cluster Hadoop. Di sini, anda menjalankan Hive dalam mod tempatan, yang menggunakan storan setempat, bukan HDFS, untuk data anda.
Untuk menjalankan CLI sarang, anda melaksanakan perintah sarang dan tentukan CLI sebagai perkhidmatan yang anda mahu jalankan. Dalam penyenaraian berikut, anda dapat melihat arahan yang diperlukan serta beberapa pernyataan HiveQL pertama kami. (Anotasi langkah menggunakan model A-B-C dimasukkan ke dalam senarai untuk mengarahkan perhatian anda kepada arahan utama.)
(A) $ $ HIVE_HOME / bin hive --service cli (B) hive> set sarang. cli. cetak. semasa. db = true; (C) sarang (lalai)> CREATE DATABASE ourfirstdatabase; OK Masa diambil: 3. 756 saat (D) sarang (lalai)> USE ourfirstdatabase; OK Masa diambil: 0. 039 saat (E) sarang (ourfirstdatabase)> CREATE TABLE our_first_table (> FirstName STRING,> LastName STRING,> EmployeeId INT); OK Masa diambil: 0. 043 detik sarang (ourfirstdatabase)> berhenti; (F) $ ls / home / biadmin / Hive / gudang / ourfirstdatabase. db our_first_table
Perintah pertama (lihat Langkah A) memulakan CLI Hive menggunakan pembolehubah persekitaran $ HIVE_HOME. Pilihan baris perintah perkhidmatan mengarahkan sistem sarang untuk memulakan antara muka baris perintah, walaupun anda boleh memilih pelayan lain.
Seterusnya, dalam Langkah B, anda memberitahu CLI sarang untuk mencetak pangkalan data semasa anda supaya anda tahu di mana anda berada di ruang nama. (Pernyataan ini akan masuk akal selepas kita menjelaskan cara menggunakan perintah seterusnya, jadi tahan ketat.)
Dalam Langkah C anda menggunakan bahasa definisi data HiveQL (DDL) untuk membuat pangkalan data pertama anda. (Ingatlah bahawa pangkalan data dalam Hive hanyalah ruang nama di mana jadual-jadual tertentu tinggal kerana satu set jadual boleh dianggap sebagai pangkalan data atau skema, anda boleh menggunakan istilah SCHEMA sebagai pengganti DATABASE untuk mencapai hasil yang sama.).
Lebih khusus lagi, anda menggunakan DDL untuk memberitahu sistem untuk membuat pangkalan data yang dipanggil ourfirstdatabase dan kemudian untuk menjadikan pangkalan data ini sebagai lalai bagi arahan HiveQL DDL yang berikutnya menggunakan perintah USE di Langkah D. Di Langkah E, anda membuat pertama jadual dan beri nama (cukup sesuai) our_first_table.
(Sehingga kini, anda mungkin percaya bahawa ia kelihatan seperti banyak SQL, dengan mungkin beberapa perbezaan kecil dalam sintaks bergantung kepada yang RDBMS anda terbiasa - dan anda pasti betul.) Perintah terakhir, dalam Langkah F, menjalankan senarai direktori direktori gudang Hive yang anda pilih supaya anda dapat melihat bahawa our_first_table sebenarnya telah disimpan pada cakera.
Anda menetapkan sarang. metastore. gudang. dir ubah untuk menunjuk ke direktori / home / biadmin / Hive / gudang di mesin maya Linux anda daripada menggunakan HDFS seperti yang anda lakukan pada cluster Hadoop yang sesuai.
Selepas anda membuat jadual, menarik untuk melihat metadata jadual. Dalam persekitaran pengeluaran, anda mungkin mempunyai berpuluh-puluh jadual atau lebih, jadi berguna untuk dapat mengkaji semula struktur jadual dari semasa ke semasa. Anda c dan menggunakan perintah HiveQL untuk melakukan ini menggunakan CLI Hive, tetapi Server Hive Web Interface (HWI) menyediakan antara muka yang berguna untuk jenis operasi ini.
Menggunakan Server HWI dan bukannya CLI juga boleh menjadi lebih selamat. Pertimbangan yang berhati-hati mesti dibuat apabila menggunakan CLI dalam persekitaran pengeluaran kerana mesin yang menjalankan CLI mesti mempunyai akses ke seluruh gugusan Hadoop.
Oleh itu, pentadbir sistem biasanya meletakkan alat seperti shell selamat (ssh) untuk menyediakan akses yang terkawal dan terjamin ke mesin yang menjalankan CLI serta menyediakan penyulitan rangkaian. Walau bagaimanapun, apabila HWI Server digunakan, pengguna hanya boleh mengakses data Hive yang dibenarkan oleh HWI Server melalui penyemak imbas webnya.