Video: UML Use Case Diagram Tutorial 2024
Sejumlah syarikat melabur banyak untuk memacu projek sumber terbuka dan penyelesaian eksklusif untuk akses SQL ke data Hadoop. Apabila anda mendengar istilah akses SQL, , anda harus mengetahui bahawa anda bergantung pada beberapa andaian asas:
-
Standard bahasa: Tapak yang paling penting, tentu saja, memerlukan bahasa itu sendiri. Banyak penyelesaian "seperti SQL" wujud, walaupun mereka biasanya tidak mengukur dalam beberapa cara asas - cara yang dapat menghalang walaupun pernyataan SQL yang biasa dari bekerja.
Pemandu: -
Komponen utama lain dalam penyelesaian akses SQL ialah pemandu - antara muka untuk aplikasi untuk menyambung dan menukar data dengan kedai data. Tanpa pemandu, tiada antaramuka SQL untuk sebarang aplikasi atau alat klien untuk disambungkan untuk penyerahan pertanyaan SQL.
Akses masa nyata:
-
Sehingga Hadoop 2, pelaksanaan berasaskan MapReduce adalah satu-satunya pilihan yang tersedia untuk analisis terhadap data yang disimpan dalam Hadoop. Untuk pertanyaan mudah yang melibatkan imbasan penuh data dalam jadual, Hadoop agak cepat berbanding pangkalan data hubungan tradisional.
Perlu diingat bahawa ini adalah kes penggunaan analisis batch, di mana cepat boleh bermakna jam, bergantung pada berapa banyak data yang terlibat. Tetapi apabila ia datang kepada pertanyaan yang lebih rumit, yang melibatkan subset data, Hadoop tidak berfungsi dengan baik. MapReduce adalah rangka kerja pemprosesan kumpulan, jadi mencapai prestasi tinggi untuk pertanyaan masa nyata sebelum Hadoop 2 adalah mustahil dari segi arsitektur. Satu motivator awal untuk YARN, pengurusan sumber dan sistem penjadualan baru di blok, adalah keperluan untuk menyokong rangka kerja pemprosesan lain untuk membolehkan beban kerja masa nyata, seperti pertanyaan SQL interaktif. Sesungguhnya, penyelesaian SQL yang sepatutnya tidak seharusnya meninggalkan orang yang menunggu pertanyaan yang munasabah.
Data Mutable:
-
Satu persoalan biasa dalam banyak perbincangan mengenai sokongan SQL pada Hadoop ialah "Bolehkah kita menggunakan, dan pernyataan, seperti yang kita dapat lakukan dalam pangkalan data hubungan biasa? "Buat masa ini, jawapannya tidak, yang mencerminkan sifat HDFS - ia memberi tumpuan kepada fail besar dan tidak berubah.Teknologi seperti Hive menawarkan akses baca-baca ke fail-fail ini. Walau apa pun, kerja sedang dijalankan dalam projek Hive Apache.