Apa itu Apache Spark?

Apache Spark adalah mesin analisis terpadu untuk pemrosesan data berskala besar dengan modul bawaan untuk SQL, streaming, machine learning, dan pemrosesan grafik. Spark dapat berjalan di Apache Hadoop, Apache Mesos, Kubernetes, secara mandiri, di cloud, dan pada beragam sumber data.

Salah satu pertanyaan umum adalah kapan menggunakan Apache Spark vs. Apache Hadoop? Keduanya merupakan salah satu sistem terdistribusi paling terkemuka di pasar saat ini. Keduanya adalah project tingkat atas Apache yang serupa dan sering digunakan bersama-sama. Hadoop digunakan terutama untuk operasi yang membutuhkan banyak disk dengan paradigma MapReduce. Spark adalah arsitektur pemrosesan dalam memori yang lebih fleksibel dan sering kali lebih mahal. Memahami fitur masing-masing sistem akan memandu Anda memutuskan kapan harus menerapkan fitur tersebut. 

Pelajari cara menggunakan Dataproc untuk menjalankan cluster Apache Spark di Google Cloud, dengan cara yang lebih mudah, terintegrasi, dan hemat biaya. 

Ringkasan Apache Spark

Ekosistem Spark mencakup lima komponen utama:

1. Spark Core adalah mesin pemrosesan data terdistribusi untuk tujuan umum. Selain itu, terdapat library untuk SQL, stream processing, machine learning, dan komputasi grafik—semuanya dapat digunakan secara bersamaan dalam satu aplikasi. Spark Core adalah dasar dari keseluruhan project, yang menyediakan pengiriman tugas, penjadwalan, dan fungsi I/O dasar yang terdistribusi.

2. Spark SQL adalah modul Spark yang digunakan untuk bekerja dengan data terstruktur yang mendukung cara umum untuk mengakses berbagai sumber data. Modul ini memungkinkan Anda membuat kueri data terstruktur di dalam program Spark, menggunakan SQL atau DataFrame API yang sudah dikenal. Spark SQL mendukung sintaksis HiveQL dan memungkinkan akses ke warehouse Apache Hive yang ada. Mode server menyediakan konektivitas standar melalui konektivitas database Java atau konektivitas database terbuka.

3. Streaming Spark mempermudah pembuatan solusi streaming yang skalabel dan fault-tolerant. Selain itu, juga menghadirkan API yang terintegrasi dengan bahasa Spark ke stream processing, sehingga Anda dapat menulis tugas streaming dengan cara yang sama seperti tugas batch. Streaming Spark mendukung Java, Scala, dan Python, serta menampilkan semantik stateful yang tepat satu kali dan siap pakai. 

4. MLlib adalah library machine learning Spark yang skalabel dengan alat yang membuat ML praktis menjadi skalabel dan mudah. MLlib berisi banyak algoritma pembelajaran umum, seperti klasifikasi, regresi, rekomendasi, dan pengelompokan. Library ini juga berisi utilitas alur kerja dan lainnya, termasuk transformasi fitur, konstruksi pipeline ML, evaluasi model, aljabar linear terdistribusi, dan statistik. 

5. GraphX adalah Spark API untuk komputasi grafik dan paralel grafik. API ini fleksibel dan berfungsi lancar dengan grafik dan koleksi—menyatukan ekstrak, transformasi, pemuatan; analisis eksploratif; dan komputasi grafik iteratif dalam satu sistem. Selain API yang sangat fleksibel, GraphX dilengkapi dengan berbagai algoritma grafik. Spark bersaing dalam hal performa dengan sistem grafik tercepat, sambil tetap menjaga fleksibilitas, fault tolerance, dan kemudahan penggunaan Spark.

Apa saja manfaat Apache Spark?

Kecepatan

Anda dapat menjalankan workload 100 kali lebih cepat daripada MapReduce Hadoop. Spark meraih performa yang tinggi untuk data batch dan streaming menggunakan penjadwal directed acyclic graph, pengoptimal kueri, dan mesin eksekusi fisik yang canggih.

Mudah digunakan

Spark menawarkan lebih dari 80 operator tingkat tinggi yang mempermudah pembuatan aplikasi paralel. Anda dapat menggunakannya secara interaktif dari shell Scala, Python, R, dan SQL untuk menulis aplikasi dengan cepat.

Generalitas

Spark mendukung stack library, termasuk SQL dan DataFrame, MLlib untuk machine learning, GraphX, dan Spark Streaming. Anda dapat menggabungkan library ini dengan lancar di aplikasi yang sama.

Inovasi framework open source

Spark didukung oleh komunitas global yang bersatu untuk memperkenalkan konsep dan kemampuan baru dengan lebih cepat dan lebih efektif daripada tim internal yang mengerjakan solusi eksklusif. Dukungan kolektif dari komunitas open source memberikan lebih banyak ide, pengembangan yang lebih cepat, dan pemecahan masalah saat masalah muncul, sehingga mempercepat waktu penyiapan produk. 

Mengapa memilih Spark daripada mesin khusus SQL?

Apache Spark adalah mesin komputasi cluster cepat untuk tujuan umum yang dapat di-deploy di cluster Hadoop atau mode mandiri. Dengan Spark, programmer dapat menulis aplikasi dengan cepat di Java, Scala, Python, R, dan SQL yang membuatnya dapat diakses oleh developer, data scientist, dan pebisnis tingkat lanjut dengan pengalaman statistik. Dengan menggunakan Spark SQL, pengguna dapat terhubung ke sumber data mana pun dan menampilkannya sebagai tabel agar dapat digunakan oleh klien SQL. Selain itu, algoritma machine learning interaktif dapat diterapkan dengan mudah di Spark.

Dengan mesin khusus SQL seperti Apache Impala, Apache Hive, atau Apache Drill, pengguna hanya dapat menggunakan bahasa SQL atau bahasa yang mirip SQL untuk mengkueri data yang disimpan di beberapa database. Artinya, framework-nya lebih kecil dibandingkan dengan Spark.

Bagaimana perusahaan menggunakan Spark?

Banyak perusahaan menggunakan Spark untuk membantu menyederhanakan tugas yang menantang dan intensif secara komputasi dalam memproses dan menganalisis data real-time atau data yang diarsipkan dalam jumlah besar, baik terstruktur maupun tidak terstruktur. Spark juga memungkinkan pengguna mengintegrasikan kemampuan kompleks yang relevan dengan lancar seperti machine learning dan algoritma grafik.

Engineer data

Data engineer menggunakan Spark untuk tugas coding dan membangun pemrosesan data—dengan opsi untuk memprogram dalam set bahasa yang diperluas.

Data scientist

Data scientist dapat memiliki pengalaman yang lebih kaya dengan analisis dan ML menggunakan Spark dengan GPU. Kemampuan untuk memproses data dalam jumlah besar secara lebih cepat dengan bahasa yang sudah dikenal dapat membantu mempercepat inovasi.

Langkah selanjutnya

Mulailah membangun solusi di Google Cloud dengan kredit gratis senilai $300 dan lebih dari 20 produk yang selalu gratis.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Konsol
Google Cloud