Melakukan Migrasi Cluster Hadoop dan Spark ke Google Cloud

Bawa cluster Apache Hadoop dan Apache Spark Anda ke Google Cloud dengan cara yang sesuai untuk perusahaan Anda.

Melakukan migrasi cluster Hadoop dan Spark

Banyak opsi untuk banyak skenario

Migrasi cluster Hadoop dan Spark ke cloud dapat menghasilkan manfaat yang signifikan, tetapi pilihan yang tidak menangani workload Hadoop lokal yang ada hanya akan menimbulkan kesulitan lebih besar lagi terhadap resource IT yang sudah bermasalah. Google Cloud berfungsi untuk membantu pelanggan membangun rencana migrasi Hadoop yang dirancang agar sesuai dengan kebutuhan saat ini maupun membantu mereka di masa depan. Dari melakukan lift-and-shift ke virtual machine hingga mengeksplorasi layanan-layanan baru yang memanfaatkan skala dan efisiensi cloud, Google Cloud menawarkan beragam solusi untuk membantu pelanggan memindahkan workload Hadoop dan Spark mereka ke cloud melalui cara yang disesuaikan dengan kesuksesan mereka.
Cluster Hadoop

Lakukan lift and shift cluster Hadoop

Migrasikan deployment Hadoop dan Spark Anda yang sudah ada dengan cepat ke Google Cloud tanpa arsitektur ulang. Manfaatkan infrastructure as a service komputasi Google Cloud yang cepat dan fleksibel, yakni Compute Engine, untuk menyediakan cluster Hadoop yang ideal dan menggunakan distribusi Anda yang sudah ada. Biarkan administrator Hadoop Anda fokus pada kegunaan cluster, bukan pengadaan server dan pemecahan masalah hardware.

Mengoptimalkan skala cloud

Mengoptimalkan skala dan efisiensi cloud

Tekan biaya Hadoop dengan bermigrasi ke layanan Hadoop dan Spark yang terkelola di Google Cloud, yakni Cloud Dataproc. Jelajahi pendekatan baru untuk pemrosesan data di ekosistem Hadoop dengan memisahkan penyimpanan dan komputasi menggunakan Cloud Storage serta mengeksplorasi praktik cluster efemeral on-demand.

Memodernisasi data Anda

Memodernisasi pipeline pemrosesan data Anda

Kurangi beban operasional Hadoop Anda dengan mempertimbangkan layanan terkelola cloud untuk menghilangkan kompleksitas dari cara Anda memproses data. Untuk analisis streaming, eksplorasi menggunakan opsi serverless seperti Cloud Dataflow untuk menangani kebutuhan data streaming real time. Untuk kasus penggunaan Hadoop yang berfokus pada analisis dan menggunakan solusi kompatibel SQL seperti Apache, Hive, pertimbangkan BigQuery, cloud data warehouse (CDW) serverless skala perusahaan dari Google.

Memetakan workload Hadoop lokal ke produk Google Cloud

Workload Hadoop
Outbrain

"Dengan Cloud Dataproc, kami mengimplementasikan penskalaan otomatis yang memungkinkan kami untuk dapat meningkatkan atau menurunkan jumlah cluster dengan mudah sesuai ukuran project. Yang paling utama, kami juga menggunakan node preemptible untuk beberapa bagian cluster, yang membantu kami menghemat biaya."

Orit Yaron, VP Platform Cloud, Outbrain

Baca kisah

Langkah selanjutnya

Mulailah membangun solusi di Google Cloud dengan kredit gratis senilai $300 dan 20+ produk yang selalu gratis.

Perlu bantuan untuk memulai?
Bekerja sama dengan partner tepercaya
Lanjutkan menjelajah

Langkah selanjutnya

Mulai project baru Anda, pelajari tutorial interaktif, dan kelola akun Anda.

Perlu bantuan untuk memulai?
Bekerja sama dengan partner tepercaya
Dapatkan tips dan praktik terbaik