Langsung ke konten utama
Google Cloud
Dokumentasi Area teknologi
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Analisis data dan pipeline
  • Database
  • Terdistribusi, hybrid, dan multi-cloud
  • AI Generatif
  • Solusi industri
  • Jaringan
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
Alat lintas produk
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Google Cloud SDK, bahasa, framework, dan alat
  • Infrastruktur sebagai kode
  • Migrasi
Situs terkait
  • Beranda Google Cloud
  • Uji Coba Gratis dan Paket Gratis
  • Architecture Center
  • Blog
  • Hubungi Bagian Penjualan
  • Pusat Developer Google Cloud
  • Pusat Developer Google
  • Google Cloud Marketplace
  • Dokumentasi Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Dukungan Google Cloud
  • Channel YouTube Google Cloud Tech
/
  • English
  • Deutsch
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Konsol Masuk
  • Dataproc
Panduan Referensi Contoh Referensi
Hubungi Kami Mulai gratis
Google Cloud
  • Dokumentasi
    • Panduan
    • Referensi
    • Contoh
    • Referensi
  • Area teknologi
    • Lainnya
  • Alat lintas produk
    • Lainnya
  • Situs terkait
    • Lainnya
  • Konsol
  • Hubungi Kami
  • Mulai gratis
  • Discover
  • Ringkasan produk
  • Komponen
    • Ringkasan
    • Delta Lake
    • Docker
    • Flink
    • HBase
    • WebHCat Hive
    • Hudi
    • Iceberg
    • Jupyter
    • Pig
    • Presto
    • Ranger
      • Menginstal Ranger
      • Menggunakan Ranger dengan Kerberos
      • Menggunakan Ranger dengan caching dan downscoping
      • Mencadangkan dan memulihkan skema Ranger
    • Solr
    • Trino
    • Zeppelin
    • Zookeeper
  • Layanan
  • Opsi Compute
    • Jenis mesin
    • GPU
    • Platform CPU minimal
    • Pekerja sekunder
    • Solid State Drive lokal
    • Boot disk
  • Pembuatan Versi
    • Ringkasan
    • Versi rilis 2.3.x
    • Versi rilis 2.2.x
    • Versi rilis 2.1.x
    • Versi rilis 2.0.x
    • Daftar versi image cluster
  • Pertanyaan umum (FAQ)
  • Mulai
  • Menjalankan Spark di Dataproc
    • Menggunakan konsol
    • Menggunakan command line
    • Menggunakan REST API Explorer
      • Membuat cluster
      • Menjalankan tugas Spark
      • Memperbarui cluster
      • Hapus cluster
    • Menggunakan library klien
    • Menjalankan Spark menggunakan Kubernetes
  • Buat
  • Menyiapkan project
  • Menggunakan template Dataproc
  • Membuat cluster Dataproc
    • Membuat cluster
    • Membuat cluster dengan ketersediaan tinggi
    • Membuat cluster grup node
    • Membuat cluster parsial
    • Membuat cluster node tunggal
    • Membuat sole-tenant cluster
    • Membuat ulang cluster
    • Membuat image kustom
  • Membuat cluster Kubernetes
    • Ringkasan
    • Versi rilis
    • Membuat ulang cluster
    • Membuat node pool
    • Membuat image kustom
  • Membuat tabel Apache Iceberg dengan metadata di metastore BigQuery
  • Mengembangkan aplikasi
  • Apache Hadoop
  • Apache HBase
  • Apache Hive dan Kafka
  • Apache Spark
    • Mengonfigurasi
      • Mengelola dependensi Spark
      • Menyesuaikan lingkungan Spark
      • Mengaktifkan penulisan serentak
      • Meningkatkan performa Spark
      • Menyesuaikan Spark
    • Hubungkan
      • Menggunakan konektor BigQuery Spark
      • Menggunakan konektor Cloud Storage
      • Menggunakan konektor Spark Spanner
    • Menjalankan
      • Menggunakan HBase
      • Menggunakan simulasi Monte Carlo
      • Menggunakan Spark ML
      • Menggunakan Spark Scala
  • Menggunakan Notebook
    • Ringkasan
    • Menjalankan notebook Jupyter di cluster Dataproc
    • Menjalankan analisis genomik di notebook
    • Menggunakan ekstensi JupyterLab untuk mengembangkan workload Spark serverless
  • Python
    • Mengonfigurasi lingkungan
    • Menggunakan Library Klien Cloud
  • Trino
  • Deploy
  • Menjalankan tugas
    • Fungsi sebuah tugas
    • Kirim tugas
    • Memulai ulang tugas
    • Melihat histori tugas
  • Menggunakan template alur kerja
    • Ringkasan
    • Parameterisasi
    • Menggunakan file YAML
    • Menggunakan pemilih cluster
    • Menggunakan alur kerja inline
  • Mengorkestrasi alur kerja
    • Solusi penjadwalan alur kerja
    • Menggunakan template alur kerja Dataproc
    • Menggunakan Cloud Composer
    • Menggunakan Cloud Functions
    • Menggunakan Cloud Scheduler
  • Meningkatkan performa
    • Mengoptimalkan performa Spark
    • Metrik Dataproc
    • Membuat pemberitahuan metrik
    • Penggunaan resource profil
  • Kelola
  • Mengelola cluster
    • Memulai dan menghentikan cluster
      • Memulai dan menghentikan cluster secara manual
      • Menjadwalkan penghentian cluster
    • Memperbarui dan menghapus cluster
    • Rotasi cluster
    • Konfigurasi cluster
      • Menetapkan properti cluster
      • Pilih region
      • Memilih zona secara otomatis
      • Menentukan tindakan inisialisasi
      • Memprioritaskan jenis VM
      • Menjadwalkan penghapusan cluster
    • Menskalakan cluster
      • Menskalakan cluster
      • Melakukan penskalaan otomatis cluster
    • Kelola data
      • Penyimpanan data Hadoop
      • Memilih jenis penyimpanan
      • Menyimpan data cluster dalam cache
      • Mengurangi beban data shuffle
    • Mengelola jaringan
      • Mengonfigurasi jaringan
      • Jaringan cluster Dataproc dengan Private Service Connect
  • Mengelola cluster Kubernetes
    • Menskalakan cluster
    • Hapus cluster
  • Mengakses cluster
    • Menggunakan SSH
    • Terhubung ke antarmuka web
    • Menggunakan Gateway Komponen
    • Menetapkan akses Tenaga Kerja
  • Mengelola metadata dan label
    • Mengaktifkan silsilah data Spark
    • Mengaktifkan silsilah data Hive
    • Menetapkan metadata
    • Menetapkan label untuk pemfilteran
    • Menggunakan tag aman
  • Terhubung ke Dataproc
    • Memigrasikan Hadoop
    • Terhubung dengan BigQuery
      • Konektor BigQuery
      • Konektor Hive-BigQuery
      • Contoh kode
    • Terhubung dengan Bigtable
    • Terhubung dengan Cloud Storage
    • Terhubung dengan Pub/Sub Lite
  • Praktik terbaik produksi
  • Keamanan dan kepatuhan
  • Praktik keamanan terbaik
  • Mengautentikasi pengguna
    • Melakukan Autentikasi ke Dataproc
    • Mengautentikasi cluster pribadi
  • Menetapkan peran dan izin
    • Peran dan izin Dataproc
    • Entity utama Dataproc
    • IAM terperinci
    • Menetapkan peran untuk Kubernetes
  • Membuat akun layanan
  • Mengamankan cluster
    • Mengamankan multi-tenancy menggunakan Kerberos
    • Mengamankan multi-tenancy menggunakan akun layanan
    • Mengenkripsi memori
    • Mengelola kunci enkripsi data
    • Mengaktifkan layanan otorisasi Ranger
    • Menggunakan penyedia kredensial Secret Manager
    • Membuat dan mengamankan cluster metastore Hive
  • Membuat batasan kustom
  • Assured Workloads
  • Kepatuhan terhadap FedRAMP
  • Memeriksa penagihan
  • Memecahkan masalah
  • Ringkasan
  • Analisis log
    • Log Dataproc
    • Log output tugas
    • Log audit
  • Memecahkan masalah cluster
    • Melihat data diagnostik cluster
    • Memecahkan masalah pembuatan cluster
    • Mendiagnosis cluster Kubernetes
    • Mengaktifkan logging Kubernetes
  • Memecahkan masalah tugas
    • Memecahkan masalah tugas
    • Memecahkan masalah error memori
    • Memecahkan masalah penundaan tugas
    • Melihat histori tugas
    • Memecahkan masalah template Alur Kerja
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Analisis data dan pipeline
  • Database
  • Terdistribusi, hybrid, dan multi-cloud
  • AI Generatif
  • Solusi industri
  • Jaringan
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Google Cloud SDK, bahasa, framework, dan alat
  • Infrastruktur sebagai kode
  • Migrasi
  • Beranda Google Cloud
  • Uji Coba Gratis dan Paket Gratis
  • Architecture Center
  • Blog
  • Hubungi Bagian Penjualan
  • Pusat Developer Google Cloud
  • Pusat Developer Google
  • Google Cloud Marketplace
  • Dokumentasi Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Dukungan Google Cloud
  • Channel YouTube Google Cloud Tech
Halaman ini diterjemahkan oleh Cloud Translation API.
  • Home
  • Dokumentasi
  • Dataproc
  • Documentation
  • Panduan

Memigrasikan Hadoop
Tetap teratur dengan koleksi Simpan dan kategorikan konten berdasarkan preferensi Anda.

Untuk memigrasikan alur kerja dan data Apache Hadoop ke Google Cloud dan Dataproc, lihat dokumen berikut:

  • Memigrasikan Infrastruktur Hadoop Lokal ke Google Cloud
  • Memigrasikan Data HDFS dari Lokal ke Google Cloud

Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.

Terakhir diperbarui pada 2025-09-04 UTC.

  • Mengapa Google

    • Memilih Google Cloud
    • Kepercayaan dan keamanan
    • Cloud Infrastruktur Modern
    • Multi-cloud
    • Infrastruktur global
    • Pelanggan dan studi kasus
    • Laporan analis
    • Dokumen produk
  • Produk dan harga

    • Lihat semua produk
    • Lihat semua solusi
    • Google Cloud untuk Startup
    • Google Cloud Marketplace
    • Harga Google Cloud
    • Hubungi bagian penjualan
  • Dukungan

    • Komunitas Google Cloud
    • Dukungan
    • Catatan Rilis
    • Status sistem
  • Referensi

    • GitHub
    • Mulai Menggunakan Google Cloud
    • Dokumentasi Google Cloud
    • Contoh kode
    • Pusat Arsitektur Cloud
    • Pelatihan dan Sertifikasi
    • Pusat Developer
  • Interaksi

    • Blog
    • Acara
    • X (Twitter)
    • Google Cloud di YouTube
    • Google Cloud Tech di YouTube
    • Menjadi Partner
    • Google Cloud Affiliate Program
    • Press Corner
  • Tentang Google
  • Privasi
  • Persyaratan situs
  • Persyaratan Google Cloud
  • Manage cookies
  • Dekade ketiga aksi iklim Google: bergabunglah bersama kami
  • Daftar ke newsletter Google Cloud Berlangganan
  • English
  • Deutsch
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어