Template BigQuery ke MongoDB adalah pipeline batch yang membaca baris dari BigQuery dan menulisnya ke MongoDB sebagai dokumen. Saat ini, setiap baris disimpan sebagai dokumen.
Persyaratan pipeline
- Tabel BigQuery sumber harus ada.
- Instance MongoDB target harus dapat diakses dari mesin pekerja Dataflow.
Parameter template
Parameter yang diperlukan
- mongoDbUri: URI koneksi MongoDB dalam format
mongodb+srv://:@
. - database: Database di MongoDB untuk menyimpan koleksi. Contoh,
my-db
. - collection: Nama koleksi di database MongoDB. Contoh,
my-collection
. - inputTableSpec: Tabel BigQuery yang akan dibaca. Contoh,
bigquery-project:dataset.input_table
.
Menjalankan template
- Buka halaman Create job from template Dataflow. Buka Buat tugas dari template
- Di kolom Nama tugas, masukkan nama tugas yang unik.
- Opsional: Untuk Endpoint regional, pilih nilai dari menu drop-down. Region defaultnya adalah
us-central1
.Untuk mengetahui daftar region tempat Anda dapat menjalankan tugas Dataflow, lihat Lokasi Dataflow.
- Dari menu drop-down Dataflow template, pilih the BigQuery to MongoDB template.
- Di kolom parameter yang disediakan, masukkan nilai parameter Anda.
- Klik Run job.
Di shell atau terminal, jalankan template:
gcloud dataflow flex-template runJOB_NAME \ --project=PROJECT_ID \ --region=REGION_NAME \ --template-file-gcs-location=gs://dataflow-templates-REGION_NAME /VERSION /flex/BigQuery_to_MongoDB \ --parameters \ inputTableSpec=INPUT_TABLE_SPEC ,\ mongoDbUri=MONGO_DB_URI ,\ database=DATABASE ,\ collection=COLLECTION
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud tempat Anda ingin menjalankan tugas DataflowJOB_NAME
: nama tugas unik pilihan AndaREGION_NAME
: region tempat Anda ingin men-deploy tugas Dataflow—misalnya,us-central1
VERSION
: versi template yang ingin Anda gunakanAnda dapat menggunakan nilai berikut:
latest
untuk menggunakan template versi terbaru, yang tersedia di folder induk tanpa tanggal di bucket—gs://dataflow-templates-REGION_NAME/latest/- nama versi, seperti
2023-09-12-00_RC00
, untuk menggunakan versi template tertentu, yang dapat ditemukan bertingkat dalam folder induk bertanggal masing-masing di bucket—gs://dataflow-templates-REGION_NAME/
INPUT_TABLE_SPEC
: nama tabel BigQuery sumber Anda.MONGO_DB_URI
: URI MongoDB Anda.DATABASE
: database MongoDB Anda.COLLECTION
: koleksi MongoDB Anda.
Untuk menjalankan template menggunakan REST API, kirim permintaan POST HTTP. Untuk mengetahui informasi selengkapnya tentang
API dan cakupan otorisasinya, lihat
projects.templates.launch
.
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID /locations/LOCATION /flexTemplates:launch { "launch_parameter": { "jobName": "JOB_NAME ", "parameters": { "inputTableSpec": "INPUT_TABLE_SPEC ", "mongoDbUri": "MONGO_DB_URI ", "database": "DATABASE ", "collection": "COLLECTION " }, "containerSpecGcsPath": "gs://dataflow-templates-LOCATION /VERSION /flex/BigQuery_to_MongoDB", } }
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud tempat Anda ingin menjalankan tugas DataflowJOB_NAME
: nama tugas unik pilihan AndaLOCATION
: region tempat Anda ingin men-deploy tugas Dataflow—misalnya,us-central1
VERSION
: versi template yang ingin Anda gunakanAnda dapat menggunakan nilai berikut:
latest
untuk menggunakan template versi terbaru, yang tersedia di folder induk tanpa tanggal di bucket—gs://dataflow-templates-REGION_NAME/latest/- nama versi, seperti
2023-09-12-00_RC00
, untuk menggunakan versi template tertentu, yang dapat ditemukan bertingkat dalam folder induk bertanggal masing-masing di bucket—gs://dataflow-templates-REGION_NAME/
INPUT_TABLE_SPEC
: nama tabel BigQuery sumber Anda.MONGO_DB_URI
: URI MongoDB Anda.DATABASE
: database MongoDB Anda.COLLECTION
: koleksi MongoDB Anda.
Kode sumber template
Langkah berikutnya
- Pelajari template Dataflow.
- Lihat daftar template yang disediakan Google.