Template Pub/Sub ke file Avro di Cloud Storage adalah pipeline streaming yang membaca data dari topik Pub/Sub dan menulis file Avro ke bucket Cloud Storage yang ditentukan.
Persyaratan pipeline
- Topik Pub/Sub input harus ada sebelum eksekusi pipeline.
Parameter template
Parameter yang diperlukan
- inputTopic : Topik Pub/Sub yang akan dilanggani untuk penggunaan pesan. Nama topik harus dalam format projects/<PROJECT_ID>/topics/<TOPIC_NAME>.
- outputDirectory : Direktori output tempat file Avro output diarsipkan. Harus berisi / di akhir. Misalnya: gs://example-bucket/example-directory/.
- avroTempDirectory : Direktori untuk file Avro sementara. Harus berisi / di akhir. Misalnya: gs://example-bucket/example-directory/.
Parameter opsional
- outputFilenamePrefix : Awalan nama file output untuk file Avro. Setelan defaultnya adalah: output.
- outputFilenameSuffix : Akhiran nama file output untuk file Avro. Default-nya adalah kosong.
- outputShardTemplate : Template shard menentukan bagian dinamis dari setiap file dengan jendela. Secara default, pipeline menggunakan satu shard untuk output ke sistem file dalam setiap jendela. Oleh karena itu, semua output data akan menjadi satu file per jendela.
outputShardTemplate
menetapkan defaultto W-P-SS-of-NN
, denganW
adalah rentang tanggal jendela,P
adalah info panel,S
adalah nomor shard, danN
adalah jumlah shard. Jika file tunggal, bagianSS-of-NN
darioutputShardTemplate
adalah00-of-01
. - yearPattern : Pola untuk memformat tahun. Harus berupa satu atau beberapa
y
atauY
. Kasus tidak berpengaruh pada tahun. Secara opsional, gabungkan pola dengan karakter yang bukan alfanumerik atau karakter direktori ('/'). Setelan defaultnya adalahYYYY
. - monthPattern : Pola untuk memformat bulan. Harus berupa satu atau beberapa karakter
M
. Secara opsional, gabungkan pola dengan karakter yang bukan alfanumerik atau karakter direktori ('/'). Setelan defaultnya adalahMM
. - dayPattern : Pola untuk memformat hari. Harus berupa satu atau beberapa
d
untuk hari dalam sebulan atauD
untuk hari dalam setahun. Secara opsional, gabungkan pola dengan karakter yang bukan alfanumerik atau karakter direktori ('/'). Setelan defaultnya adalahdd
. - hourPattern : Pola untuk memformat jam. Harus berupa satu atau beberapa karakter
H
. Secara opsional, gabungkan pola dengan karakter yang bukan alfanumerik atau karakter direktori ('/'). Setelan defaultnya adalahHH
. - minutePattern : Pola untuk memformat menit. Harus berupa satu atau beberapa karakter
m
. Secara opsional, gabungkan pola dengan karakter yang bukan alfanumerik atau karakter direktori ('/'). Setelan defaultnya adalahmm
.
Menjalankan template
Konsol
- Buka halaman Create job from template Dataflow. Buka Buat tugas dari template
- Di kolom Nama tugas, masukkan nama tugas yang unik.
- Opsional: Untuk Endpoint regional, pilih nilai dari menu drop-down. Region defaultnya
adalah
us-central1
.Untuk mengetahui daftar region tempat Anda dapat menjalankan tugas Dataflow, lihat Lokasi Dataflow.
- Dari menu drop-down Dataflow template, pilih the Pub/Sub to Avro Files on Cloud Storage template.
- Di kolom parameter yang disediakan, masukkan nilai parameter Anda.
- Klik Run job.
gcloud
Di shell atau terminal, jalankan template:
gcloud dataflow jobs run JOB_NAME \ --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/Cloud_PubSub_to_Avro \ --region REGION_NAME \ --staging-location STAGING_LOCATION \ --parameters \ inputTopic=projects/PROJECT_ID/topics/TOPIC_NAME,\ outputDirectory=gs://BUCKET_NAME/output/,\ outputFilenamePrefix=FILENAME_PREFIX,\ outputFilenameSuffix=FILENAME_SUFFIX,\ outputShardTemplate=SHARD_TEMPLATE,\ avroTempDirectory=gs://BUCKET_NAME/temp/
Ganti kode berikut:
JOB_NAME
: nama tugas unik pilihan AndaREGION_NAME
: region tempat Anda ingin men-deploy tugas Dataflow—misalnya,us-central1
VERSION
: versi template yang ingin Anda gunakanAnda dapat menggunakan nilai berikut:
latest
untuk menggunakan template versi terbaru, yang tersedia di folder induk tanpa tanggal di bucket—gs://dataflow-templates-REGION_NAME/latest/- nama versi, seperti
2023-09-12-00_RC00
, untuk menggunakan versi template tertentu, yang dapat ditemukan bertingkat dalam folder induk bertanggal masing-masing di bucket—gs://dataflow-templates-REGION_NAME/
STAGING_LOCATION
: lokasi untuk melakukan staging file lokal (misalnya,gs://your-bucket/staging
)TOPIC_NAME
: nama topik Pub/SubBUCKET_NAME
: nama bucket Cloud Storage AndaFILENAME_PREFIX
: awalan nama file output yang diinginkanFILENAME_SUFFIX
: akhiran nama file output yang diinginkanSHARD_TEMPLATE
: template shard output pilihan
API
Untuk menjalankan template menggunakan REST API, kirim permintaan POST HTTP. Untuk mengetahui informasi selengkapnya tentang
API dan cakupan otorisasinya, lihat
projects.templates.launch
.
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Cloud_PubSub_to_Avro { "jobName": "JOB_NAME", "environment": { "ipConfiguration": "WORKER_IP_UNSPECIFIED", "additionalExperiments": [] }, "parameters": { "inputTopic": "projects/PROJECT_ID/topics/TOPIC_NAME", "outputDirectory": "gs://BUCKET_NAME/output/", "avroTempDirectory": "gs://BUCKET_NAME/temp/", "outputFilenamePrefix": "FILENAME_PREFIX", "outputFilenameSuffix": "FILENAME_SUFFIX", "outputShardTemplate": "SHARD_TEMPLATE" } }
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud tempat Anda ingin menjalankan tugas DataflowJOB_NAME
: nama tugas unik pilihan AndaLOCATION
: region tempat Anda ingin men-deploy tugas Dataflow—misalnya,us-central1
VERSION
: versi template yang ingin Anda gunakanAnda dapat menggunakan nilai berikut:
latest
untuk menggunakan template versi terbaru, yang tersedia di folder induk tanpa tanggal di bucket—gs://dataflow-templates-REGION_NAME/latest/- nama versi, seperti
2023-09-12-00_RC00
, untuk menggunakan versi template tertentu, yang dapat ditemukan bertingkat dalam folder induk bertanggal masing-masing di bucket—gs://dataflow-templates-REGION_NAME/
STAGING_LOCATION
: lokasi untuk melakukan staging file lokal (misalnya,gs://your-bucket/staging
)TOPIC_NAME
: nama topik Pub/SubBUCKET_NAME
: nama bucket Cloud Storage AndaFILENAME_PREFIX
: awalan nama file output yang diinginkanFILENAME_SUFFIX
: akhiran nama file output yang diinginkanSHARD_TEMPLATE
: template shard output pilihan
Langkah selanjutnya
- Pelajari template Dataflow.
- Lihat daftar template yang disediakan Google.