Topik Pub/Sub ke File Teks di Cloud Storage

Template Teks Pub/Sub ke Cloud Storage adalah pipeline streaming yang membaca data dari topik Pub/Sub dan menyimpannya sebagai serangkaian file Cloud Storage dalam format teks. Template ini dapat digunakan sebagai cara cepat untuk menyimpan data di Pub/Sub untuk penggunaan di masa mendatang. Secara default, template ini akan membuat file baru setiap 5 menit.

Persyaratan pipeline

  • Topik Pub/Sub harus sudah ada sebelum eksekusi.
  • Pesan yang dipublikasikan ke topik harus dalam format teks.
  • Pesan yang dipublikasikan ke topik tidak boleh berisi baris baru. Perhatikan bahwa setiap pesan Pub/Sub disimpan sebagai satu baris di file output.

Parameter template

Parameter yang diperlukan

  • outputDirectory : Awalan jalur dan nama file untuk menulis file output. Contoh, gs://bucket-name/path/. Nilai ini harus diakhiri dengan garis miring.
  • outputFilenamePrefix : Awalan yang akan ditempatkan pada setiap file dengan jendela. Contoh, output-. Setelan defaultnya adalah: output.

Parameter opsional

  • inputTopic : Topik Pub/Sub tempat input dibaca. Nama topik harus dalam format projects/<PROJECT_ID>/topics/<TOPIC_NAME>.
  • userTempLocation : Direktori yang disediakan pengguna untuk menghasilkan file sementara. Harus diakhiri dengan garis miring.
  • outputFilenameSuffix : Akhiran yang akan ditempatkan pada setiap file dengan jendela. Biasanya ekstensi file seperti .txt atau .csv. Default-nya adalah kosong.
  • outputShardTemplate : Template shard menentukan bagian dinamis dari setiap file dengan jendela. Secara default, pipeline menggunakan satu shard untuk output ke sistem file dalam setiap jendela. Oleh karena itu, semua output data akan menjadi satu file per jendela. outputShardTemplate menetapkan default to W-P-SS-of-NN, dengan W adalah rentang tanggal jendela, P adalah info panel, S adalah nomor shard, dan N adalah jumlah shard. Jika file tunggal, bagian SS-of-NN dari outputShardTemplate adalah 00-of-01.
  • yearPattern : Pola untuk memformat tahun. Harus berupa satu atau beberapa y atau Y. Kasus tidak berpengaruh pada tahun. Secara opsional, gabungkan pola dengan karakter yang bukan alfanumerik atau karakter direktori ('/'). Setelan defaultnya adalah YYYY.
  • monthPattern : Pola untuk memformat bulan. Harus berupa satu atau beberapa karakter M. Secara opsional, gabungkan pola dengan karakter yang bukan alfanumerik atau karakter direktori ('/'). Setelan defaultnya adalah MM.
  • dayPattern : Pola untuk memformat hari. Harus berupa satu atau beberapa d untuk hari dalam sebulan atau D untuk hari dalam setahun. Secara opsional, gabungkan pola dengan karakter yang bukan alfanumerik atau karakter direktori ('/'). Setelan defaultnya adalah dd.
  • hourPattern : Pola untuk memformat jam. Harus berupa satu atau beberapa karakter H. Secara opsional, gabungkan pola dengan karakter yang bukan alfanumerik atau karakter direktori ('/'). Setelan defaultnya adalah HH.
  • minutePattern : Pola untuk memformat menit. Harus berupa satu atau beberapa karakter m. Secara opsional, gabungkan pola dengan karakter yang bukan alfanumerik atau karakter direktori ('/'). Setelan defaultnya adalah mm.

Menjalankan template

Konsol

  1. Buka halaman Create job from template Dataflow.
  2. Buka Buat tugas dari template
  3. Di kolom Nama tugas, masukkan nama tugas yang unik.
  4. Opsional: Untuk Endpoint regional, pilih nilai dari menu drop-down. Region defaultnya adalah us-central1.

    Untuk mengetahui daftar region tempat Anda dapat menjalankan tugas Dataflow, lihat Lokasi Dataflow.

  5. Dari menu drop-down Dataflow template, pilih the Pub/Sub to Text Files on Cloud Storage template.
  6. Di kolom parameter yang disediakan, masukkan nilai parameter Anda.
  7. Opsional: Untuk beralih dari pemrosesan tepat satu kali ke mode streaming minimal sekali, pilih Minimal Sekali.
  8. Klik Run job.

gcloud

Di shell atau terminal, jalankan template:

gcloud dataflow jobs run JOB_NAME \
    --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/Cloud_PubSub_to_GCS_Text \
    --region REGION_NAME \
    --staging-location STAGING_LOCATION \
    --parameters \
inputTopic=projects/PROJECT_ID/topics/TOPIC_NAME,\
outputDirectory=gs://BUCKET_NAME/output/,\
outputFilenamePrefix=output-,\
outputFilenameSuffix=.txt

Ganti kode berikut:

  • JOB_NAME: nama tugas unik pilihan Anda
  • REGION_NAME: region tempat Anda ingin men-deploy tugas Dataflow—misalnya, us-central1
  • VERSION: versi template yang ingin Anda gunakan

    Anda dapat menggunakan nilai berikut:

  • STAGING_LOCATION: lokasi untuk melakukan staging file lokal (misalnya, gs://your-bucket/staging)
  • TOPIC_NAME: nama topik Pub/Sub Anda
  • BUCKET_NAME: nama bucket Cloud Storage Anda

API

Untuk menjalankan template menggunakan REST API, kirim permintaan POST HTTP. Untuk mengetahui informasi selengkapnya tentang API dan cakupan otorisasinya, lihat projects.templates.launch.

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Cloud_PubSub_to_GCS_Text
{
   "jobName": "JOB_NAME",
   "environment": {
       "ipConfiguration": "WORKER_IP_UNSPECIFIED",
       "additionalExperiments": []
    },
   "parameters": {
       "inputTopic": "projects/PROJECT_ID/topics/TOPIC_NAME"
       "outputDirectory": "gs://BUCKET_NAME/output/",
       "outputFilenamePrefix": "output-",
       "outputFilenameSuffix": ".txt",
   }
}

Ganti kode berikut:

  • PROJECT_ID: ID project Google Cloud tempat Anda ingin menjalankan tugas Dataflow
  • JOB_NAME: nama tugas unik pilihan Anda
  • LOCATION: region tempat Anda ingin men-deploy tugas Dataflow—misalnya, us-central1
  • VERSION: versi template yang ingin Anda gunakan

    Anda dapat menggunakan nilai berikut:

  • STAGING_LOCATION: lokasi untuk melakukan staging file lokal (misalnya, gs://your-bucket/staging)
  • TOPIC_NAME: nama topik Pub/Sub Anda
  • BUCKET_NAME: nama bucket Cloud Storage Anda

Langkah selanjutnya