Halaman ini mendokumentasikan berbagai opsi konfigurasi Template Flex Dataflow, termasuk:
- Izin
- Variabel lingkungan Dockerfile
- Dependensi paket untuk Python
- Image Docker
- Opsi pipeline
- Lokasi staging dan sementara
Untuk mengonfigurasi contoh Template Flex, lihat tutorial Template Flex.
Memahami izin Template Flex
Saat menggunakan Template Flex, Anda memerlukan tiga kumpulan izin:
- Izin untuk membuat resource
- Izin untuk mem-build Template Flex
- Izin untuk menjalankan Template Flex
Izin untuk membuat resource
Untuk mengembangkan dan menjalankan pipeline Template Flex, Anda perlu membuat berbagai resource (misalnya, bucket staging). Untuk tugas pembuatan resource satu kali, Anda dapat menggunakan peran Pemilik dasar.
Izin untuk mem-build Template Flex
Sebagai developer Template Flex, Anda perlu mem-build template agar tersedia bagi pengguna. Proses build melibatkan upload spesifikasi template ke bucket Cloud Storage dan menyediakan image Docker dengan kode dan dependensi yang diperlukan untuk menjalankan pipeline. Untuk mem-build Template Flex, Anda memerlukan akses baca dan tulis ke Cloud Storage serta akses Artifact Registry Writer ke repositori Artifact Registry Anda. Anda dapat memberikan izin ini dengan menetapkan peran berikut:
- Storage Admin (
roles/storage.admin
) - (
roles/cloudbuild.builds.editor
) Cloud Build Editor - Penulis Artifact Registry (
roles/artifactregistry.writer
)
Izin untuk menjalankan Template Flex
Saat Anda menjalankan Template Flex, Dataflow akan membuat tugas untuk Anda. Untuk membuat tugas, akun layanan Dataflow memerlukan izin berikut:
dataflow.serviceAgent
Saat pertama kali menggunakan Dataflow, layanan akan menetapkan peran ini untuk Anda, sehingga Anda tidak perlu memberikan izin ini.
Secara default, akun layanan Compute Engine digunakan untuk VM peluncur dan VM pekerja. Akun layanan memerlukan peran dan kemampuan berikut:
- Storage Object Admin (
roles/storage.objectAdmin
) - Pelihat (
roles/viewer
) - Dataflow Worker (
roles/dataflow.worker
) - Akses baca dan tulis ke bucket staging
- Akses baca ke image Template Flex
Untuk memberikan akses baca dan tulis ke bucket staging, Anda dapat menggunakan peran
Storage Object Admin (roles/storage.objectAdmin
). Untuk informasi selengkapnya,
lihat Peran IAM untuk Cloud Storage.
Untuk memberikan akses baca ke image Template Flex, Anda dapat menggunakan peran Storage Object Viewer (roles/storage.objectViewer
). Untuk informasi selengkapnya, lihat Mengonfigurasi kontrol akses.
Menetapkan variabel lingkungan Dockerfile yang diperlukan
Jika Anda ingin membuat Dockerfile sendiri untuk tugas Template Flex, tentukan variabel lingkungan berikut:
Java
Tentukan FLEX_TEMPLATE_JAVA_MAIN_CLASS
dan
FLEX_TEMPLATE_JAVA_CLASSPATH
di Dockerfile Anda.
ENV | Deskripsi | Wajib |
---|---|---|
FLEX_TEMPLATE_JAVA_MAIN_CLASS |
Menentukan class Java yang akan dijalankan untuk meluncurkan Template Flex. | YA |
FLEX_TEMPLATE_JAVA_CLASSPATH |
Menentukan lokasi file class. | YA |
FLEX_TEMPLATE_JAVA_OPTIONS |
Menentukan opsi Java yang akan diteruskan saat meluncurkan Template Flex. | TIDAK |
Python
Tentukan FLEX_TEMPLATE_PYTHON_PY_FILE
di Dockerfile Anda.
Untuk mengelola dependensi pipeline, tetapkan variabel di Dockerfile Anda, seperti berikut:
FLEX_TEMPLATE_PYTHON_REQUIREMENTS_FILE
FLEX_TEMPLATE_PYTHON_PY_OPTIONS
FLEX_TEMPLATE_PYTHON_SETUP_FILE
FLEX_TEMPLATE_PYTHON_EXTRA_PACKAGES
Misalnya, variabel lingkungan berikut ditetapkan dalam tutorial Streaming di Template Flex Python di GitHub:
ENV FLEX_TEMPLATE_PYTHON_REQUIREMENTS_FILE="${WORKDIR}/requirements.txt"
ENV FLEX_TEMPLATE_PYTHON_PY_FILE="${WORKDIR}/streaming_beam.py"
ENV | Deskripsi | Wajib |
---|---|---|
FLEX_TEMPLATE_PYTHON_PY_FILE |
Menentukan file Python yang akan dijalankan untuk meluncurkan Template Flex. | YA |
FLEX_TEMPLATE_PYTHON_REQUIREMENTS_FILE |
Menentukan file persyaratan dengan dependensi pipeline. Untuk informasi selengkapnya, lihat dependensi PyPI dalam dokumentasi Apache Beam. | TIDAK |
FLEX_TEMPLATE_PYTHON_SETUP_FILE |
Menentukan jalur ke file `setup.py` paket pipeline. Untuk informasi selengkapnya, lihat Beberapa Dependensi File dalam dokumentasi Apache Beam. | TIDAK |
FLEX_TEMPLATE_PYTHON_EXTRA_PACKAGES |
Menentukan paket yang tidak tersedia secara publik. Untuk informasi tentang cara menggunakan paket tambahan, baca Dependensi Lokal atau non-PyPI. |
TIDAK |
FLEX_TEMPLATE_PYTHON_PY_OPTIONS |
Menentukan opsi Python yang akan diteruskan saat meluncurkan Template Flex. | TIDAK |
Dependensi paket untuk Python
Jika pipeline Python Dataflow menggunakan dependensi tambahan, Anda mungkin perlu mengonfigurasi Template Flex untuk menginstal dependensi tambahan di VM pekerja Dataflow.
Saat menjalankan tugas Dataflow Python yang menggunakan Template Flex di lingkungan yang membatasi akses ke internet, Anda harus mengemas dependensi secara default saat membuat template.
Gunakan salah satu opsi berikut untuk mem-prepackage dependensi Python.
Untuk petunjuk cara mengelola dependensi pipeline di pipeline Java dan Go, lihat Mengelola dependensi pipeline di Dataflow.
Menggunakan file persyaratan dan mengemas dependensi sebelumnya dengan template
Jika Anda menggunakan Dockerfile Anda sendiri untuk menentukan image Template Flex, ikuti langkah-langkah berikut:
Buat file
requirements.txt
yang mencantumkan dependensi pipeline Anda.COPY requirements.txt /template/ ENV FLEX_TEMPLATE_PYTHON_REQUIREMENTS_FILE="/template/requirements.txt"
Instal dependensi dalam image Template Flex.
RUN pip install --no-cache-dir -r $FLEX_TEMPLATE_PYTHON_REQUIREMENTS_FILE
Download dependensi ke cache persyaratan lokal, yang di-staging ke pekerja Dataflow saat template diluncurkan.
RUN pip download --no-cache-dir --dest /tmp/dataflow-requirements-cache -r $FLEX_TEMPLATE_PYTHON_REQUIREMENTS_FILE
Saat Anda menggunakan pendekatan ini, dependensi dari file requirements.txt
akan diinstal ke pekerja Dataflow saat runtime. Insight di tab rekomendasi konsol Google Cloud mungkin mencatat perilaku ini. Untuk menghindari penginstalan
dependensi saat runtime, gunakan
image container kustom.
Berikut adalah contoh kode yang menggunakan file persyaratan dalam Template Flex.
Menyusun pipeline sebagai paket dan menggunakan paket lokal
Saat Anda menggunakan beberapa file atau modul lokal Python, strukturkan pipeline sebagai paket. Struktur file mungkin terlihat seperti contoh berikut:
main.py
pyproject.toml
setup.py
src/
my_package/
my_custom_dofns_and_transforms.py
my_pipeline_launcher.py
other_utils_and_helpers.py
Tempatkan titik entri level atas, misalnya, file
main.py
, di direktori root. Tempatkan file lainnya di folder terpisah di direktorisrc
, misalnya,my_package
.Tambahkan file konfigurasi paket ke direktori root dengan detail dan persyaratan paket.
pyproject.toml
[project] name = "my_package" version = "package_version" dependencies = [ # Add list of packages (and versions) that my_package depends on. # Example: "apache-beam[gcp]==2.54.0", ]
setup.py
"""An optional setuptools configuration stub for the pipeline package. Use pyproject.toml to define the package. Add this file only if you must use the --setup_file pipeline option or the FLEX_TEMPLATE_PYTHON_SETUP_FILE configuration option. """ import setuptools setuptools.setup()
Untuk informasi selengkapnya tentang cara mengonfigurasi paket lokal, lihat Mengemasan Project Python.
Saat Anda mengimpor modul atau file lokal untuk pipeline, gunakan nama paket
my_package
sebagai jalur impor.from my_package import word_count_transform
Instal paket pipeline Anda di image Template Flex. Dockerfile Template Flex Anda mungkin menyertakan konten yang mirip dengan contoh berikut:
Dockerfile
ENV FLEX_TEMPLATE_PYTHON_PY_FILE="${WORKDIR}/main.py" ENV FLEX_TEMPLATE_PYTHON_SETUP_FILE="${WORKDIR}/setup.py" # Copy pipeline, packages and requirements. WORKDIR ${WORKDIR} COPY main.py . COPY pyproject.toml . COPY setup.py . COPY src src # Install local package. RUN pip install -e .
Saat Anda menggunakan pendekatan ini, dependensi dari file requirements.txt
akan diinstal ke pekerja Dataflow saat runtime. Insight di tab rekomendasi konsol Google Cloud mungkin mencatat perilaku ini. Untuk menghindari penginstalan dependensi saat runtime,
gunakan image container kustom.
Untuk contoh yang mengikuti pendekatan yang direkomendasikan, lihat tutorial Template Flex untuk pipeline dengan dependensi dan image penampung kustom di GitHub.
Menggunakan container kustom yang menginstal semua dependensi terlebih dahulu
Untuk menghindari penginstalan dependensi saat runtime, gunakan penampung kustom. Opsi ini lebih disukai untuk pipeline yang berjalan di lingkungan tanpa akses internet.
Ikuti langkah-langkah berikut untuk menggunakan penampung kustom:
Build image container kustom yang pra-menginstal dependensi yang diperlukan.
Pra-instal dependensi yang sama di Dockerfile Template Flex.
Untuk mencegah penginstalan dependensi saat runtime, jangan gunakan opsi
FLEX_TEMPLATE_PYTHON_REQUIREMENTS_FILE
atauFLEX_TEMPLATE_PYTHON_SETUP_FILE
dalam konfigurasi Template Fleksibel Anda.Dockerfile
Template Flex yang dimodifikasi mungkin terlihat seperti contoh berikut:FROM gcr.io/dataflow-templates-base/python3-template-launcher-base ENV FLEX_TEMPLATE_PYTHON_PY_FILE="/template/main.py" COPY . /template # If you use a requirements file, pre-install the requirements.txt. RUN pip install --no-cache-dir -r /template/requirements.txt # If you supply the pipeline in a package, pre-install the local package and its dependencies. RUN pip install -e /template
Saat menggunakan pendekatan ini, Anda akan melakukan hal berikut:
- mem-build image Template Flex
- mem-build image container SDK kustom
- menginstal dependensi yang sama di kedua image
Atau, untuk mengurangi jumlah image yang akan dikelola, gunakan image container kustom sebagai image dasar untuk Template Flex.
Jika Anda menggunakan Apache Beam SDK versi 2.49.0 atau yang lebih lama, tambahkan opsi pipeline
--sdk_location=container
di peluncur pipeline Anda. Opsi ini memberi tahu pipeline untuk menggunakan SDK dari penampung kustom, bukan mendownload SDK.options = PipelineOptions(beam_args, save_main_session=True, streaming=True, sdk_location="container")
Tetapkan parameter
sdk_container_image
dalam perintahflex-template run
. Contoh:gcloud dataflow flex-template run $JOB_NAME \ --region=$REGION \ --template-file-gcs-location=$TEMPLATE_PATH \ --parameters=sdk_container_image=$CUSTOM_CONTAINER_IMAGE \ --additional-experiments=use_runner_v2
Untuk informasi selengkapnya, lihat Menggunakan penampung kustom di Dataflow.
Memilih image dasar
Anda dapat menggunakan image dasar
yang disediakan Google untuk memaketkan image
container template menggunakan Docker. Pilih tag terbaru dari
gambar dasar Template Fleksibel.
Sebaiknya gunakan tag gambar tertentu, bukan latest
.
Tentukan image dasar dalam format berikut:
gcr.io/dataflow-templates-base/IMAGE_NAME:TAG
Ganti kode berikut:
IMAGE_NAME
: gambar dasar yang disediakan GoogleTAG
: nama versi untuk image dasar, yang ditemukan di referensi image dasar Template Flex
Menggunakan image container kustom
Jika pipeline Anda menggunakan image container kustom, sebaiknya gunakan image kustom sebagai image dasar untuk image Docker Template Fleksibel Anda. Untuk melakukannya, salin biner peluncur Template Flex dari image dasar template yang disediakan Google ke image kustom Anda.
Contoh Dockerfile
untuk image yang dapat
digunakan sebagai image penampung SDK Kustom dan sebagai Template Flex,
mungkin terlihat seperti berikut:
FROM gcr.io/dataflow-templates-base/IMAGE_NAME:TAG as template_launcher
FROM apache/beam_python3.10_sdk:2.61.0
# RUN <...Make image customizations here...>
# See: https://cloud.google.com/dataflow/docs/guides/build-container-image
# Configure the Flex Template here.
COPY --from=template_launcher /opt/google/dataflow/python_template_launcher /opt/google/dataflow/python_template_launcher
COPY my_pipeline.py /template/
ENV FLEX_TEMPLATE_PYTHON_PY_FILE="/template/my_pipeline.py"
Ganti kode berikut:
IMAGE_NAME
: image dasar yang disediakan Google. Contoh:python311-template-launcher-base
.TAG
: tag versi untuk image dasar yang ditemukan di referensi image dasar Template Flex. Untuk stabilitas dan pemecahan masalah yang lebih baik, hindari menggunakanlatest
. Sebagai gantinya, sematkan ke tag versi tertentu.
Untuk contoh yang mengikuti pendekatan ini, lihat tutorial Template Flex untuk pipeline dengan dependensi dan image container kustom.
Menggunakan image dari registry pribadi
Anda dapat mem-build image Template Fleksibel yang disimpan di registry Docker pribadi, jika registry pribadi menggunakan HTTPS dan memiliki sertifikat yang valid.
Untuk menggunakan image dari registry pribadi, tentukan jalur ke image serta nama pengguna dan sandi untuk registry. Nama pengguna dan sandi harus disimpan di Secret Manager. Anda dapat memberikan secret dalam salah satu format berikut:
projects/{project}/secrets/{secret}/versions/{secret_version}
projects/{project}/secrets/{secret}
Jika Anda menggunakan format kedua, karena tidak menentukan versi, Dataflow akan menggunakan versi terbaru.
Jika registry menggunakan sertifikat yang ditandatangani sendiri, Anda juga perlu menentukan jalur ke sertifikat yang ditandatangani sendiri di Cloud Storage.
Tabel berikut menjelaskan opsi gcloud CLI yang dapat Anda gunakan untuk mengonfigurasi registry pribadi.
Parameter | Deskripsi |
---|---|
image
|
Alamat registry. Contoh:
gcp.repository.example.com:9082/registry/example/image:latest .
|
image-repository-username-secret-id
|
ID secret Secret Manager untuk nama pengguna yang akan diautentikasi ke registry pribadi. Contoh:
projects/example-project/secrets/username-secret .
|
image-repository-password-secret-id
|
ID secret Secret Manager untuk sandi yang akan diautentikasi ke registry pribadi. Contoh:
projects/example-project/secrets/password-secret/versions/latest .
|
image-repository-cert-path
|
URL Cloud Storage lengkap untuk sertifikat dengan tanda tangan sendiri untuk
registry pribadi. Nilai ini hanya diperlukan jika registry menggunakan sertifikat yang ditandatangani sendiri. Contoh:
gs://example-bucket/self-signed.crt .
|
Berikut adalah contoh perintah Google Cloud CLI yang mem-build Template Flex menggunakan image di registry pribadi dengan sertifikat yang ditandatangani sendiri.
gcloud dataflow flex-template build gs://example-bucket/custom-pipeline-private-repo.json --sdk-language=JAVA --image="gcp.repository.example.com:9082/registry/example/image:latest" --image-repository-username-secret-id="projects/example-project/secrets/username-secret" --image-repository-password-secret-id="projects/example-project/secrets/password-secret/versions/latest" --image-repository-cert-path="gs://example-bucket/self-signed.crt" --metadata-file=metadata.json
Untuk mem-build Template Flex Anda sendiri, Anda perlu mengganti nilai contoh, dan Anda mungkin perlu menentukan opsi yang berbeda atau tambahan. Untuk mempelajari lebih lanjut, lihat referensi berikut:
Menentukan opsi pipeline
Untuk informasi tentang opsi pipeline yang didukung langsung oleh Template Flex, lihat Opsi pipeline.
Anda juga dapat menggunakan opsi pipeline Apache Beam secara tidak langsung. Jika Anda menggunakan file metadata.json
untuk tugas Template Flex, sertakan opsi pipeline ini dalam file. File metadata ini harus mengikuti format dalam
TemplateMetadata
.
Jika tidak, saat Anda meluncurkan tugas Template Flex, teruskan opsi pipeline ini menggunakan kolom parameter.
API
Sertakan opsi pipeline menggunakan kolom parameters
.
gcloud
Sertakan opsi pipeline menggunakan flag parameters
.
Saat meneruskan parameter jenis List
atau Map
, Anda mungkin perlu menentukan parameter dalam file YAML dan menggunakan flags-file
.
Untuk contoh pendekatan ini, lihat langkah"Buat file dengan parameter..." dalam solusi ini.
Saat menggunakan Template Flex, Anda dapat mengonfigurasi beberapa opsi pipeline selama inisialisasi pipeline, tetapi opsi pipeline lainnya tidak dapat diubah. Jika argumen command line yang diperlukan oleh Template Flex ditimpa, tugas dapat mengabaikan, mengganti, atau menghapus opsi pipeline yang diteruskan oleh peluncur template. Tugas mungkin gagal diluncurkan, atau tugas yang tidak menggunakan Template Fleksibel mungkin diluncurkan. Untuk informasi selengkapnya, lihat Gagal membaca file tugas.
Selama inisialisasi pipeline, jangan ubah opsi pipeline berikut:
Java
runner
project
jobName
templateLocation
region
Python
runner
project
job_name
template_location
region
Go
runner
project
job_name
template_location
region
Memblokir kunci SSH project dari VM yang menggunakan kunci SSH berbasis metadata
Anda dapat mencegah VM menerima kunci SSH yang disimpan dalam metadata project dengan memblokir kunci SSH project dari VM. Gunakan flag additional-experiments
dengan
opsi layanan block_project_ssh_keys
:
--additional-experiments=block_project_ssh_keys
Untuk mengetahui informasi selengkapnya, lihat Opsi layanan Dataflow.
Metadata
Anda dapat memperluas template dengan metadata tambahan sehingga parameter kustom divalidasi saat template dijalankan. Jika Anda ingin membuat metadata untuk template, ikuti langkah-langkah berikut:
- Buat file
metadata.json
menggunakan parameter di Parameter metadata.Untuk melihat contoh, lihat Contoh file metadata.
- Simpan file metadata di Cloud Storage dalam folder yang sama dengan template.
Parameter metadata
Kunci parameter | Wajib | Deskripsi nilai | |
---|---|---|---|
name |
Ya | Nama template Anda. | |
description |
Tidak | Paragraf singkat yang menjelaskan template. | |
streaming |
Tidak | Jika true , template ini mendukung streaming. Nilai defaultnya adalah
false . |
|
supportsAtLeastOnce |
Tidak | Jika true , template ini mendukung pemrosesan setidaknya satu kali. Nilai defaultnya adalah false . Tetapkan parameter ini ke true jika template dirancang
untuk berfungsi dengan mode streaming setidaknya satu kali.
|
|
supportsExactlyOnce |
Tidak | Jika true , template ini mendukung
pemrosesan tepat satu kali. Nilai defaultnya adalah true . |
|
defaultStreamingMode |
Tidak | Mode streaming default, untuk template yang mendukung mode setidaknya satu kali dan
mode tepat satu kali. Gunakan salah satu nilai berikut: "AT_LEAST_ONCE" ,
"EXACTLY_ONCE" . Jika tidak ditentukan, mode streaming default-nya adalah exactly-once.
|
|
parameters |
Tidak | Array parameter tambahan yang digunakan template. Array kosong digunakan secara default. | |
name |
Ya | Nama parameter yang digunakan dalam template Anda. | |
label |
Ya | String yang dapat dibaca manusia yang digunakan di konsol Google Cloud untuk memberi label pada parameter. | |
helpText |
Ya | Paragraf singkat yang menjelaskan parameter. | |
isOptional |
Tidak | false jika parameter wajib ada dan true jika parameter bersifat opsional. Kecuali jika ditetapkan dengan nilai, isOptional akan ditetapkan secara default ke false .
Jika Anda tidak menyertakan kunci parameter ini untuk metadata, metadata akan menjadi parameter yang diperlukan. |
|
regexes |
Tidak | Array ekspresi reguler POSIX-egrep dalam bentuk string yang digunakan untuk memvalidasi
nilai parameter. Misalnya, ["^[a-zA-Z][a-zA-Z0-9]+"] adalah satu ekspresi reguler yang memvalidasi bahwa nilai dimulai dengan huruf, lalu memiliki satu atau beberapa karakter. Array kosong digunakan secara default. |
Contoh file metadata
Java
{ "name": "Streaming Beam SQL", "description": "An Apache Beam streaming pipeline that reads JSON encoded messages from Pub/Sub, uses Beam SQL to transform the message data, and writes the results to a BigQuery", "parameters": [ { "name": "inputSubscription", "label": "Pub/Sub input subscription.", "helpText": "Pub/Sub subscription to read from.", "regexes": [ "[a-zA-Z][-_.~+%a-zA-Z0-9]{2,}" ] }, { "name": "outputTable", "label": "BigQuery output table", "helpText": "BigQuery table spec to write to, in the form 'project:dataset.table'.", "isOptional": true, "regexes": [ "[^:]+:[^.]+[.].+" ] } ] }
Python
{ "name": "Streaming beam Python flex template", "description": "Streaming beam example for python flex template.", "parameters": [ { "name": "input_subscription", "label": "Input PubSub subscription.", "helpText": "Name of the input PubSub subscription to consume from.", "regexes": [ "projects/[^/]+/subscriptions/[a-zA-Z][-_.~+%a-zA-Z0-9]{2,}" ] }, { "name": "output_table", "label": "BigQuery output table name.", "helpText": "Name of the BigQuery output table name.", "isOptional": true, "regexes": [ "([^:]+:)?[^.]+[.].+" ] } ] }
Anda dapat mendownload file metadata untuk template yang disediakan Google dari direktori template Dataflow.
Memahami lokasi staging dan lokasi sementara
Google Cloud CLI menyediakan opsi --staging-location
dan --temp-location
saat Anda menjalankan template fleksibel.
Demikian pula, Dataflow REST API menyediakan kolom stagingLocation
dan
tempLocation
untuk
FlexTemplateRuntimeEnvironment.
Untuk Template Flex, lokasi staging adalah URL Cloud Storage tempat file ditulis selama langkah staging peluncuran template. Dataflow membaca file yang di-staging ini untuk membuat grafik template. Lokasi sementara adalah URL Cloud Storage tempat file sementara ditulis selama langkah eksekusi.
Memperbarui tugas Template Flex
Contoh permintaan berikut menunjukkan cara memperbarui tugas streaming template menggunakan metode projects.locations.flexTemplates.launch. Jika Anda ingin menggunakan gcloud CLI, lihat Memperbarui pipeline yang ada.
Jika Anda ingin memperbarui template klasik, gunakan projects.locations.templates.launch.
Ikuti langkah-langkah untuk membuat tugas streaming dari Template Flex. Kirim permintaan POST HTTP berikut dengan nilai yang diubah:
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/REGION/flexTemplates:launch { "launchParameter": { "update": true "jobName": "JOB_NAME", "parameters": { "input_subscription": "projects/PROJECT_ID/subscriptions/SUBSCRIPTION_NAME", "output_table": "PROJECT_ID:DATASET.TABLE_NAME" }, "containerSpecGcsPath": "STORAGE_PATH" }, }
- Ganti
PROJECT_ID
dengan project ID Anda. - Ganti
REGION
dengan region Dataflow dari tugas yang Anda perbarui. - Ganti
JOB_NAME
dengan nama persis tugas yang ingin Anda perbarui. - Tetapkan
parameters
ke daftar key-value pair Anda. Parameter yang tercantum bersifat khusus untuk contoh template ini. Jika Anda menggunakan template kustom, ubah parameter sesuai kebutuhan. Jika Anda menggunakan template contoh, ganti variabel berikut.- Ganti
SUBSCRIPTION_NAME
dengan nama langganan Pub/Sub Anda. - Ganti
DATASET
dengan nama set data BigQuery Anda. - Ganti
TABLE_NAME
dengan nama tabel BigQuery Anda.
- Ganti
- Ganti
STORAGE_PATH
dengan lokasi Cloud Storage file template. Lokasi harus diawali dengangs://
.
- Ganti
Gunakan parameter
environment
untuk mengubah setelan lingkungan. Untuk mengetahui informasi selengkapnya, lihatFlexTemplateRuntimeEnvironment
.Opsional: Untuk mengirim permintaan menggunakan curl (Linux, macOS, atau Cloud Shell), simpan permintaan ke file JSON, lalu jalankan perintah berikut:
curl -X POST -d "@FILE_PATH" -H "Content-Type: application/json" -H "Authorization: Bearer $(gcloud auth print-access-token)" https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/REGION/flexTemplates:launch
Ganti FILE_PATH dengan jalur ke file JSON yang berisi isi permintaan.
Gunakan antarmuka pemantauan Dataflow untuk memverifikasi bahwa tugas baru dengan nama yang sama telah dibuat. Tugas ini memiliki status Diperbarui.
Batasan
Batasan berikut berlaku untuk tugas Template Fleksibel:
- Anda harus menggunakan image dasar yang disediakan Google untuk memaketkan container menggunakan Docker. Untuk daftar image yang berlaku, lihat Image dasar Template Fleksibel.
- Program yang membuat pipeline harus keluar setelah
run
dipanggil agar pipeline dapat dimulai. waitUntilFinish
(Java) danwait_until_finish
(Python) tidak didukung.
Langkah selanjutnya
- Untuk mengetahui lebih lanjut Template Klasik, Template Flex, dan skenario kasus penggunaannya, lihat Template dataflow.
- Untuk informasi pemecahan masalah Template Flex, lihat Memecahkan masalah waktu tunggu Template Flex habis.
- Untuk mengetahui lebih banyak tentang arsitektur referensi, diagram, dan praktik terbaik lainnya, jelajahi Pusat Arsitektur Cloud.