借助 Workflows 在工作流中使用的 Cloud Run 作业 执行更复杂的数据处理或编排现有作业系统。
本教程演示了如何使用 Workflows 执行 用于处理作为环境传递的数据的 Cloud Run 作业 变量发送到作业,以响应来自 Cloud Storage 的事件。
请注意,您还可以在 Cloud Storage 存储桶中存储事件数据,这样您就可以使用客户管理的加密密钥来加密数据。如需了解详情,请参阅 执行 Cloud Run 作业,用于处理 Cloud Storage 中保存的事件数据。
目标
在此教程中,您将学习以下操作:
- 创建一个 Cloud Run 作业,用于处理 Cloud Storage 存储桶。
- 部署执行以下操作的工作流:
- 接受 Cloud Storage 事件作为参数。
- 检查事件中指定的 Cloud Storage 存储桶 是 Cloud Run 作业使用的存储桶。
- 如果是这样,请使用 Cloud Run Admin API 连接器 以执行 Cloud Run 作业
- 创建一个 Eventarc 触发器,以响应影响 Cloud Storage 存储桶的事件来执行工作流。
- 通过更新 Cloud Storage 存储桶中的输入数据文件来触发工作流。
费用
在本文档中,您将使用 Google Cloud 的以下收费组件:
准备工作
您的组织定义的安全限制条件可能会导致您无法完成以下步骤。如需了解相关问题排查信息,请参阅在受限的 Google Cloud 环境中开发应用。
控制台
- 登录您的 Google Cloud 账号。如果您是 Google Cloud 新手,请创建一个账号来评估我们的产品在实际场景中的表现。新客户还可获享 $300 赠金,用于运行、测试和部署工作负载。
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Enable the Artifact Registry, Cloud Build, Cloud Run, Cloud Storage, Eventarc, and Workflows APIs.
-
Create a service account:
-
In the Google Cloud console, go to the Create service account page.
Go to Create service account - Select your project.
-
In the Service account name field, enter a name. The Google Cloud console fills in the Service account ID field based on this name.
In the Service account description field, enter a description. For example,
Service account for quickstart
. - Click Create and continue.
-
Grant the following roles to the service account: Cloud Run Admin, Eventarc Event Receiver, Logs Writer, Workflows Invoker.
To grant a role, find the Select a role list, then select the role.
To grant additional roles, click
Add another role and add each additional role. - Click Continue.
-
Click Done to finish creating the service account.
-
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Enable the Artifact Registry, Cloud Build, Cloud Run, Cloud Storage, Eventarc, and Workflows APIs.
-
Create a service account:
-
In the Google Cloud console, go to the Create service account page.
Go to Create service account - Select your project.
-
In the Service account name field, enter a name. The Google Cloud console fills in the Service account ID field based on this name.
In the Service account description field, enter a description. For example,
Service account for quickstart
. - Click Create and continue.
-
Grant the following roles to the service account: Cloud Run Admin, Eventarc Event Receiver, Logs Writer, Workflows Invoker.
To grant a role, find the Select a role list, then select the role.
To grant additional roles, click
Add another role and add each additional role. - Click Continue.
-
Click Done to finish creating the service account.
-
- 在为来自 Cloud Storage 的直接事件创建触发器之前,请向 Cloud Storage 服务代理授予 Pub/Sub Publisher 角色 (
roles/pubsub.publisher
):- 在 Google Cloud 控制台中,前往 IAM 页面。
- 选中包括 Google 提供的角色授权复选框。
- 在主账号列中,找到 Cloud Storage
表单为 Service Agent
service-PROJECT_NUMBER@gs-project-accounts.iam.gserviceaccount.com
, 然后点击 修改 主账号。 - 点击 添加角色或 添加其他角色。
- 在选择角色列表中,过滤出 Pub/Sub Publisher,然后选择 角色。
- 点击保存。
- 在 Google Cloud 控制台中,前往 IAM 页面。
- 如果您在 2021 年 4 月 8 日当天或之前启用了 Cloud Pub/Sub 服务代理,以支持经过身份验证的 Pub/Sub 推送请求,请向该服务代理授予 Service Account Token Creator 角色 (
roles/iam.serviceAccountTokenCreator
)。否则,系统会默认授予此角色:- 在 Google Cloud 控制台中,前往
IAM 页面。
- 选中包括 Google 提供的角色授权复选框。
- 在名称列中,找到 Cloud Pub/Sub 服务账号 然后点击 修改 主账号。
- 点击 添加角色 或 添加其他角色。
- 在选择角色列表中,过滤出 Service Account Token Creator,然后选择角色。
- 点击保存。
- 在 Google Cloud 控制台中,前往
IAM 页面。
-
In the Google Cloud console, activate Cloud Shell.
At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
Cloud Shell 支持
/dev/urandom
命令,
本教程中介绍了如何生成伪随机数。
gcloud
如需使用已设置 gcloud CLI 的在线终端,请激活 Cloud Shell:
Cloud Shell 会话会在页面底部启动,并显示命令行提示符。该会话可能需要几秒钟来完成初始化。
Cloud Shell 支持本教程中用于生成伪随机数的
/dev/urandom
命令。- 创建或选择 Google Cloud 项目。
-
创建 Google Cloud 项目:
gcloud projects create PROJECT_ID
-
选择您创建的 Google Cloud 项目:
gcloud config set project PROJECT_ID
-
- 确保您的 Google Cloud 项目已启用结算功能。
- 启用 Artifact Registry, Cloud Build,
Cloud Run, Cloud Storage, Eventarc,
and Workflows API:
gcloud services enable artifactregistry.googleapis.com \ cloudbuild.googleapis.com \ eventarc.googleapis.com \ run.googleapis.com \ storage.googleapis.com \ workflows.googleapis.com
- 为您的工作流创建一个服务账号,以便该工作流用于与其他 Google Cloud 服务进行身份验证,并向其授予适当的角色。
- 创建服务账号:
gcloud iam service-accounts create SERVICE_ACCOUNT_NAME
将
SERVICE_ACCOUNT_NAME
替换为以下项的名称: 服务账号 - 向您在上一步中创建的用户管理的服务账号授予角色。针对以下各项运行一次命令
也可以使用
--role
标志 运行多次:roles/eventarc.eventReceiver
:用于接收事件roles/logging.logWriter
:用于写入日志roles/run.admin
:用于执行 Cloud Run 作业roles/workflows.invoker
:用于调用工作流
gcloud projects add-iam-policy-binding PROJECT_ID \ --member=serviceAccount:SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com \ --role=ROLE
替换以下内容:
PROJECT_ID
:您在其中创建服务账号的项目的 IDROLE
:要授予用户管理的角色 服务账号
- 创建服务账号:
- 在为来自 Cloud Storage 的直接事件创建触发器之前,请向 Cloud Storage 服务代理授予 Pub/Sub Publisher 角色 (
roles/pubsub.publisher
):SERVICE_ACCOUNT="$(gcloud storage service-agent --project=PROJECT_ID)" gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:${SERVICE_ACCOUNT}" \ --role='roles/pubsub.publisher'
- 如果您在 2021 年 4 月 8 日或之前启用了 Cloud Pub/Sub 服务代理,以支持经过身份验证的 Pub/Sub 推送请求,请向该服务代理授予 Service Account Token Creator 角色 (
roles/iam.serviceAccountTokenCreator
)。否则,系统会默认授予此角色:gcloud projects add-iam-policy-binding PROJECT_ID \ --member=serviceAccount:service-PROJECT_NUMBER@gcp-sa-pubsub.iam.gserviceaccount.com \ --role=roles/iam.serviceAccountTokenCreator
将 PROJECT_NUMBER
替换为您的 Google Cloud 项目编号。您可以在 Google Cloud 控制台的欢迎页面上或者通过运行以下命令找到项目编号:
gcloud projects describe PROJECT_ID --format='value(projectNumber)'
Terraform
必须搭配 gcloud CLI 使用在线终端 激活 Cloud Shell:
Cloud Shell 会话会在页面底部启动,并显示命令行提示符。该会话可能需要几秒钟来完成初始化。
Cloud Shell 支持本教程中用于生成伪随机数的
/dev/urandom
命令。- 创建或选择 Google Cloud 项目。
-
创建 Google Cloud 项目:
gcloud projects create PROJECT_ID
-
选择您创建的 Google Cloud 项目:
gcloud config set project PROJECT_ID
-
- 确保您的 Google Cloud 项目已启用结算功能。
- 启用 Artifact Registry, Cloud Build,
Cloud Run, Cloud Storage, Eventarc,
and Workflows API:
gcloud services enable artifactregistry.googleapis.com \ cloudbuild.googleapis.com \ eventarc.googleapis.com \ run.googleapis.com \ storage.googleapis.com \ workflows.googleapis.com
为您的工作流创建用于身份验证的服务账号 并为其授予适当的角色 此外,为了支持来自 Cloud Storage 的直接事件, 授予 Pub/Sub Publisher角色 (
roles/pubsub.publisher
) Cloud Storage 服务代理。修改
main.tf
文件,如以下示例所示。有关详情,请参阅 Terraform 文档的 Google 提供程序。如需了解如何应用或移除 Terraform 配置,请参阅基本 Terraform 命令。
请注意,在典型的 Terraform 工作流中,您会在 一次。不过,在本教程中,您可以定位到特定资源。例如:
terraform apply -target="google_service_account.workflows"
- 如果您在 2021 年 4 月 8 日或之前启用了 Cloud Pub/Sub 服务代理,以支持经过身份验证的 Pub/Sub 推送请求,请向该服务代理授予 Service Account Token Creator 角色 (
roles/iam.serviceAccountTokenCreator
)。否则,系统会默认授予此角色:gcloud projects add-iam-policy-binding PROJECT_ID \ --member=serviceAccount:service-PROJECT_NUMBER@gcp-sa-pubsub.iam.gserviceaccount.com \ --role=roles/iam.serviceAccountTokenCreator
将 PROJECT_NUMBER
替换为您的 Google Cloud 项目编号。您可以在 Google Cloud 控制台的欢迎页面上或者通过运行以下命令找到项目编号:
gcloud projects describe PROJECT_ID --format='value(projectNumber)'
创建 Cloud Run 作业
本教程使用 GitHub 中的示例 Cloud Run 作业。工作 从 Cloud Storage 中的输入文件读取数据,并执行一些 对文件中的每一行进行任意处理。
通过将示例应用代码库克隆到本地来获取示例代码 机器:
git clone https://github.com/GoogleCloudPlatform/jobs-demos.git
或者,您也可以 将示例下载为 ZIP 文件 并将其解压缩。
转到包含示例代码的目录:
cd jobs-demos/parallel-processing
创建 Cloud Storage 存储桶来存储 写入并触发事件:
控制台
- 在 Google Cloud 控制台中,进入 Cloud Storage 存储桶页面。
- 点击 add Create。
- 在创建存储桶页面上,为存储桶输入名称:
将input-PROJECT_ID
PROJECT_ID
替换为您的 Google Cloud 项目的 ID。 - 保留其他默认设置。
- 点击创建。
gcloud
运行
gcloud storage buckets create
命令:gcloud storage buckets create gs://input-PROJECT_ID
如果请求成功,该命令将返回以下消息:
Creating gs://input-PROJECT_ID/...
Terraform
如需创建 Cloud Storage 存储桶,请使用
google_storage_bucket
资源并修改main.tf
文件,如以下示例所示。如需了解如何应用或移除 Terraform 配置,请参阅 基本 Terraform 命令。
请注意,在典型的 Terraform 工作流中,您会一次性应用整个方案。不过,在本教程中,您可以定位到特定资源。例如:
terraform apply -target="random_id.bucket_name_suffix"
和
terraform apply -target="google_storage_bucket.default"
- 在 Google Cloud 控制台中,进入 Cloud Storage 存储桶页面。
创建一个 Artifact Registry 标准代码库,用于 容器映像:
控制台
在 Google Cloud 控制台中,前往 Artifact Registry 的制品库页面:
点击
创建制品库。输入代码库的名称,例如
my-repo
。对于项目中的每个代码库位置,代码库名称不得重复。保留默认格式,即 Docker。
保留默认模式,该模式应为标准。
对于区域,选择 us-central1(爱荷华)。
保留其他所有默认设置。
点击创建。
gcloud
运行以下命令:
gcloud artifacts repositories create REPOSITORY \ --repository-format=docker \ --location=us-central1
将
REPOSITORY
替换为制品库的唯一名称,例如my-repo
。对于项目中的每个代码库位置,代码库名称不得重复。Terraform
如需创建工件注册库代码库,请使用
google_artifact_registry_repository
资源并修改main.tf
文件,如以下示例所示。请注意,在典型的 Terraform 工作流中,您会在 一次。但在本教程中,您可以将 特定资源。例如:
terraform apply -target="google_artifact_registry_repository.default"
使用默认的 Google Cloud Buildpack 构建容器映像:
export SERVICE_NAME=parallel-job gcloud builds submit \ --pack image=us-central1-docker.pkg.dev/PROJECT_ID/REPOSITORY/${SERVICE_NAME}
将
REPOSITORY
替换为您的 Artifact Registry 制品库的名称。构建可能需要几分钟才能完成。
创建用于部署容器映像的 Cloud Run 作业:
控制台
在 Google Cloud 控制台中,前往 Cloud Run 页面:
点击创建作业,以显示创建作业表单。
- 在表单中,选择
us-central1-docker.pkg.dev/PROJECT_ID/REPOSITORY/parallel-job:latest
用作 Artifact Registry 容器映像网址 - 可选:对于作业名称,请输入
parallel-job
。 - 可选:对于区域,选择 us-central1(爱荷华)。
- 对于要在作业中运行的任务数量,请输入
10
。所有任务都必须成功完成,这样作业才能成功完成。默认情况下,这些任务是并行执行的。
- 在表单中,选择
展开 Container, Variables &Secret、连接、安全性 部分,保留所有默认设置,但以下设置除外 设置:
点击常规标签页。
- 对于容器命令,请输入
python
。 - 对于容器参数,请输入
process.py
。
- 对于容器命令,请输入
点击变量和 Secret 标签页。
- 点击添加变量,然后输入
INPUT_BUCKET
作为名称,并输入input-PROJECT_ID
作为值。 - 点击添加变量,然后输入
INPUT_FILE
作为名称,并输入input_file.txt
作为值。
- 点击添加变量,然后输入
如需创建作业,请点击创建。
gcloud
设置默认 Cloud Run 区域:
gcloud config set run/region us-central1
创建 Cloud Run 作业:
gcloud run jobs create parallel-job \ --image us-central1-docker.pkg.dev/PROJECT_ID/REPOSITORY/parallel-job:latest \ --command python \ --args process.py \ --tasks 10 \ --set-env-vars=INPUT_BUCKET=input-PROJECT_ID,INPUT_FILE=input_file.txt
请注意,如果您未指定映像标记,Artifact Registry 将查找带有默认
latest
标记的映像。如需查看创建作业时可用的选项的完整列表,请参阅 gcloud run jobs create 命令行文档。
作业创建完毕后,您应该会看到一条表示成功的消息。
Terraform
如需创建 Cloud Run 作业,请使用
google_cloud_run_v2_job
资源 并修改main.tf
文件,如以下示例所示。请注意,在典型的 Terraform 工作流中,您会一次性应用整个方案。不过,在本教程中,您可以定位到特定资源。例如:
terraform apply -target="google_cloud_run_v2_job.default"
部署用于执行 Cloud Run 作业的工作流
定义并部署用于执行 Cloud Run 作业的工作流 创建的新实例工作流定义由一系列使用 Workflows 语法描述的步骤组成。
控制台
在 Google Cloud 控制台中,前往 Workflows 页面:
点击
创建。输入新工作流的名称,例如
cloud-run-job-workflow
。对于区域,选择 us-central1(爱荷华)。
在服务账号字段中,选择您之前创建的服务账号。
服务账号充当工作流的身份。您应该有 已将 Cloud Run Admin 角色授予服务账号,因此 让工作流可以执行 Cloud Run 作业。
点击下一步。
在工作流编辑器中,为 工作流:
点击部署。
gcloud
为您的工作流创建源代码文件:
touch cloud-run-job-workflow.yaml
将以下工作流定义复制到源代码文件中:
输入以下命令以部署工作流:
gcloud workflows deploy cloud-run-job-workflow \ --location=us-central1 \ --source=cloud-run-job-workflow.yaml \ --service-account=SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
替换以下内容:
SERVICE_ACCOUNT_NAME
: 您之前创建的服务账号PROJECT_ID
:您的 Google Cloud 项目的 ID
服务账号将用作工作流的身份。您应该已向服务账号授予
roles/run.admin
角色,以便工作流可以执行 Cloud Run 作业。
Terraform
如需创建工作流,请使用 google_workflows_workflow
资源并修改 main.tf
文件,如以下示例所示。
如需了解如何应用或移除 Terraform 配置,请参阅基本 Terraform 命令。
请注意,在典型的 Terraform 工作流中,您可以一次性应用整个计划。 但在本教程中,您可以将 资源。例如:
terraform apply -target="google_workflows_workflow.default"
工作流会执行以下操作:
init
步骤 - 接受 Cloud Storage 事件作为参数,然后 设置必要的变量。check_input_file
步骤 - 检查事件中指定的 Cloud Storage 存储桶是否为 Cloud Run 作业使用的存储桶。- 如果是,工作流会继续执行
run_job
步骤。 - 如果没有,工作流会终止,停止任何进一步的处理。
- 如果是,工作流会继续执行
run_job
步骤 - 使用 Cloud Run Admin API 连接器的googleapis.run.v1.namespaces.jobs.run
方法 以执行作业。Cloud Storage 存储桶和数据文件名 作为替换变量从工作流传递到作业。finish
步骤 - 作为工作流的结果,返回有关作业执行的信息。
为工作流创建 Eventarc 触发器
自动执行工作流,进而执行 Cloud Run 则创建一个 Eventarc 响应存储桶中的 Cloud Storage 事件的触发器 包含输入数据文件的映射。
控制台
在 Google Cloud 控制台中,前往 工作流程页面:
点击工作流的名称,例如
cloud-run-job-workflow
。在工作流详情页面上,点击
修改。在修改工作流页面的触发器部分中,依次点击添加新触发器 > Eventarc。
系统随即会打开 Eventarc 触发器窗格。
在触发器名称字段中,输入触发器的名称,例如
cloud-run-job-workflow-trigger
。在事件提供方列表中,选择 Cloud Storage。
在事件列表中,选择 google.cloud.storage.object.v1.finalized。
在存储桶字段中,选择包含输入数据文件的存储桶。存储桶名称的格式为
input-PROJECT_ID
。在服务账号字段中,选择您之前创建的服务账号。
该服务账号充当触发器的身份。您应该有 已向该服务账号授予以下角色:
- Eventarc Event Receiver:用于接收事件
- Workflows Invoker:用于执行工作流
点击保存触发器。
Eventarc 触发器现在显示在触发器中 部分(位于修改工作流程页面上)。
点击下一步。
点击部署。
gcloud
运行以下命令以创建 Eventarc 触发器:
gcloud eventarc triggers create cloud-run-job-workflow-trigger \ --location=us \ --destination-workflow=cloud-run-job-workflow \ --destination-workflow-location=us-central1 \ --event-filters="type=google.cloud.storage.object.v1.finalized" \ --event-filters="bucket=input-PROJECT_ID" \ --service-account=SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
替换以下内容:
PROJECT_ID
:您的 Google Cloud 项目的 IDSERVICE_ACCOUNT_NAME
:您之前创建的服务账号的名称。
该服务账号充当触发器的身份。您应该有 已向该服务账号授予以下角色:
roles/eventarc.eventReceiver
:用于接收事件roles/workflows.invoker
:用于执行工作流
Terraform
如需创建触发器,请使用
google_eventarc_trigger
资源
并修改 main.tf
文件,如以下示例所示。
如需了解如何应用或移除 Terraform 配置,请参阅基本 Terraform 命令。
请注意,在典型的 Terraform 工作流中,您会一次性应用整个方案。不过,在本教程中,您可以定位到特定资源。例如:
terraform apply -target="google_eventarc_trigger.default"
每当有人在 Cloud Storage 中上传或覆盖文件时 存储桶,则使用 将相应 Cloud Storage 事件作为参数传递。
触发工作流
通过更新 Cloud Storage 中的输入数据文件来测试端到端系统。
为输入文件生成新数据并将其上传到 Cloud Storage 在 Cloud Run 作业预期的位置运行:
base64 /dev/urandom | head -c 100000 >input_file.txt gcloud storage cp input_file.txt gs://input-PROJECT_ID/input_file.txt
如果您使用 Terraform 创建了 Cloud Storage 存储桶,则可以通过运行以下命令检索存储桶的名称:
gcloud storage buckets list gs://input*
Cloud Run 作业可能需要几分钟才能运行完毕。
查看作业执行情况,确认 Cloud Run 作业是否按预期运行:
gcloud config set run/region us-central1 gcloud run jobs executions list --job=parallel-job
您应该会在输出中看到作业执行成功,这表示
10/10
个任务已完成。
详细了解 使用事件或 Pub/Sub 消息触发工作流。
清理
如果您为本教程创建了一个新项目,请删除项目。 如果您使用的是现有项目,希望保留此项目且不保留本教程中添加的任何更改,请删除为教程创建的资源。
删除项目
为了避免产生费用,最简单的方法是删除您为本教程创建的项目。
要删除项目,请执行以下操作:
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.
删除教程资源
删除您在本教程中创建的资源:
删除 Eventarc 触发器:
gcloud eventarc triggers delete cloud-run-job-workflow-trigger --location=us
删除工作流:
gcloud workflows delete cloud-run-job-workflow --location=us-central1
删除 Cloud Run 作业:
gcloud run jobs delete parallel-job
删除为输入数据创建的 Cloud Storage 存储桶:
gcloud storage rm --recursive gs://input-PROJECT_ID/
删除 Artifact Registry 代码库:
gcloud artifacts repositories delete REPOSITORY --location=us-central1