使用 Go 创建 Dataflow 流水线

本页面介绍如何使用 Go 版 Apache Beam SDK 构建用于定义流水线的程序。然后,您将在本地和 Dataflow 服务上运行该流水线。如需了解 WordCount 流水线,请观看如何在 Apache Beam 中使用 WordCount 视频。

准备工作

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. Install the Google Cloud CLI.
  3. To initialize the gcloud CLI, run the following command:

    gcloud init
  4. Create or select a Google Cloud project.

    • Create a Google Cloud project:

      gcloud projects create PROJECT_ID

      Replace PROJECT_ID with a name for the Google Cloud project you are creating.

    • Select the Google Cloud project that you created:

      gcloud config set project PROJECT_ID

      Replace PROJECT_ID with your Google Cloud project name.

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Enable the Dataflow, Compute Engine, Cloud Logging, Cloud Storage, Google Cloud Storage JSON, and Cloud Resource Manager APIs:

    gcloud services enable dataflow compute_component logging storage_component storage_api cloudresourcemanager.googleapis.com
  7. Create local authentication credentials for your user account:

    gcloud auth application-default login
  8. Grant roles to your user account. Run the following command once for each of the following IAM roles: roles/iam.serviceAccountUser

    gcloud projects add-iam-policy-binding PROJECT_ID --member="USER_IDENTIFIER" --role=ROLE
    • Replace PROJECT_ID with your project ID.
    • Replace USER_IDENTIFIER with the identifier for your user account. For example, user:myemail@example.com.

    • Replace ROLE with each individual role.
  9. Install the Google Cloud CLI.
  10. To initialize the gcloud CLI, run the following command:

    gcloud init
  11. Create or select a Google Cloud project.

    • Create a Google Cloud project:

      gcloud projects create PROJECT_ID

      Replace PROJECT_ID with a name for the Google Cloud project you are creating.

    • Select the Google Cloud project that you created:

      gcloud config set project PROJECT_ID

      Replace PROJECT_ID with your Google Cloud project name.

  12. Make sure that billing is enabled for your Google Cloud project.

  13. Enable the Dataflow, Compute Engine, Cloud Logging, Cloud Storage, Google Cloud Storage JSON, and Cloud Resource Manager APIs:

    gcloud services enable dataflow compute_component logging storage_component storage_api cloudresourcemanager.googleapis.com
  14. Create local authentication credentials for your user account:

    gcloud auth application-default login
  15. Grant roles to your user account. Run the following command once for each of the following IAM roles: roles/iam.serviceAccountUser

    gcloud projects add-iam-policy-binding PROJECT_ID --member="USER_IDENTIFIER" --role=ROLE
    • Replace PROJECT_ID with your project ID.
    • Replace USER_IDENTIFIER with the identifier for your user account. For example, user:myemail@example.com.

    • Replace ROLE with each individual role.
  16. 向您的 Compute Engine 默认服务账号授予角色。对以下每个 IAM 角色运行以下命令一次:

    • roles/dataflow.admin
    • roles/dataflow.worker
    • roles/storage.objectAdmin
    gcloud projects add-iam-policy-binding PROJECT_ID --member="serviceAccount:PROJECT_NUMBER-compute@developer.gserviceaccount.com" --role=SERVICE_ACCOUNT_ROLE
    • PROJECT_ID 替换为您的项目 ID。
    • PROJECT_NUMBER 替换为您的项目编号。 如需查找项目编号,请参阅识别项目或使用 gcloud projects describe 命令。
    • SERVICE_ACCOUNT_ROLE 替换为每个角色。
  17. Create a Cloud Storage bucket and configure it as follows:
    • Set the storage class to S (Standard)。
    • 将存储位置设置为以下项: US(美国)。
    • BUCKET_NAME 替换为 唯一的存储桶名称。请勿在存储桶名称中添加敏感信息,因为存储桶命名空间是全局性的,公开可见。
    • gcloud storage buckets create gs://BUCKET_NAME --default-storage-class STANDARD --location US
    • 复制 Google Cloud 项目 ID 和 Cloud Storage 存储桶名称。 您将在本快速入门的后面部分用到这些值。

设置开发环境

Apache Beam SDK 是一个用于数据流水线的开源编程模型。 您可以使用 Apache Beam 程序定义流水线,然后选择 Dataflow 等运行程序来运行流水线。

我们建议您在使用 Go 版 Apache Beam SDK 时使用最新版本的 Go。如果您未安装最新版本的 Go,请使用 Go 的下载和安装指南下载并安装适用于您的特定操作系统的 Go。

如需验证您已安装的 Go 的版本,请在本地终端中运行以下命令:

go version

运行 Beam 字数统计示例

Go 版 Apache Beam SDK 包含一个 wordcount 流水线示例wordcount 示例执行以下操作:

  1. 读取一个文本文件作为输入。默认情况下,它会读取 Cloud Storage 存储桶中资源名称为 gs://dataflow-samples/shakespeare/kinglear.txt 的文本文件。
  2. 将每一行解析为字词。
  3. 对标记化字词进行词频计数。

要在本地机器上运行最新版本的 Beam wordcount 示例,请使用以下命令。input 标志指定要读取的文件,output 标志指定频率计数输出的文件名。

go run github.com/apache/beam/sdks/v2/go/examples/wordcount@latest \
  --input gs://dataflow-samples/shakespeare/kinglear.txt \
  --output outputs

流水线完成后,查看输出结果:

more outputs*

如需退出,请按 q

修改流水线代码

Beam wordcount 流水线区分大写和小写字词。以下步骤展示了如何创建您自己的 Go 模块,修改 wordcount 流水线以使其不区分大小写,以及在 Dataflow 上运行。

创建 Go 模块

如需更改流水线代码,请按照以下步骤操作。

  1. 在您选择的位置为您的 Go 模块创建一个目录:

    mkdir wordcount
    cd wordcount
    
  2. 创建 Go 模块。在本示例中,请使用 example/dataflow 作为模块路径。

    go mod init example/dataflow
    
  3. 从 Apache Beam GitHub 代码库下载 wordcount 代码的最新副本。将此文件放入您创建的 wordcount 目录中。

  4. 如果您使用的是非 Linux 操作系统,则必须获取 Go unix 软件包。在 Dataflow 服务上运行流水线时需要此软件包。

    go get -u golang.org/x/sys/unix
    
  5. 确保 go.mod 文件与模块的源代码匹配:

    go mod tidy
    

运行未经修改的流水线

验证未修改的 wordcount 流水线在本地运行。

  1. 从终端在本地构建和运行流水线:

     go run wordcount.go --input gs://dataflow-samples/shakespeare/kinglear.txt \
         --output outputs
    
  2. 查看输出结果:

     more outputs*
    
  3. 如需退出,请按 q

更改流水线代码

如需更改流水线以使其不区分大小写,请修改代码以将 strings.ToLower 函数应用于所有字词。

  1. 在您选择的编辑器中,打开 wordcount.go 文件。

  2. 检查 init 块(为清楚起见,已移除注释):

     func init() {
       register.DoFn3x0[context.Context, string, func(string)](&extractFn{})
       register.Function2x1(formatFn)
       register.Emitter1[string]()
     }
    
  3. 添加一个新行以注册 strings.ToLower 函数:

     func init() {
       register.DoFn3x0[context.Context, string, func(string)](&extractFn{})
       register.Function2x1(formatFn)
       register.Emitter1[string]()
       register.Function1x1(strings.ToLower)
     }
    
  4. 检查 CountWords 函数:

     func CountWords(s beam.Scope, lines beam.PCollection) beam.PCollection {
       s = s.Scope("CountWords")
    
       // Convert lines of text into individual words.
       col := beam.ParDo(s, &extractFn{SmallWordLength: *smallWordLength}, lines)
    
       // Count the number of times each word occurs.
       return stats.Count(s, col)
     }
    
  5. 要将字词小写,请添加 ParDo,以将 strings.ToLower 应用于每个字词:

     func CountWords(s beam.Scope, lines beam.PCollection) beam.PCollection {
       s = s.Scope("CountWords")
    
       // Convert lines of text into individual words.
       col := beam.ParDo(s, &extractFn{SmallWordLength: *smallWordLength}, lines)
    
       // Map all letters to lowercase.
       lowercaseWords := beam.ParDo(s, strings.ToLower, col)
    
       // Count the number of times each word occurs.
       return stats.Count(s, lowercaseWords)
     }
    
  6. 保存文件。

在本地运行更新后的流水线

在本地运行更新后的 wordcount 流水线,并验证输出是否已更改。

  1. 构建并运行修改后的 wordcount 流水线:

     go run wordcount.go --input gs://dataflow-samples/shakespeare/kinglear.txt \
         --output outputs
    
  2. 查看修改后的流水线的结果:所有字词都应小写。

     more outputs*
    
  3. 如需退出,请按 q

在 Dataflow 服务上运行流水线

如需在 Dataflow 服务上运行更新后的 wordcount 示例,请使用以下命令:

go run wordcount.go --input gs://dataflow-samples/shakespeare/kinglear.txt \
    --output gs://BUCKET_NAME/results/outputs \
    --runner dataflow \
    --project PROJECT_ID \
    --region DATAFLOW_REGION \
    --staging_location gs://BUCKET_NAME/binaries/

替换以下内容:

  • BUCKET_NAME:Cloud Storage 存储桶名称。

  • PROJECT_ID:Google Cloud 项目 ID。

  • DATAFLOW_REGION:要在其中部署 Dataflow 作业的区域。例如 europe-west1。 如需查看可用位置的列表,请参阅 Dataflow 位置--region 标志会替换元数据服务器、本地客户端或环境变量中设置的默认区域。

查看结果

您可以在 Google Cloud 控制台中查看 Dataflow 作业列表。在 Google Cloud 控制台中,转到 Dataflow 作业页面。

转到作业

作业页面会显示 wordcount 作业的详细信息,包括状态最初为正在运行,然后变为成功

使用 Dataflow 运行流水线时,您的结果存储在 Cloud Storage 存储桶中。使用 Google Cloud 控制台或本地终端查看输出结果。

控制台

如需在 Google Cloud 控制台中查看结果,请进入 Cloud Storage 存储桶页面。

进入“存储桶”

在项目的存储桶列表中,点击您之前创建的存储桶。您的作业创建的输出文件显示在 results 目录中。

终端

从终端或使用 Cloud Shell 查看结果。

  1. 如需列出输出文件,请使用 gcloud storage ls 命令

    gcloud storage ls gs://BUCKET_NAME/results/outputs* --long
    

    BUCKET_NAME 替换为指定输出 Cloud Storage 存储桶的名称。

  2. 如需查看输出文件中的结果,请使用 gcloud storage cat 命令

    gcloud storage cat gs://BUCKET_NAME/results/outputs*
    

清理

为避免因本页面中使用的资源导致您的 Google Cloud 账号产生费用,请删除包含这些资源的 Google Cloud 项目。

  1. In the Google Cloud console, go to the Cloud Storage Buckets page.

    Go to Buckets

  2. Click the checkbox for the bucket that you want to delete.
  3. To delete the bucket, click Delete, and then follow the instructions.
  4. 如果您保留项目,请撤消授予 Compute Engine 默认服务账号的角色。对以下每个 IAM 角色运行以下命令一次:

    • roles/dataflow.admin
    • roles/dataflow.worker
    • roles/storage.objectAdmin
    gcloud projects remove-iam-policy-binding PROJECT_ID \
        --member=serviceAccount:PROJECT_NUMBER-compute@developer.gserviceaccount.com \
        --role=SERVICE_ACCOUNT_ROLE
  5. Optional: Revoke the authentication credentials that you created, and delete the local credential file.

    gcloud auth application-default revoke
  6. Optional: Revoke credentials from the gcloud CLI.

    gcloud auth revoke

后续步骤