BigQuery to Cloud Storage TFRecords 模板

BigQuery to Cloud Storage TFRecords 模板是一种流水线,可从 BigQuery 查询读取数据并以 TFRecord 格式将其写入 Cloud Storage 存储桶。您可以指定训练、测试和验证拆分百分比。默认情况下,训练集的拆分比例为 1 或 100%,测试和验证集的拆分比例为 0 或 0%。设置数据集拆分比例时,训练、测试和验证之和加起来必须为 1 或 100%(例如,0.6 + 0.2 + 0.2)。Dataflow 会自动确定每个输出数据集的最佳分片数。

流水线要求

  • BigQuery 数据集和表必须已存在。
  • 输出 Cloud Storage 存储桶必须存在才能执行此流水线。训练、测试和验证子目录不需要预先存在,将会自动生成。

模板参数

参数 说明
readQuery 用于从来源中提取数据的 BigQuery SQL 查询。例如 select * from dataset1.sample_table
outputDirectory 在其中写入训练、测试和验证 TFRecord 文件的顶级 Cloud Storage 路径前缀。例如 gs://mybucket/output。生成的训练、测试和验证 TFRecord 文件的子目录根据 outputDirectory 自动生成。例如 gs://mybucket/output/train
trainingPercentage (可选)分配给训练 TFRecord 文件的查询数据所占的百分比。默认值为 1 或 100%。
testingPercentage (可选)分配给测试 TFRecord 文件的查询数据所占的百分比。 默认值为 0 或 0%。
validationPercentage (可选)分配给验证 TFRecord 文件的查询数据所占的百分比。 默认值为 0 或 0%。
outputSuffix (可选)写入的训练、测试和验证 TFRecord 文件的文件后缀。默认值为 .tfrecord

运行模板

控制台

  1. 转到 Dataflow 基于模板创建作业页面。
  2. 转到“基于模板创建作业”
  3. 作业名称字段中,输入唯一的作业名称。
  4. 可选:对于区域性端点,从下拉菜单中选择一个值。默认区域为 us-central1

    如需查看可以在其中运行 Dataflow 作业的区域列表,请参阅 Dataflow 位置

  5. Dataflow 模板下拉菜单中,选择 the BigQuery to TFRecords template。
  6. 在提供的参数字段中,输入您的参数值。
  7. 点击运行作业

gcloud

在 shell 或终端中,运行模板:

gcloud dataflow jobs run JOB_NAME \
    --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/Cloud_BigQuery_to_GCS_TensorFlow_Records \
    --region REGION_NAME \
    --parameters \
readQuery=READ_QUERY,\
outputDirectory=OUTPUT_DIRECTORY,\
trainingPercentage=TRAINING_PERCENTAGE,\
testingPercentage=TESTING_PERCENTAGE,\
validationPercentage=VALIDATION_PERCENTAGE,\
outputSuffix=OUTPUT_FILENAME_SUFFIX

请替换以下内容:

  • JOB_NAME:您选择的唯一性作业名称
  • VERSION:您要使用的模板的版本

    您可使用以下值:

  • REGION_NAME:要在其中部署 Dataflow 作业的区域,例如 us-central1
  • READ_QUERY:要运行的 BigQuery 查询
  • OUTPUT_DIRECTORY:输出数据集的 Cloud Storage 路径前缀
  • TRAINING_PERCENTAGE:训练数据集的拆分小数百分比
  • TESTING_PERCENTAGE:测试数据集的拆分小数百分比
  • VALIDATION_PERCENTAGE:验证数据集的拆分小数百分比
  • OUTPUT_FILENAME_SUFFIX:首选输出 TensorFlow 记录文件后缀

API

如需使用 REST API 来运行模板,请发送 HTTP POST 请求。如需详细了解 API 及其授权范围,请参阅 projects.templates.launch

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Cloud_BigQuery_to_GCS_TensorFlow_Records
{
   "jobName": "JOB_NAME",
   "parameters": {
       "readQuery":"READ_QUERY",
       "outputDirectory":"OUTPUT_DIRECTORY",
       "trainingPercentage":"TRAINING_PERCENTAGE",
       "testingPercentage":"TESTING_PERCENTAGE",
       "validationPercentage":"VALIDATION_PERCENTAGE",
       "outputSuffix":"OUTPUT_FILENAME_SUFFIX"
   },
   "environment": { "zone": "us-central1-f" }
}

请替换以下内容:

  • PROJECT_ID:您要在其中运行 Dataflow 作业的 Google Cloud 项目的 ID
  • JOB_NAME:您选择的唯一性作业名称
  • VERSION:您要使用的模板的版本

    您可使用以下值:

  • LOCATION:要在其中部署 Dataflow 作业的区域,例如 us-central1
  • READ_QUERY:要运行的 BigQuery 查询
  • OUTPUT_DIRECTORY:输出数据集的 Cloud Storage 路径前缀
  • TRAINING_PERCENTAGE:训练数据集的拆分小数百分比
  • TESTING_PERCENTAGE:测试数据集的拆分小数百分比
  • VALIDATION_PERCENTAGE:验证数据集的拆分小数百分比
  • OUTPUT_FILENAME_SUFFIX:首选输出 TensorFlow 记录文件后缀

后续步骤