Cloud Storage Avro to Spanner 模板

Cloud Storage Avro files to Spanner 模板是一种批处理流水线,可读取从 Cloud Storage 中存储的 Spanner 导出的 Avro 文件并将其导入 Spanner 数据库。

流水线要求

  • 目标 Spanner 数据库必须已存在且必须为空。
  • 您必须拥有 Cloud Storage 存储桶的读取权限以及目标 Spanner 数据库的写入权限。
  • Cloud Storage 输入路径必须存在,并且必须包含 spanner-export.json 文件,且该文件包含要导入的文件的 JSON 描述。
  • 如果源 Avro 文件不包含主键,您必须先创建一个包含主键的空 Spanner 表,然后才能运行模板。如果 Avro 文件定义了主键,则无需执行此步骤。

模板参数

必需参数

  • instanceId:Spanner 数据库的实例 ID。
  • databaseId:Spanner 数据库的 ID。
  • inputDir:导入 Avro 文件的 Cloud Storage 路径。

可选参数

  • spannerHost:要在模板中调用的 Cloud Spanner 端点。仅用于测试。例如 https://batch-spanner.googleapis.com。默认值为:https://batch-spanner.googleapis.com
  • waitForIndexes:如果为 true,流水线会等待创建索引。如果为 false,则表示作业可能已完成,而系统仍在后台创建索引。默认值为 false
  • waitForForeignKeys:如果为 true,则流水线会等待创建外键。如果为 false,则表示作业可能已完成,而系统仍在后台创建外键。默认值为 false
  • waitForChangeStreams:如果为 true,流水线会等待创建变更数据流。如果为 false,则表示作业可能已完成,而系统仍在后台创建变更流。默认值为 true
  • waitForSequences:默认情况下,在创建序列时,导入流水线会被阻塞。如果为 false,则表示导入流水线可能已完成,而系统仍在后台创建序列。
  • earlyIndexCreateFlag:指定是否启用了早期索引创建功能。如果模板运行大量 DDL 语句,则在加载数据之前创建索引更高效。因此,默认行为是在 DDL 语句的数量超过阈值时首先创建索引。要停用此功能,请将 earlyIndexCreateFlag 设置为 false。默认值为 true
  • spannerProjectId:包含 Spanner 数据库的 Google Cloud 项目的 ID。如果未设置,则使用默认 Google Cloud 项目。
  • ddlCreationTimeoutInMinutes:模板执行的 DDL 语句的超时(以分钟为单位)。默认值为 30 分钟。
  • spannerPriority:Spanner 调用的请求优先级。可能的值包括 HIGHMEDIUMLOW。默认值为 MEDIUM

运行模板

控制台

  1. 转到 Dataflow 基于模板创建作业页面。
  2. 转到“基于模板创建作业”
  3. 作业名称字段中,输入唯一的作业名称。

    作业名称必须与以下格式匹配,作业才会显示在 Google Cloud 控制台的 Spanner 实例页面中:

    cloud-spanner-import-SPANNER_INSTANCE_ID-SPANNER_DATABASE_NAME

    替换以下内容:

    • SPANNER_INSTANCE_ID:Spanner 实例的 ID
    • SPANNER_DATABASE_NAME:Spanner 数据库的名称
  4. 可选:对于区域性端点,从下拉菜单中选择一个值。默认区域为 us-central1

    如需查看可以在其中运行 Dataflow 作业的区域列表,请参阅 Dataflow 位置

  5. Dataflow 模板下拉菜单中,选择 the Avro Files on Cloud Storage to Cloud Spanner template。
  6. 在提供的参数字段中,输入您的参数值。
  7. 点击运行作业

gcloud

在 shell 或终端中,运行模板:

gcloud dataflow jobs run JOB_NAME \
    --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/GCS_Avro_to_Cloud_Spanner \
    --region REGION_NAME \
    --staging-location GCS_STAGING_LOCATION \
    --parameters \
instanceId=INSTANCE_ID,\
databaseId=DATABASE_ID,\
inputDir=GCS_DIRECTORY

替换以下内容:

  • JOB_NAME:您选择的唯一性作业名称
  • VERSION:您要使用的模板的版本

    您可使用以下值:

  • REGION_NAME:要在其中部署 Dataflow 作业的区域,例如 us-central1
  • INSTANCE_ID:包含数据库的 Spanner 实例的 ID
  • DATABASE_ID:需要导入到的 Spanner 数据库的 ID
  • GCS_DIRECTORY:导入 Avro 文件的 Cloud Storage 路径,例如 gs://mybucket/somefolder

API

如需使用 REST API 来运行模板,请发送 HTTP POST 请求。如需详细了解 API 及其授权范围,请参阅 projects.templates.launch

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/GCS_Avro_to_Cloud_Spanner
{
   "jobName": "JOB_NAME",
   "parameters": {
       "instanceId": "INSTANCE_ID",
       "databaseId": "DATABASE_ID",
       "inputDir": "gs://GCS_DIRECTORY"
   },
   "environment": {
       "machineType": "n1-standard-2"
   }
}

替换以下内容:

  • PROJECT_ID:您要在其中运行 Dataflow 作业的 Google Cloud 项目的 ID
  • JOB_NAME:您选择的唯一性作业名称
  • VERSION:您要使用的模板的版本

    您可使用以下值:

  • LOCATION:要在其中部署 Dataflow 作业的区域,例如 us-central1
  • INSTANCE_ID:包含数据库的 Spanner 实例的 ID
  • DATABASE_ID:需要导入到的 Spanner 数据库的 ID
  • GCS_DIRECTORY:导入 Avro 文件的 Cloud Storage 路径,例如 gs://mybucket/somefolder

后续步骤