Cloud Storage Avro to Spanner 模板

Cloud Storage Avro files to Spanner 模板是一种批处理流水线,可读取从 Cloud Storage 中存储的 Spanner 导出的 Avro 文件并将其导入 Spanner 数据库。

流水线要求

  • 目标 Spanner 数据库必须已存在且必须为空。
  • 您必须拥有 Cloud Storage 存储桶的读取权限以及目标 Spanner 数据库的写入权限。
  • Cloud Storage 输入路径必须存在,并且必须包含 spanner-export.json 文件,且该文件包含要导入的文件的 JSON 描述。
  • 如果源 Avro 文件不包含主键,则必须先创建一个具有主键的空 Spanner 表,然后才能运行模板。如果 Avro 文件定义了主键,则无需执行此步骤。

模板参数

参数 说明
instanceId Spanner 数据库的实例 ID。
databaseId Spanner 数据库的 ID。
inputDir 导入 Avro 文件的 Cloud Storage 路径。
spannerProjectId 可选:Spanner 数据库的 Google Cloud 项目 ID。如果未设置,则使用默认 Google Cloud 项目。
spannerPriority 可选:Spanner 调用的请求优先级。可能的值包括:HIGHMEDIUMLOW。默认值为 MEDIUM
ddlCreationTimeoutInMinutes 可选:模板执行的 DDL 语句的超时(以分钟为单位)。默认值为 30 分钟。
earlyIndexCreateFlag 可选:指定是否启用早期索引创建功能。如果模板运行大量 DDL 语句,则在加载数据之前创建索引更高效。因此,默认行为是在 DDL 语句的数量超过阈值时首先创建索引。要停用此功能,请将 earlyIndexCreateFlag 设置为 false。默认值:true
waitForChangeStreams 可选:如果为 true,则流水线会等待创建变更流。如果为 false,则表示作业可能已完成,而系统仍在后台创建变更流。默认值:true
waitForForeignKeys 可选:如果为 true,则流水线会等待创建外键。如果为 false,则表示作业可能已完成,而系统仍在后台创建外键。默认值:false
waitForIndexes 可选:如果为 true,则流水线会等待索引创建。如果为 false,则表示作业可能已完成,而系统仍在后台创建索引。默认值:false

运行模板

控制台

  1. 转到 Dataflow 基于模板创建作业页面。
  2. 转到“基于模板创建作业”
  3. 作业名称字段中,输入唯一的作业名称。

    作业名称必须与以下格式匹配,作业才会显示在 Google Cloud 控制台的 Spanner 实例页面中:

    cloud-spanner-import-SPANNER_INSTANCE_ID-SPANNER_DATABASE_NAME

    替换以下内容:

    • SPANNER_INSTANCE_ID:Spanner 实例的 ID
    • SPANNER_DATABASE_NAME:Spanner 数据库的名称
  4. 可选:对于区域性端点,从下拉菜单中选择一个值。默认区域为 us-central1

    如需查看可以在其中运行 Dataflow 作业的区域列表,请参阅 Dataflow 位置

  5. Dataflow 模板下拉菜单中,选择 the Avro Files on Cloud Storage to Cloud Spanner template。
  6. 在提供的参数字段中,输入您的参数值。
  7. 点击运行作业

gcloud

在 shell 或终端中,运行模板:

gcloud dataflow jobs run JOB_NAME \
    --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/GCS_Avro_to_Cloud_Spanner \
    --region REGION_NAME \
    --staging-location GCS_STAGING_LOCATION \
    --parameters \
instanceId=INSTANCE_ID,\
databaseId=DATABASE_ID,\
inputDir=GCS_DIRECTORY

请替换以下内容:

  • JOB_NAME:您选择的唯一性作业名称
  • VERSION:您要使用的模板的版本

    您可使用以下值:

  • REGION_NAME:要在其中部署 Dataflow 作业的区域,例如 us-central1
  • INSTANCE_ID:包含数据库的 Spanner 实例的 ID
  • DATABASE_ID:需要导入到的 Spanner 数据库的 ID
  • GCS_DIRECTORY:导入 Avro 文件的 Cloud Storage 路径,例如 gs://mybucket/somefolder

API

如需使用 REST API 来运行模板,请发送 HTTP POST 请求。如需详细了解 API 及其授权范围,请参阅 projects.templates.launch

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/GCS_Avro_to_Cloud_Spanner
{
   "jobName": "JOB_NAME",
   "parameters": {
       "instanceId": "INSTANCE_ID",
       "databaseId": "DATABASE_ID",
       "inputDir": "gs://GCS_DIRECTORY"
   },
   "environment": {
       "machineType": "n1-standard-2"
   }
}

请替换以下内容:

  • PROJECT_ID:您要在其中运行 Dataflow 作业的 Google Cloud 项目的 ID
  • JOB_NAME:您选择的唯一性作业名称
  • VERSION:您要使用的模板的版本

    您可使用以下值:

  • LOCATION:要在其中部署 Dataflow 作业的区域,例如 us-central1
  • INSTANCE_ID:包含数据库的 Spanner 实例的 ID
  • DATABASE_ID:需要导入到的 Spanner 数据库的 ID
  • GCS_DIRECTORY:导入 Avro 文件的 Cloud Storage 路径,例如 gs://mybucket/somefolder

后续步骤