Bigtable to Vertex AI Vector Search 模板

Bigtable to Vertex AI Vector Search files on Cloud Storage 模板会创建一个批处理流水线,该流水线可从 Bigtable 表中读取数据并以 JSON 格式将其写入 Cloud Storage 存储桶。您可以将此模板用于向量嵌入。

流水线要求

  • Bigtable 表必须已存在。
  • 在运行此流水线之前,输出 Cloud Storage 存储桶必须已存在。

模板参数

必需参数

  • bigtableProjectId:您要从中读取数据的 Bigtable 实例所属的 Google Cloud 项目的 ID。
  • bigtableInstanceId:表所属的 Bigtable 实例的 ID。
  • bigtableTableId:要读取的 Bigtable 表的 ID。
  • filenamePrefix:JSON 文件名的前缀。例如:"table1-"。如果未提供值,则默认为“part”。
  • idColumn:在其中存储 ID 的完全限定列名。采用 cf:col 或 _key 格式。
  • embeddingColumn:在其中存储嵌入的完全限定列名。采用 cf:col 或 _key 格式。

可选参数

  • outputDirectory:在其中存储输出 JSON 文件的 Cloud Storage 路径。(示例:gs://your-bucket/your-path/)。
  • crowdingTagColumn:在其中存储拥挤标记的完全限定列名。采用 cf:col 或 _key 格式。
  • embeddingByteSize:嵌入数组中每个条目的字节大小。对于浮点数,请使用值 4。对于双精度数,请使用值 8。默认值为 4。
  • allowRestrictsMappings:要用作 allow 限制的列的以逗号分隔完全限定列名及其别名。格式为 cf:col->别名。
  • denyRestrictsMappings:要用作 deny 限制的列的以逗号分隔完全限定列名及其别名。格式为 cf:col->别名。
  • intNumericRestrictsMappings:要用作整数 numeric_restricts 的列的以逗号分隔完全限定列名及其别名。格式为 cf:col->别名。
  • floatNumericRestrictsMappings:要用作浮点数(4 字节)numeric_restricts 的列的以逗号分隔完全限定列名及其别名。格式为 cf:col->别名。
  • doubleNumericRestrictsMappings:要用作双精度(8 字节)numeric_restricts 的列的英文逗号分隔的完全限定列名称及其别名。格式为 cf:col->别名。
  • bigtableAppProfileId:将用于导出的 Cloud Bigtable 应用配置文件的 ID。默认为 default。

运行模板

控制台

  1. 转到 Dataflow 基于模板创建作业页面。
  2. 转到“基于模板创建作业”
  3. 作业名称字段中,输入唯一的作业名称。
  4. 可选:对于区域性端点,从下拉菜单中选择一个值。默认区域为 us-central1

    如需查看可以在其中运行 Dataflow 作业的区域列表,请参阅 Dataflow 位置

  5. Dataflow 模板下拉菜单中,选择 the Cloud Bigtable to Vector Embeddings template。
  6. 在提供的参数字段中,输入您的参数值。
  7. 点击运行作业

gcloud CLI

在 shell 或终端中,运行模板:

gcloud dataflow jobs run JOB_NAME \
    --gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/Cloud_Bigtable_to_Vector_Embeddings \
    --project=PROJECT_ID \
    --region=REGION_NAME \
    --parameters \
       bigtableProjectId=BIGTABLE_PROJECT_ID,\
       bigtableInstanceId=BIGTABLE_INSTANCE_ID,\
       bigtableTableId=BIGTABLE_TABLE_ID,\
       filenamePrefix=FILENAME_PREFIX,\
       idColumn=ID_COLUMN,\
       embeddingColumn=EMBEDDING_COLUMN,\

替换以下内容:

  • JOB_NAME:您选择的唯一性作业名称
  • VERSION:您要使用的模板的版本

    您可使用以下值:

  • REGION_NAME:要在其中部署 Dataflow 作业的区域,例如 us-central1
  • BIGTABLE_PROJECT_ID:项目 ID
  • BIGTABLE_INSTANCE_ID:实例 ID
  • BIGTABLE_TABLE_ID:表 ID
  • FILENAME_PREFIX:JSON 文件前缀
  • ID_COLUMN:ID 列
  • EMBEDDING_COLUMN:嵌入列

API

如需使用 REST API 来运行模板,请发送 HTTP POST 请求。如需详细了解 API 及其授权范围,请参阅 projects.templates.launch

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Cloud_Bigtable_to_Vector_Embeddings
{
   "jobName": "JOB_NAME",
   "parameters": {
     "bigtableProjectId": "BIGTABLE_PROJECT_ID",
     "bigtableInstanceId": "BIGTABLE_INSTANCE_ID",
     "bigtableTableId": "BIGTABLE_TABLE_ID",
     "filenamePrefix": "FILENAME_PREFIX",
     "idColumn": "ID_COLUMN",
     "embeddingColumn": "EMBEDDING_COLUMN",
   },
   "environment": { "maxWorkers": "10" }
}

替换以下内容:

  • PROJECT_ID:您要在其中运行 Dataflow 作业的 Google Cloud 项目的 ID
  • JOB_NAME:您选择的唯一性作业名称
  • VERSION:您要使用的模板的版本

    您可使用以下值:

  • LOCATION:要在其中部署 Dataflow 作业的区域,例如 us-central1
  • BIGTABLE_PROJECT_ID:项目 ID
  • BIGTABLE_INSTANCE_ID:实例 ID
  • BIGTABLE_TABLE_ID:表 ID
  • FILENAME_PREFIX:JSON 文件前缀
  • ID_COLUMN:ID 列
  • EMBEDDING_COLUMN:嵌入列

后续步骤