Plantilla de Bigtable a JSON

La plantilla de Bigtable a JSON es una canalización que lee datos de una tabla de Bigtable y los escribe en un bucket de Cloud Storage en formato JSON.

Requisitos del flujo de procesamiento

  • La tabla de Bigtable debe existir.
  • El segmento de Cloud Storage de salida debe existir antes de ejecutar el flujo de procesamiento.

Parámetros de plantilla

Parámetros obligatorios

  • bigtableProjectId el ID del proyecto de Google Cloud que contiene la instancia de Bigtable de la que quieres leer datos.
  • bigtableInstanceId el ID de la instancia de Bigtable que contiene la tabla.
  • bigtableTableId el ID de la tabla de Bigtable de la que se van a leer los datos.
  • outputDirectory ruta de Cloud Storage en la que se almacenan los archivos JSON de salida. Por ejemplo, gs://your-bucket/your-path/.

Parámetros opcionales

  • filenamePrefix el prefijo del nombre del archivo JSON. Por ejemplo, table1-. Si no se proporciona ningún valor, se utiliza part de forma predeterminada.
  • userOption los valores posibles son FLATTEN o NONE. FLATTEN combina la fila en un solo nivel. NONE almacena toda la fila como una cadena JSON. El valor predeterminado es NONE.
  • columnsAliases lista separada por comas de las columnas necesarias para el índice de Vertex AI Vector Search. Las columnas id y embedding son obligatorias para Vertex AI Vector Search. Puedes usar la notación fromfamily:fromcolumn;to. Por ejemplo, si las columnas son rowkey y cf:my_embedding, donde rowkey tiene un nombre diferente al de la columna de inserción, especifica cf:my_embedding;embedding y rowkey;id. Use esta opción solo cuando el valor de userOption sea FLATTEN.
  • bigtableAppProfileId: ID del perfil de aplicación de Bigtable que se va a usar para la exportación. Si no especificas un perfil de aplicación, Bigtable usará el perfil de aplicación predeterminado de la instancia: https://cloud.google.com/bigtable/docs/app-profiles#default-app-profile.

Ejecutar la plantilla

Consola

  1. Ve a la página Crear tarea a partir de plantilla de Dataflow.
  2. Ir a Crear tarea a partir de plantilla
  3. En el campo Nombre de la tarea, introduce un nombre único.
  4. Opcional: En Endpoint regional, seleccione un valor en el menú desplegable. La región predeterminada es us-central1.

    Para ver una lista de las regiones en las que puedes ejecutar una tarea de Dataflow, consulta Ubicaciones de Dataflow.

  5. En el menú desplegable Plantilla de flujo de datos, seleccione the Bigtable to JSON template.
  6. En los campos de parámetros proporcionados, introduzca los valores de los parámetros.
  7. Haz clic en Ejecutar trabajo.

CLI de gcloud

En tu shell o terminal, ejecuta la plantilla:

gcloud dataflow jobs run JOB_NAME \
    --gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/Cloud_Bigtable_to_GCS_Json \
    --project=PROJECT_ID \
    --region=REGION_NAME \
    --parameters \
       bigtableProjectId=BIGTABLE_PROJECT_ID,\
       bigtableInstanceId=BIGTABLE_INSTANCE_ID,\
       bigtableTableId=BIGTABLE_TABLE_ID,\
       filenamePrefix=FILENAME_PREFIX,\

Haz los cambios siguientes:

  • JOB_NAME: un nombre de trabajo único que elijas
  • VERSION: la versión de la plantilla que quieres usar

    Puedes usar los siguientes valores:

    • latest para usar la última versión de la plantilla, que está disponible en la carpeta principal sin fecha del contenedor: gs://dataflow-templates-REGION_NAME/latest/
    • el nombre de la versión, como 2023-09-12-00_RC00, para usar una versión específica de la plantilla, que se encuentra anidada en la carpeta principal correspondiente con la fecha en el bucket: gs://dataflow-templates-REGION_NAME/
  • REGION_NAME: la región en la que quieras desplegar tu trabajo de Dataflow. Por ejemplo, us-central1
  • BIGTABLE_PROJECT_ID: el ID del proyecto
  • BIGTABLE_INSTANCE_ID: el ID de instancia
  • BIGTABLE_TABLE_ID: el ID de la tabla
  • FILENAME_PREFIX: el prefijo del archivo JSON

API

Para ejecutar la plantilla mediante la API REST, envía una solicitud HTTP POST. Para obtener más información sobre la API y sus ámbitos de autorización, consulta projects.templates.launch.

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Cloud_Bigtable_to_GCS_Json
{
   "jobName": "JOB_NAME",
   "parameters": {
     "bigtableProjectId": "BIGTABLE_PROJECT_ID",
     "bigtableInstanceId": "BIGTABLE_INSTANCE_ID",
     "bigtableTableId": "BIGTABLE_TABLE_ID",
     "filenamePrefix": "FILENAME_PREFIX",
   },
   "environment": { "maxWorkers": "10" }
}

Haz los cambios siguientes:

  • PROJECT_ID: el ID del proyecto Google Cloud en el que quieres ejecutar la tarea de Dataflow
  • JOB_NAME: un nombre de trabajo único que elijas
  • VERSION: la versión de la plantilla que quieres usar

    Puedes usar los siguientes valores:

    • latest para usar la última versión de la plantilla, que está disponible en la carpeta principal sin fecha del contenedor: gs://dataflow-templates-REGION_NAME/latest/
    • el nombre de la versión, como 2023-09-12-00_RC00, para usar una versión específica de la plantilla, que se encuentra anidada en la carpeta principal correspondiente con la fecha en el bucket: gs://dataflow-templates-REGION_NAME/
  • LOCATION: la región en la que quieras desplegar tu trabajo de Dataflow. Por ejemplo, us-central1
  • BIGTABLE_PROJECT_ID: el ID del proyecto
  • BIGTABLE_INSTANCE_ID: el ID de instancia
  • BIGTABLE_TABLE_ID: el ID de la tabla
  • FILENAME_PREFIX: el prefijo del archivo JSON

Siguientes pasos