Plantilla de conectividad a bases de datos de Java (JDBC) a BigQuery

La plantilla de JDBC a BigQuery es una canalización por lotes que copia los datos de una tabla de base de datos relacional a una tabla de BigQuery existente. Esta canalización utiliza JDBC para conectarse a las bases de datos relacionales. Usa esta plantilla para copiar datos desde cualquier base de datos relacional con controladores de JDBC disponibles en BigQuery.

Para obtener una capa adicional de protección, también puedes pasar una clave de Cloud KMS junto con un nombre de usuario, contraseña y parámetros de string de conexión codificados en Base64 encriptados con la clave de Cloud KMS. Para obtener detalles adicionales sobre la encriptación de tus parámetros de nombre de usuario, contraseña y string de conexión, consulta el extremo de encriptación de la API de Cloud KMS.

Requisitos de la canalización

  • Los controladores de JDBC de la base de datos relacional deben estar disponibles.
  • La tabla de BigQuery debe existir antes de ejecutar la canalización.
  • La tabla de BigQuery debe tener un esquema compatible.
  • La base de datos relacional debe ser accesible desde la subred en la que se ejecuta Dataflow.

Parámetros de la plantilla

Parámetro Descripción
driverJars Lista separada por comas de los archivos JAR del controlador. Por ejemplo: gs://your-bucket/driver_jar1.jar,gs://your-bucket/driver_jar2.jar.
driverClassName El nombre de la clase del controlador de JDBC. Por ejemplo: com.mysql.jdbc.Driver.
connectionURL La string de la URL de la conexión de JDBC. Por ejemplo, jdbc:mysql://some-host:3306/sampledb. Puedes pasar este valor como una cadena encriptada con una clave de Cloud KMS y, luego, codificada en Base64. Quita los caracteres de espacio en blanco de la cadena codificada en base64. Ten en cuenta la diferencia entre una string de conexión de base de datos de Oracle que no es de RAC (jdbc:oracle:thin:@some-host:<port>:<sid>) y una string de conexión de base de datos de Oracle RAC (jdbc:oracle:thin:@//some-host[:<port>]/<service_name>). Por ejemplo: jdbc:mysql://some-host:3306/sampledb
outputTable La ubicación de la tabla de BigQuery en la que se escribirá el resultado (opcional). El nombre debe usar el formato <project>:<dataset>.<table_name>. El esquema de la tabla debe coincidir con los objetos de entrada. Por ejemplo: <my-project>:<my-dataset>.<my-table>.
bigQueryLoadingTemporaryDirectory El directorio temporal para el proceso de carga de BigQuery. Por ejemplo: gs://your-bucket/your-files/temp_dir.
connectionProperties Opcional: La string de propiedades para usar en la conexión de JDBC. Usa el formato de string [propertyName=property;]*. Por ejemplo: unicode=true;characterEncoding=UTF-8.
username Opcional: el nombre de usuario para usar en la conexión de JDBC. Puedes pasar este valor encriptado por una clave de Cloud KMS como una cadena codificada en Base64.
password Opcional: La contraseña para usar en la conexión de JDBC. Puedes pasar este valor encriptado por una clave de Cloud KMS como una cadena codificada en Base64.
query La consulta que se ejecutará en la fuente para extraer los datos. Por ejemplo: select * from sampledb.sample_table.
KMSEncryptionKey Opcional: La clave de encriptación de Cloud KMS para usar desencripta el nombre de usuario, la contraseña y la string de conexión. Si pasas una clave de Cloud KMS, el nombre de usuario, la contraseña y la string de conexión deben pasarse encriptados. Por ejemplo: projects/your-project/locations/global/keyRings/your-keyring/cryptoKeys/your-key.
useColumnAlias Opcional: Si está habilitado (configurado true), la canalización usa el alias de columna (“AS”) en lugar del nombre de la columna para asignar las filas a BigQuery. La configuración predeterminada es false.
isTruncate Si está habilitado (true), la canalización se trunca antes de cargar los datos en BigQuery (opcional). El valor predeterminado es false, lo que hace que la canalización agregue datos.
partitionColumn Opcional: Si se proporciona este parámetro (junto con table), en JdbcIO se lee la tabla en paralelo mediante la ejecución de varias instancias de la consulta en la misma tabla (subconsulta) mediante rangos. Por el momento, solo admite columnas de partición Long.
table La tabla desde la que se debe leer cuando se usan particiones (opcional). Este parámetro también acepta una subconsulta entre paréntesis Por ejemplo: (select id, name from Person como subq).
numPartitions La cantidad de particiones (opcional). Con el límite inferior y superior, este valor forma particiones de partición para las expresiones de cláusula WHERE generadas que se usan a fin de dividir la columna de partición de manera uniforme. Cuando la entrada es menor que 1, se establece el número en 1.
lowerBound El límite inferior que se usará en el esquema de partición (opcional). Si no se proporciona, Apache Beam infiere este valor de manera automática para los tipos compatibles.
upperBound El límite superior que se usará en el esquema de partición (opcional). Si no se proporciona, Apache Beam infiere este valor de manera automática para los tipos compatibles.
disabledAlgorithms Opcional: Algoritmos separados por comas que se deben inhabilitar. Si este valor se establece como none, no se inhabilita ningún algoritmo. Ten cuidado porque los algoritmos inhabilitados de forma predeterminada tienen vulnerabilidades o problemas de rendimiento. Por ejemplo: SSLv3, RC4.
extraFilesToStage Rutas de Cloud Storage separadas por comas o secretos de Secret Manager para los archivos que se deben almacenar en etapa intermedia en el trabajador. Estos archivos se guardan en el directorio /extra_files en cada trabajador. Por ejemplo: gs://your-bucket/file.txt,projects/project-id/secrets/secret-id/versions/version-id.
useStorageWriteApi Opcional: Si es true, la canalización usa la API de BigQuery Storage Write. El valor predeterminado es false. Para obtener más información, consulta Usa la API de BigQuery Storage Write.
useStorageWriteApiAtLeastOnce Opcional: Cuando usas la API de Storage Write, se especifica la semántica de escritura (opcional). Para usar una semántica de al menos una vez, establece este parámetro en true. Para usar una semántica de una y solo una vez, configura el parámetro en false. Este parámetro se aplica solo cuando useStorageWriteApi es true. El valor predeterminado es false.

Ejecuta la plantilla

Consola

  1. Ve a la página Crear un trabajo a partir de una plantilla de Dataflow.
  2. Ir a Crear un trabajo a partir de una plantilla
  3. En el campo Nombre del trabajo, ingresa un nombre de trabajo único.
  4. Opcional: Para Extremo regional, selecciona un valor del menú desplegable. La región predeterminada es us-central1.

    Para obtener una lista de regiones en las que puedes ejecutar un trabajo de Dataflow, consulta Ubicaciones de Dataflow.

  5. En el menú desplegable Plantilla de Dataflow, selecciona the JDBC to BigQuery template.
  6. En los campos de parámetros proporcionados, ingresa los valores de tus parámetros.
  7. Haga clic en Ejecutar trabajo.

gcloud

En tu shell o terminal, ejecuta la plantilla:

gcloud dataflow flex-template run JOB_NAME \
    --template-file-gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/flex/Jdbc_to_BigQuery_Flex \
    --project=PROJECT_ID \
    --region=REGION_NAME \
    --parameters \
       driverJars=DRIVER_JARS,\
       driverClassName=DRIVER_CLASS_NAME,\
       connectionURL=CONNECTION_URL,\
       outputTable=OUTPUT_TABLE,\
       bigQueryLoadingTemporaryDirectory=BIG_QUERY_LOADING_TEMPORARY_DIRECTORY,\

Reemplaza lo siguiente:

  • JOB_NAME: Es el nombre del trabajo que elijas
  • VERSION: Es la versión de la plantilla que deseas usar.

    Puedes usar los siguientes valores:

    • latest para usar la última versión de la plantilla, que está disponible en la carpeta superior non-dated en el bucket gs://dataflow-templates-REGION_NAME/latest/
    • el nombre de la versión, como 2023-09-12-00_RC00, para usar una versión específica de la plantilla, que se puede encontrar anidada en la carpeta superior con fecha correspondiente en el bucket gs://dataflow-templates-REGION_NAME/
  • REGION_NAME: La región en la que deseas implementar tu trabajo de Dataflow, por ejemplo, us-central1
  • DRIVER_JARS: Son las rutas de Cloud Storage separadas por comas de los controladores JDBC.
  • DRIVER_CLASS_NAME: El nombre de la clase del controlador de JDBC.
  • CONNECTION_URL: La string de la URL de la conexión de JDBC.
  • OUTPUT_TABLE: Es la tabla de salida de BigQuery.
  • BIG_QUERY_LOADING_TEMPORARY_DIRECTORY: Directorio temporal para el proceso de carga de BigQuery.

API

Para ejecutar la plantilla con la API de REST, envía una solicitud HTTP POST. Para obtener más información de la API y sus permisos de autorización, consulta projects.templates.launch.

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch
{
   "launchParameter": {
     "jobName": "JOB_NAME",
     "parameters": {
       "driverJars": "DRIVER_JARS",
       "driverClassName": "DRIVER_CLASS_NAME",
       "connectionURL": "CONNECTION_URL",
       "outputTable": "OUTPUT_TABLE",
       "bigQueryLoadingTemporaryDirectory": "BIG_QUERY_LOADING_TEMPORARY_DIRECTORY",
     },
     "containerSpecGcsPath": "gs://dataflow-templates-LOCATION/VERSION/flex/Jdbc_to_BigQuery_Flex",
     "environment": { "maxWorkers": "10" }
  }
}

Reemplaza lo siguiente:

  • PROJECT_ID: El ID del proyecto de Google Cloud en el que deseas ejecutar el trabajo de Dataflow.
  • JOB_NAME: Es el nombre del trabajo que elijas
  • VERSION: Es la versión de la plantilla que deseas usar.

    Puedes usar los siguientes valores:

    • latest para usar la última versión de la plantilla, que está disponible en la carpeta superior non-dated en el bucket gs://dataflow-templates-REGION_NAME/latest/
    • el nombre de la versión, como 2023-09-12-00_RC00, para usar una versión específica de la plantilla, que se puede encontrar anidada en la carpeta superior con fecha correspondiente en el bucket gs://dataflow-templates-REGION_NAME/
  • LOCATION: La región en la que deseas implementar tu trabajo de Dataflow, por ejemplo, us-central1
  • DRIVER_JARS: Son las rutas de Cloud Storage separadas por comas de los controladores JDBC.
  • DRIVER_CLASS_NAME: El nombre de la clase del controlador de JDBC.
  • CONNECTION_URL: La string de la URL de la conexión de JDBC.
  • OUTPUT_TABLE: Es la tabla de salida de BigQuery.
  • BIG_QUERY_LOADING_TEMPORARY_DIRECTORY: Directorio temporal para el proceso de carga de BigQuery.

¿Qué sigue?