O modelo do Pub/Sub para Java Database Connectivity (JDBC) é um pipeline de streaming que ingere dados de uma assinatura preexistente do Cloud Pub/Sub como strings JSON e grava os registros resultantes no JDBC.
Requisitos de pipeline
- A assinatura do Pub/Sub precisa ter sido criada antes da execução do pipeline.
- A origem do JDBC precisa ter sido criada antes da execução do pipeline.
- O tópico de mensagens mortas do Pub/Sub precisa existir antes da execução do pipeline.
Parâmetros do modelo
Parâmetro | Descrição |
---|---|
driverClassName |
O nome da classe do driver do JDBC. Por exemplo, com.mysql.jdbc.Driver . |
connectionUrl |
A string do URL de conexão do JDBC. Por exemplo, jdbc:mysql://some-host:3306/sampledb
É possível transmitir esse valor como uma string criptografada com uma chave do Cloud KMS e, em seguida, codificada em Base64.
Remova os caracteres de espaço em branco da string codificada em Base64. |
driverJars |
Caminhos do Cloud Storage separados por vírgulas para drivers JDBC. Por exemplo, gs://your-bucket/driver_jar1.jar,gs://your-bucket/driver_jar2.jar |
username |
Opcional: o nome do usuário a ser usado para a conexão JDBC. É possível transmitir esse valor criptografado por uma chave do Cloud KMS como uma string codificada em Base64. |
password |
Opcional: a senha a ser usada para a conexão JDBC. É possível transmitir esse valor criptografado por uma chave do Cloud KMS como uma string codificada em Base64. |
connectionProperties |
Opcional: o string de propriedades a ser usada para a conexão JDBC. O formato da string precisa ser [propertyName=property;]* . Por exemplo, unicode=true;characterEncoding=UTF-8 . |
statement |
Instrução a ser executada no banco de dados. A instrução precisa especificar os nomes das colunas da tabela em qualquer ordem. Somente os valores dos nomes das colunas especificadas são lidos no JSON e adicionados à instrução. Por exemplo, INSERT INTO tableName (column1, column2) VALUES (?,?) . |
inputSubscription |
O tópico de entrada do Cloud Pub/Sub que será lido, no formato de projects/<project>/subscriptions/<subscription> . |
outputDeadletterTopic |
O tópico do Pub/Sub para encaminhar mensagens não entregues. Por exemplo, projects/<project-id>/topics/<topic-name> |
KMSEncryptionKey |
Opcional: a chave de criptografia do Cloud KMS para descriptografar o nome de usuário, senha e string de conexão. Se a chave do Cloud KMS for transmitida, o nome de usuário, senha e string de conexão precisarão ser transmitidos criptografados. |
extraFilesToStage |
Caminhos do Cloud Storage separados ou vírgulas do Secret Manager para que os arquivos sejam organizados no worker. Esses arquivos serão salvos no diretório /extra_files de cada worker. Por exemplo, gs://<my-bucket>/file.txt,projects/<project-id>/secrets/<secret-id>/versions/<version-id> . |
Executar o modelo
Console
- Acesse a página Criar job usando um modelo do Dataflow. Acesse Criar job usando um modelo
- No campo Nome do job, insira um nome exclusivo.
- Opcional: em Endpoint regional, selecione um valor no menu suspenso. A região padrão é
us-central1
.Para ver uma lista de regiões em que é possível executar um job do Dataflow, consulte Locais do Dataflow.
- No menu suspenso Modelo do Dataflow, selecione the Pub/Sub to JDBC template.
- Nos campos de parâmetro fornecidos, insira os valores de parâmetro.
- Cliquem em Executar job.
gcloud
No shell ou no terminal, execute o modelo:
gcloud dataflow flex-template run JOB_NAME \ --template-file-gcs-location gs://dataflow-templates-REGION_NAME/VERSION/flex/PubSub_to_Jdbc \ --region REGION_NAME \ --parameters \ driverClassName=DRIVER_CLASS_NAME,\ connectionURL=JDBC_CONNECTION_URL,\ driverJars=DRIVER_PATHS,\ username=CONNECTION_USERNAME,\ password=CONNECTION_PASSWORD,\ connectionProperties=CONNECTION_PROPERTIES,\ statement=SQL_STATEMENT,\ inputSubscription=INPUT_SUBSCRIPTION,\ outputDeadletterTopic=OUTPUT_DEADLETTER_TOPIC,\ KMSEncryptionKey=KMS_ENCRYPTION_KEY
Substitua:
JOB_NAME
: um nome de job de sua escolhaVERSION
: a versão do modelo que você quer usarUse estes valores:
latest
para usar a versão mais recente do modelo, disponível na pasta mãe não datada no bucket: gs://dataflow-templates-REGION_NAME/latest/- o nome da versão, como
2023-09-12-00_RC00
, para usar uma versão específica do modelo, que pode ser encontrada aninhada na respectiva pasta mãe datada no bucket: gs://dataflow-templates-REGION_NAME/
REGION_NAME
: a região onde você quer implantar o job do Dataflow, por exemplo,us-central1
DRIVER_CLASS_NAME
: o nome da classe doJDBC_CONNECTION_URL
: o URL de conexão de JDBCDRIVER_PATHS
: os caminho(s) do Cloud Storage separado(s) por vírgula do(s) driver(s) JDBCCONNECTION_USERNAME
: o nome de usuário da conexão JDBC.CONNECTION_PASSWORD
: a senha de conexão JDBCCONNECTION_PROPERTIES
: as propriedades da conexão JDBC, se necessárioSQL_STATEMENT
: a instrução SQL a ser executada no banco de dadosINPUT_SUBSCRIPTION
: a assinatura de entrada do Pub/Sub da qual lerOUTPUT_DEADLETTER_TOPIC
: o tópico do Pub/Sub para encaminhar mensagens não entreguesKMS_ENCRYPTION_KEY
: a chave de criptografia do Cloud KMS
API
Para executar o modelo usando a API REST, envie uma solicitação HTTP POST. Para mais informações sobre a
API e os respectivos escopos de autorização, consulte
projects.templates.launch
.
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch { "jobName": "JOB_NAME", "parameters": { "driverClassName": "DRIVER_CLASS_NAME", "connectionURL": "JDBC_CONNECTION_URL", "driverJars": "DRIVER_PATHS", "username": "CONNECTION_USERNAME", "password": "CONNECTION_PASSWORD", "connectionProperties": "CONNECTION_PROPERTIES", "statement": "SQL_STATEMENT", "inputSubscription": "INPUT_SUBSCRIPTION", "outputDeadletterTopic": "OUTPUT_DEADLETTER_TOPIC", "KMSEncryptionKey":"KMS_ENCRYPTION_KEY" }, "environment": { "zone": "us-central1-f" }, }
Substitua:
PROJECT_ID
: o ID do projeto do Google Cloud em que você quer executar o job do DataflowJOB_NAME
: um nome de job de sua escolhaVERSION
: a versão do modelo que você quer usarUse estes valores:
latest
para usar a versão mais recente do modelo, disponível na pasta mãe não datada no bucket: gs://dataflow-templates-REGION_NAME/latest/- o nome da versão, como
2023-09-12-00_RC00
, para usar uma versão específica do modelo, que pode ser encontrada aninhada na respectiva pasta mãe datada no bucket: gs://dataflow-templates-REGION_NAME/
LOCATION
: a região onde você quer implantar o job do Dataflow, por exemplo,us-central1
DRIVER_CLASS_NAME
: o nome da classe doJDBC_CONNECTION_URL
: o URL de conexão de JDBCDRIVER_PATHS
: os caminho(s) do Cloud Storage separado(s) por vírgula do(s) driver(s) JDBCCONNECTION_USERNAME
: o nome de usuário da conexão JDBC.CONNECTION_PASSWORD
: a senha de conexão JDBCCONNECTION_PROPERTIES
: as propriedades da conexão JDBC, se necessárioSQL_STATEMENT
: a instrução SQL a ser executada no banco de dadosINPUT_SUBSCRIPTION
: a assinatura de entrada do Pub/Sub da qual lerOUTPUT_DEADLETTER_TOPIC
: o tópico do Pub/Sub para encaminhar mensagens não entreguesKMS_ENCRYPTION_KEY
: a chave de criptografia do Cloud KMS
A seguir
- Saiba mais sobre os modelos do Dataflow.
- Confira a lista de modelos fornecidos pelo Google.