Modello Java Database Connectivity (JDBC) a Pub/Sub

Il modello Java Database Connectivity (JDBC) a Pub/Sub è una pipeline batch che importa i dati dall'origine JDBC e scrive i record risultanti in un argomento Pub/Sub preesistente come stringa JSON.

Requisiti della pipeline

  • L'origine JDBC deve esistere prima dell'esecuzione della pipeline.
  • L'argomento di output Pub/Sub deve esistere prima dell'esecuzione della pipeline.

Parametri del modello

Parametri obbligatori

  • driverClassName : il nome della classe del driver JDBC. Ad esempio: com.mysql.jdbc.Driver.
  • connectionUrl : la stringa dell'URL di connessione JDBC. Puoi passare questo valore come stringa criptata con una chiave Cloud KMS e poi codificata in Base64. Rimuovi gli spazi vuoti dalla stringa codificata in Base64. (Esempio: jdbc:mysql://some-host:3306/sampledb).
  • driverJars : percorsi Cloud Storage separati da virgole per i driver JDBC. Ad esempio: gs://your-bucket/driver_jar1.jar,gs://your-bucket/driver_jar2.jar.
  • query : la query da eseguire sull'origine per estrarre i dati. Ad esempio, seleziona * da sampledb.sample_table.
  • outputTopic : l'argomento Pub/Sub in cui pubblicare il progetto, nel formato projects/<ID_PROGETTO>/topics/<NOME_argomento> (ad esempio: projects/your-project-id/topics/nome-argomento).

Parametri facoltativi

  • username : il nome utente da utilizzare per la connessione JDBC. Puoi passare questo valore come stringa criptata con una chiave Cloud KMS e poi codificata in Base64. Ad esempio, echo -n 'some_username' | glcloud kms encrypt --location=my_location --keyring=mykeyring --key=mykey --plaintext-file=- --ciphertext-file=- | base64.
  • password : la password da utilizzare per la connessione JDBC. Puoi passare questo valore come stringa criptata con una chiave Cloud KMS e poi codificata in Base64. Ad esempio, echo -n 'some_password' | glcloud kms encrypt --location=my_location --keyring=mykeyring --key=mykey --plaintext-file=- --ciphertext-file=- | base64.
  • connectionProperties : la stringa di proprietà da utilizzare per la connessione JDBC. Il formato della stringa deve essere [propertyName=property;]*. (Esempio: unicode=true;characterEncoding=UTF-8).
  • KMSEncryptionKey : la chiave di crittografia di Cloud KMS da utilizzare per decriptare il nome utente, la password e la stringa di connessione. Se viene trasmessa una chiave Cloud KMS, il nome utente, la password e la stringa di connessione devono essere tutti criptati e con codifica Base64. Ad esempio: projects/your-project/locations/global/keyRings/your-keyring/cryptoKeys/your-key.
  • disabledAlgorithms : algoritmi separati da virgole da disabilitare. Se questo valore è impostato su Nessuno, l'algoritmo non viene disabilitato. Utilizza questo parametro con cautela, perché gli algoritmi disattivati per impostazione predefinita potrebbero presentare vulnerabilità o problemi di prestazioni. ad esempio SSLv3, RC4.
  • extraFilesToStage : percorsi Cloud Storage o secret di Secret Manager separati da virgole per i file da inserire nel worker. Questi file vengono salvati nella directory /extra_files di ciascun worker. (Esempio: gs://
  • defaultLogLevel : imposta il livello di log nei worker. Le opzioni supportate sono OFF, ERROR, WARN, INFO, DEBUG, TRACE. Il valore predefinito è INFO.

Esegui il modello

Console

  1. Vai alla pagina Crea job da modello di Dataflow.
  2. Vai a Crea job da modello
  3. Nel campo Nome job, inserisci un nome univoco per il job.
  4. (Facoltativo) Per Endpoint a livello di regione, seleziona un valore dal menu a discesa. La regione predefinita è us-central1.

    Per un elenco delle regioni in cui puoi eseguire un job Dataflow, vedi Località Dataflow.

  5. Nel menu a discesa Modello Dataflow, seleziona the JDBC to Pub/Sub template.
  6. Nei campi dei parametri forniti, inserisci i valori dei parametri.
  7. Fai clic su Esegui job.

gcloud

Nella shell o nel terminale, esegui il modello:

gcloud dataflow jobs run JOB_NAME \
    --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/flex/Jdbc_to_PubSub \
    --region REGION_NAME \
    --parameters \
driverClassName=DRIVER_CLASS_NAME,\
connectionURL=JDBC_CONNECTION_URL,\
driverJars=DRIVER_PATHS,\
username=CONNECTION_USERNAME,\
password=CONNECTION_PASSWORD,\
connectionProperties=CONNECTION_PROPERTIES,\
query=SOURCE_SQL_QUERY,\
outputTopic=OUTPUT_TOPIC,\
KMSEncryptionKey=KMS_ENCRYPTION_KEY

Sostituisci quanto segue:

  • JOB_NAME: un nome job univoco a tua scelta
  • VERSION: la versione del modello che vuoi utilizzare

    Puoi utilizzare i seguenti valori:

  • REGION_NAME: la regione in cui vuoi eseguire il deployment del job Dataflow, ad esempio us-central1
  • DRIVER_CLASS_NAME: nome della classe conducente
  • JDBC_CONNECTION_URL: URL di connessione JDBC
  • DRIVER_PATHS: percorso o percorsi Cloud Storage separati da virgole dei driver JDBC
  • CONNECTION_USERNAME: il nome utente della connessione JDBC
  • CONNECTION_PASSWORD: password per la connessione JDBC
  • CONNECTION_PROPERTIES: le proprietà di connessione JDBC, se necessario
  • SOURCE_SQL_QUERY: la query SQL da eseguire sul database di origine
  • OUTPUT_TOPIC: il Pub/Sub in cui pubblicare
  • KMS_ENCRYPTION_KEY: la chiave di crittografia di Cloud KMS

API

Per eseguire il modello utilizzando l'API REST, invia una richiesta POST HTTP. Per maggiori informazioni sull'API e sui relativi ambiti di autorizzazione, consulta projects.templates.launch.

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch
{
  "launchParameter": {
    "jobName": "JOB_NAME",
    "containerSpecGcsPath": "gs://dataflow-templates-LOCATION/VERSION/flex/Jdbc_to_PubSub"
    "parameters": {
      "driverClassName": "DRIVER_CLASS_NAME",
      "connectionURL": "JDBC_CONNECTION_URL",
      "driverJars": "DRIVER_PATHS",
      "username": "CONNECTION_USERNAME",
      "password": "CONNECTION_PASSWORD",
      "connectionProperties": "CONNECTION_PROPERTIES",
      "query": "SOURCE_SQL_QUERY",
      "outputTopic": "OUTPUT_TOPIC",
      "KMSEncryptionKey":"KMS_ENCRYPTION_KEY"
    },
    "environment": { "zone": "us-central1-f" }
  }
}

Sostituisci quanto segue:

  • PROJECT_ID: l'ID del progetto Google Cloud in cui vuoi eseguire il job Dataflow
  • JOB_NAME: un nome job univoco a tua scelta
  • VERSION: la versione del modello che vuoi utilizzare

    Puoi utilizzare i seguenti valori:

  • LOCATION: la regione in cui vuoi eseguire il deployment del job Dataflow, ad esempio us-central1
  • DRIVER_CLASS_NAME: nome della classe conducente
  • JDBC_CONNECTION_URL: URL di connessione JDBC
  • DRIVER_PATHS: percorso o percorsi Cloud Storage separati da virgole dei driver JDBC
  • CONNECTION_USERNAME: il nome utente della connessione JDBC
  • CONNECTION_PASSWORD: password per la connessione JDBC
  • CONNECTION_PROPERTIES: le proprietà di connessione JDBC, se necessario
  • SOURCE_SQL_QUERY: la query SQL da eseguire sul database di origine
  • OUTPUT_TOPIC: il Pub/Sub in cui pubblicare
  • KMS_ENCRYPTION_KEY: la chiave di crittografia di Cloud KMS

Passaggi successivi