Modello di testo da Spanner a Cloud Storage

Il modello Testo da Spanner a Cloud Storage è una pipeline batch che legge i dati da una tabella Spanner e li scrive in Cloud Storage come file di testo CSV.

Requisiti della pipeline

  • La tabella Spanner di input deve esistere prima di eseguire la pipeline.

Parametri del modello

Parametri obbligatori

  • spannerTable : la tabella Spanner da cui leggere i dati.
  • spannerProjectId : l'ID del progetto Google Cloud che contiene il database Spanner da cui leggere i dati.
  • spannerInstanceId : l'ID istanza della tabella richiesta.
  • spannerDatabaseId : l'ID del database della tabella richiesta.
  • textWritePrefix : il prefisso del percorso di Cloud Storage che specifica dove vengono scritti i dati. ad esempio gs://mybucket/somefolder/.

Parametri facoltativi

Esegui il modello

Console

  1. Vai alla pagina Crea job da modello di Dataflow.
  2. Vai a Crea job da modello
  3. Nel campo Nome job, inserisci un nome univoco per il job.
  4. (Facoltativo) Per Endpoint a livello di regione, seleziona un valore dal menu a discesa. La regione predefinita è us-central1.

    Per un elenco delle regioni in cui puoi eseguire un job Dataflow, vedi Località Dataflow.

  5. Nel menu a discesa Modello Dataflow, seleziona the Cloud Spanner to Text Files on Cloud Storage template.
  6. Nei campi dei parametri forniti, inserisci i valori dei parametri.
  7. Fai clic su Esegui job.

gcloud

Nella shell o nel terminale, esegui il modello:

gcloud dataflow jobs run JOB_NAME \
    --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/Spanner_to_GCS_Text \
    --region REGION_NAME \
    --parameters \
spannerProjectId=SPANNER_PROJECT_ID,\
spannerDatabaseId=DATABASE_ID,\
spannerInstanceId=INSTANCE_ID,\
spannerTable=TABLE_ID,\
textWritePrefix=gs://BUCKET_NAME/output/

Sostituisci quanto segue:

  • JOB_NAME: un nome job univoco a tua scelta
  • VERSION: la versione del modello che vuoi utilizzare

    Puoi utilizzare i seguenti valori:

  • REGION_NAME: la regione in cui vuoi eseguire il deployment del job Dataflow, ad esempio us-central1
  • SPANNER_PROJECT_ID: l'ID progetto Google Cloud del database Spanner da cui vuoi leggere i dati
  • DATABASE_ID: l'ID database Spanner
  • BUCKET_NAME: il nome del bucket Cloud Storage
  • INSTANCE_ID: l'ID istanza Spanner
  • TABLE_ID: l'ID tabella di Spanner

API

Per eseguire il modello utilizzando l'API REST, invia una richiesta POST HTTP. Per maggiori informazioni sull'API e sui relativi ambiti di autorizzazione, consulta projects.templates.launch.

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Spanner_to_GCS_Text
{
   "jobName": "JOB_NAME",
   "parameters": {
       "spannerProjectId": "SPANNER_PROJECT_ID",
       "spannerDatabaseId": "DATABASE_ID",
       "spannerInstanceId": "INSTANCE_ID",
       "spannerTable": "TABLE_ID",
       "textWritePrefix": "gs://BUCKET_NAME/output/"
   },
   "environment": { "zone": "us-central1-f" }
}

Sostituisci quanto segue:

  • PROJECT_ID: l'ID del progetto Google Cloud in cui vuoi eseguire il job Dataflow
  • JOB_NAME: un nome job univoco a tua scelta
  • VERSION: la versione del modello che vuoi utilizzare

    Puoi utilizzare i seguenti valori:

  • LOCATION: la regione in cui vuoi eseguire il deployment del job Dataflow, ad esempio us-central1
  • SPANNER_PROJECT_ID: l'ID progetto Google Cloud del database Spanner da cui vuoi leggere i dati
  • DATABASE_ID: l'ID database Spanner
  • BUCKET_NAME: il nome del bucket Cloud Storage
  • INSTANCE_ID: l'ID istanza Spanner
  • TABLE_ID: l'ID tabella di Spanner

Passaggi successivi