Il modello SequenceFile da Bigtable a Cloud Storage è una pipeline che legge i dati da una tabella Bigtable e li scrive in un bucket Cloud Storage in formato SequenceFile. Puoi utilizzare il modello per copiare i dati da Bigtable a Cloud Storage.
Requisiti della pipeline
- La tabella Bigtable deve esistere.
- Il bucket Cloud Storage di output deve esistere prima dell'esecuzione della pipeline.
Parametri del modello
Parametri obbligatori
- bigtableProject: l'ID del progetto Google Cloud contenente l'istanza Bigtable da cui vuoi leggere i dati.
- bigtableInstanceId: l'ID dell'istanza Bigtable contenente la tabella.
- bigtableTableId: l'ID della tabella Bigtable da esportare.
- destinationPath: il percorso Cloud Storage in cui vengono scritti i dati. Ad esempio,
gs://your-bucket/your-path/
. - filenamePrefix: il prefisso del nome del file SequenceFile. Ad esempio,
output-
.
Parametri facoltativi
- bigtableAppProfileId: l'ID del profilo dell'applicazione Bigtable da utilizzare per l'esportazione. Se non specifichi un profilo dell'app, Bigtable utilizza il profilo dell'app predefinito dell'istanza: https://cloud.google.com/bigtable/docs/app-profiles#default-app-profile.
- bigtableStartRow: la riga da cui iniziare l'esportazione. Il valore predefinito è la prima riga.
- bigtableStopRow: la riga in cui interrompere l'esportazione. Il valore predefinito è l'ultima riga.
- bigtableMaxVersions: numero massimo di versioni di celle. Il valore predefinito è 2147483647.
- bigtableFilter: stringa filtro. Vedi: http://hbase.apache.org/book.html#thrift. Il valore predefinito è vuoto.
Esegui il modello
- Vai alla pagina Crea job da modello di Dataflow. Vai a Crea job da modello
- Nel campo Nome job, inserisci un nome univoco per il job.
- (Facoltativo) Per Endpoint a livello di regione, seleziona un valore dal menu a discesa. La regione predefinita è
us-central1
.Per un elenco delle regioni in cui puoi eseguire un job Dataflow, consulta Località di Dataflow.
- Nel menu a discesa Modello di flusso di dati, seleziona the Cloud Bigtable to SequenceFile Files on Cloud Storage template .
- Nei campi dei parametri forniti, inserisci i valori dei parametri.
- Fai clic su Esegui job.
Nella shell o nel terminale, esegui il modello:
gcloud dataflow jobs runJOB_NAME \ --gcs-location gs://dataflow-templates-REGION_NAME /VERSION /Cloud_Bigtable_to_GCS_SequenceFile \ --regionREGION_NAME \ --parameters \ bigtableProject=BIGTABLE_PROJECT_ID ,\ bigtableInstanceId=INSTANCE_ID ,\ bigtableTableId=TABLE_ID ,\ bigtableAppProfileId=APPLICATION_PROFILE_ID ,\ destinationPath=DESTINATION_PATH ,\ filenamePrefix=FILENAME_PREFIX
Sostituisci quanto segue:
JOB_NAME
: un nome di job univoco a tua sceltaVERSION
: la versione del modello che vuoi utilizzarePuoi utilizzare i seguenti valori:
latest
per utilizzare la versione più recente del modello, disponibile nella cartella principale senza data del bucket: gs://dataflow-templates-REGION_NAME/latest/- il nome della versione, ad esempio
2023-09-12-00_RC00
, per utilizzare una versione specifica del modello, che si trova nidificata nella rispettiva cartella principale datata nel bucket: gs://dataflow-templates-REGION_NAME/
REGION_NAME
: la regione in cui vuoi eseguire il deployment del job Dataflow, ad esempious-central1
BIGTABLE_PROJECT_ID
: l'ID del Google Cloud progetto dell'istanza Bigtable da cui vuoi leggere i datiINSTANCE_ID
: l'ID dell'istanza Bigtable che contiene la tabellaTABLE_ID
: l'ID della tabella Bigtable da esportareAPPLICATION_PROFILE_ID
: l'ID del profilo dell'applicazione Bigtable da utilizzare per l'esportazioneDESTINATION_PATH
: il percorso di Cloud Storage in cui vengono scritti i dati, ad esempiogs://mybucket/somefolder
FILENAME_PREFIX
: il prefisso del nome file SequenceFile, ad esempiooutput-
Per eseguire il modello utilizzando l'API REST, invia una richiesta POST HTTP. Per ulteriori informazioni sull'API e sui relativi ambiti di autorizzazione, consulta projects.templates.launch
.
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID /locations/LOCATION /templates:launch?gcsPath=gs://dataflow-templates-LOCATION /VERSION /Cloud_Bigtable_to_GCS_SequenceFile { "jobName": "JOB_NAME ", "parameters": { "bigtableProject": "BIGTABLE_PROJECT_ID ", "bigtableInstanceId": "INSTANCE_ID ", "bigtableTableId": "TABLE_ID ", "bigtableAppProfileId": "APPLICATION_PROFILE_ID ", "destinationPath": "DESTINATION_PATH ", "filenamePrefix": "FILENAME_PREFIX ", }, "environment": { "zone": "us-central1-f" } }
Sostituisci quanto segue:
PROJECT_ID
: l'ID del progetto Google Cloud in cui vuoi eseguire il job DataflowJOB_NAME
: un nome di job univoco a tua sceltaVERSION
: la versione del modello che vuoi utilizzarePuoi utilizzare i seguenti valori:
latest
per utilizzare la versione più recente del modello, disponibile nella cartella principale senza data del bucket: gs://dataflow-templates-REGION_NAME/latest/- il nome della versione, ad esempio
2023-09-12-00_RC00
, per utilizzare una versione specifica del modello, che si trova nidificata nella rispettiva cartella principale datata nel bucket: gs://dataflow-templates-REGION_NAME/
LOCATION
: la regione in cui vuoi eseguire il deployment del job Dataflow, ad esempious-central1
BIGTABLE_PROJECT_ID
: l'ID del Google Cloud progetto dell'istanza Bigtable da cui vuoi leggere i datiINSTANCE_ID
: l'ID dell'istanza Bigtable che contiene la tabellaTABLE_ID
: l'ID della tabella Bigtable da esportareAPPLICATION_PROFILE_ID
: l'ID del profilo dell'applicazione Bigtable da utilizzare per l'esportazioneDESTINATION_PATH
: il percorso di Cloud Storage in cui vengono scritti i dati, ad esempiogs://mybucket/somefolder
FILENAME_PREFIX
: il prefisso del nome file SequenceFile, ad esempiooutput-
Codice sorgente del modello
Il codice sorgente di questo modello si trova nel repository GoogleCloudPlatform/cloud-bigtable-client su GitHub.
Passaggi successivi
- Scopri di più sui modelli Dataflow.
- Consulta l'elenco dei modelli forniti da Google.