Modello di testo da Datastore a Cloud Storage [deprecato]

Questo modello è ritirato e verrà rimosso nel terzo trimestre del 2023. Esegui la migrazione al modello Firestore to Cloud Storage Text.

Il modello di testo da Datastore a Cloud Storage è una pipeline batch che legge Datastore e le scrive in Cloud Storage come file di testo. Puoi forniscono una funzione per elaborare ogni entità come stringa JSON. Se non fornisci una funzione di questo tipo, ogni riga del file di output sarà un'entità con serializzazione JSON.

Requisiti della pipeline

Datastore deve essere configurato nel progetto prima di eseguire la pipeline.

Parametri del modello

Parametri obbligatori

  • datastoreReadGqlQuery : una query GQL (https://cloud.google.com/datastore/docs/reference/gql_reference) che specifica le entità da acquisire. Ad esempio: SELECT * FROM MyKind.
  • datastoreReadProjectId : l'ID del progetto Google Cloud che contiene l'istanza Datastore da cui vuoi leggere i dati.
  • textWritePrefix : il prefisso del percorso Cloud Storage che specifica dove sono scritti i dati. ad esempio gs://mybucket/somefolder/.

Parametri facoltativi

  • datastoreReadNamespace : lo spazio dei nomi delle entità richieste. Per utilizzare lo spazio dei nomi predefinito, lascia vuoto questo parametro.
  • javascriptTextTransformGcsPath : l'URI Cloud Storage del file .js che definisce la funzione definita dall'utente (UDF) JavaScript da utilizzare. Ad esempio, gs://my-bucket/my-udfs/my_file.js.
  • javascriptTextTransformFunctionName : il nome della funzione definita dall'utente (UDF) JavaScript da utilizzare. Ad esempio, se il codice della funzione JavaScript è myTransform(inJson) { /*...do stuff...*/ }, il nome della funzione è myTransform. Per esempi di funzioni JavaScript definite dall'utente, consulta gli esempi di funzioni definite dall'utente (https://github.com/GoogleCloudPlatform/DataflowTemplates#udf-examples).

Esegui il modello

Console

  1. Vai alla pagina Crea job da modello di Dataflow.
  2. Vai a Crea job da modello
  3. Nel campo Nome job, inserisci un nome univoco per il job.
  4. (Facoltativo) Per Endpoint a livello di regione, seleziona un valore dal menu a discesa. La regione predefinita è us-central1.

    Per un elenco di regioni in cui è possibile eseguire un job Dataflow, consulta Località di Dataflow.

  5. Dal menu a discesa Modello Dataflow, seleziona the Datastore to Text Files on Cloud Storage template.
  6. Inserisci i valori parametro negli appositi campi.
  7. Fai clic su Esegui job.

gcloud

Nella shell o nel terminale, esegui il modello:

gcloud dataflow jobs run JOB_NAME \
    --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/Datastore_to_GCS_Text \
    --region REGION_NAME \
    --parameters \
datastoreReadGqlQuery="SELECT * FROM DATASTORE_KIND",\
datastoreReadProjectId=DATASTORE_PROJECT_ID,\
datastoreReadNamespace=DATASTORE_NAMESPACE,\
javascriptTextTransformGcsPath=PATH_TO_JAVASCRIPT_UDF_FILE,\
javascriptTextTransformFunctionName=JAVASCRIPT_FUNCTION,\
textWritePrefix=gs://BUCKET_NAME/output/

Sostituisci quanto segue:

  • JOB_NAME: un nome job univoco di tua scelta
  • REGION_NAME: la regione in cui vuoi di eseguire il deployment del job Dataflow, ad esempio us-central1
  • VERSION: la versione del modello che vuoi utilizzare

    Puoi utilizzare i seguenti valori:

    di Gemini Advanced.
  • BUCKET_NAME: il nome del bucket Cloud Storage
  • DATASTORE_PROJECT_ID: l'ID progetto Google Cloud in cui Istanza Datastore esistente
  • DATASTORE_KIND: il tipo di entità Datastore
  • DATASTORE_NAMESPACE: lo spazio dei nomi delle entità Datastore
  • JAVASCRIPT_FUNCTION: il nome della funzione definita dall'utente (UDF) JavaScript che vuoi utilizzare

    Ad esempio, se il codice della funzione JavaScript è myTransform(inJson) { /*...do stuff...*/ }, il nome della funzione è myTransform. Per esempi di funzioni JavaScript definite dall'utente, consulta Esempi di funzioni definite dall'utente.

  • PATH_TO_JAVASCRIPT_UDF_FILE: L'URI Cloud Storage del file .js che definisce il codice JavaScript definito dall'utente che vuoi utilizzare, ad esempio gs://my-bucket/my-udfs/my_file.js

API

Per eseguire il modello utilizzando l'API REST, invia una richiesta POST HTTP. Per ulteriori informazioni sul API e i relativi ambiti di autorizzazione, consulta projects.templates.launch

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Datastore_to_GCS_Text
{
   "jobName": "JOB_NAME",
   "parameters": {
       "datastoreReadGqlQuery": "SELECT * FROM DATASTORE_KIND"
       "datastoreReadProjectId": "DATASTORE_PROJECT_ID",
       "datastoreReadNamespace": "DATASTORE_NAMESPACE",
       "javascriptTextTransformGcsPath": "PATH_TO_JAVASCRIPT_UDF_FILE",
       "javascriptTextTransformFunctionName": "JAVASCRIPT_FUNCTION",
       "textWritePrefix": "gs://BUCKET_NAME/output/"
   },
   "environment": { "zone": "us-central1-f" }
}

Sostituisci quanto segue:

  • PROJECT_ID: L'ID progetto Google Cloud in cui vuoi eseguire il job Dataflow
  • JOB_NAME: un nome job univoco di tua scelta
  • LOCATION: la regione in cui vuoi di eseguire il deployment del job Dataflow, ad esempio us-central1
  • VERSION: la versione del modello che vuoi utilizzare

    Puoi utilizzare i seguenti valori:

    di Gemini Advanced.
  • BUCKET_NAME: il nome del bucket Cloud Storage
  • DATASTORE_PROJECT_ID: l'ID progetto Google Cloud in cui Istanza Datastore esistente
  • DATASTORE_KIND: il tipo di entità Datastore
  • DATASTORE_NAMESPACE: lo spazio dei nomi delle entità Datastore
  • JAVASCRIPT_FUNCTION: il nome della funzione definita dall'utente (UDF) JavaScript che vuoi utilizzare

    Ad esempio, se il codice della funzione JavaScript è myTransform(inJson) { /*...do stuff...*/ }, il nome della funzione è myTransform. Per esempi di funzioni JavaScript definite dall'utente, consulta Esempi di funzioni definite dall'utente.

  • PATH_TO_JAVASCRIPT_UDF_FILE: L'URI Cloud Storage del file .js che definisce il codice JavaScript definito dall'utente che vuoi utilizzare, ad esempio gs://my-bucket/my-udfs/my_file.js

Passaggi successivi