Google proporciona un conjunto de plantillas de
código abierto
de Dataflow. Para obtener información general sobre las plantillas, consulta la página Descripción general. Para comenzar, usa la
plantilla WordCount
. Observa otras plantillas proporcionadas por Google:
Plantillas de transmisión
Plantillas para procesar datos de forma continua:
- Suscripción de Pub/Sub a BigQuery
- Tema de Pub/Sub a BigQuery
- Pub/Sub Avro a BigQuery
- Proto de Pub/Sub a BigQuery
- Pub/Sub a Pub/Sub
- Pub/Sub a Splunk
- Pub/Sub a Cloud Storage Avro
- Pub/Sub a Cloud Storage Text
- Pub/Sub a MongoDB
- Pub/Sub a Elasticsearch
- Cloud Storage Text en BigQuery (transmisión)
- Flujos de cambio de Cloud Spanner a BigQuery
- Flujos de cambio de Cloud Spanner a Cloud Storage
- Cloud Storage Text a Pub/Sub (transmisión)
- Enmascaramiento de datos y asignación de tokens de Cloud Storage a BigQuery (con Cloud DLP)
- Captura de datos modificados a BigQuery (transmisión)
- Apache Kafka a BigQuery
- Transmisión de datos a BigQuery
- Datastream a PostgreSQL
- Datastream a Cloud Spanner
- Conectividad a bases de datos de Java (JDBC) de Pub/Sub
Plantillas de lotes
Plantillas para procesar datos de forma masiva:
- BigQuery a TFRecord de Cloud Storage
- Exportación de BigQuery a Parquet (a través de la API de Storage)
- BigQuery a Elasticsearch
- Bigtable a Avro en Cloud Storage
- Bigtable a Parquet en Cloud Storage
- Bigtable a archivos SequenceFile de Cloud Storage
- Datastore a Cloud Storage en archivos de texto [obsoleta]
- Firestore (modo Datastore) a Cloud Storage Text
- Cloud Spanner a Cloud Storage Avro
- Cloud Spanner a Cloud Storage Text
- Avro de Cloud Storage a Bigtable
- Cloud Storage Avro a Cloud Spanner
- Parquet de Cloud Storage a Bigtable
- SequenceFiles de Cloud Storage a Bigtable
- Cloud Storage Text a BigQuery
- Cloud Storage en archivos de texto a Datastore [obsoleta]
- Cloud Storage Text a Firestore (modo Datastore)
- Cloud Storage Text a Pub/Sub (por lotes)
- Cloud Storage Text a Cloud Spanner
- Cloud Storage a Elasticsearch
- Conectividad a bases de datos de Java (JDBC) para BigQuery
- Conectividad a bases de datos de Java (JDBC) para Pub/Sub
- Apache Cassandra a Bigtable
Plantillas de utilidad
WordCount
La plantilla de WordCount es una canalización por lotes que lee texto de Cloud Storage, convierte las líneas de texto en tokens de palabras individuales y cuenta la frecuencia con la que aparece cada palabra. Para obtener más información sobre WordCount, consulta Canalización de ejemplo de WordCount.
Parámetros de la plantilla
Parámetro | Descripción |
---|---|
inputFile |
Ruta de acceso del archivo de entrada de Cloud Storage. |
output |
Ruta de acceso y prefijo del archivo de salida de Cloud Storage. |
Ejecuta la plantilla de WordCount
Console
- Ve a la página Crear un trabajo a partir de una plantilla de Dataflow. Ir a Crear un trabajo a partir de una plantilla
- En el campo Nombre del trabajo, ingresa un nombre de trabajo único.
- Opcional: Para Extremo regional, selecciona un valor del menú desplegable. El extremo regional predeterminado es
us-central1
.Para obtener una lista de regiones en las que puedes ejecutar un trabajo de Dataflow, consulta Ubicaciones de Dataflow.
- En el menú desplegable Plantilla de Dataflow, selecciona the Word Count template.
- En los campos de parámetros proporcionados, ingresa los valores de tus parámetros.
- Haga clic en Ejecutar trabajo.
gcloud
En tu shell o terminal, ejecuta la plantilla:
gcloud dataflow jobs run JOB_NAME \ --gcs-location gs://dataflow-templates/latest/Word_Count \ --region REGION_NAME \ --parameters \ inputFile=gs://dataflow-samples/shakespeare/kinglear.txt,\ output=gs://BUCKET_NAME/output/my_output
Reemplaza lo siguiente:
JOB_NAME
: Es el nombre del trabajo que elijasREGION_NAME
: El extremo regional en el que deseas implementar tu trabajo de Dataflow, por ejemplo,us-central1
BUCKET_NAME
: Es el nombre de tu bucket de Cloud Storage.
API
Para ejecutar la plantilla con la API de REST, envía una solicitud HTTP POST. Para obtener más información sobre la API y sus permisos de autorización, consulta projects.templates.launch
.
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates/latest/Word_Count { "jobName": "JOB_NAME", "parameters": { "inputFile" : "gs://dataflow-samples/shakespeare/kinglear.txt", "output": "gs://BUCKET_NAME/output/my_output" }, "environment": { "zone": "us-central1-f" } }
Reemplaza lo siguiente:
PROJECT_ID
: El ID del proyecto de Cloud en el que deseas ejecutar el trabajo de Dataflow.JOB_NAME
: Es el nombre del trabajo que elijasLOCATION
: El extremo regional en el que deseas implementar tu trabajo de Dataflow, por ejemplo,us-central1
BUCKET_NAME
: Es el nombre de tu bucket de Cloud Storage.
Extender plantillas
Puedes compilar tus propias canalizaciones si extiendes las plantillas de Dataflow de código abierto. Por ejemplo, en el caso de una plantilla que usa una duración de ventana fija, los datos que llegan fuera de la ventana podrían descartarse. A fin de evitar este comportamiento, usa el código de la plantilla como base y modifícalo para invocar la operación .withAllowedLateness
.