Casos prácticos de Dataflow

Dataflow se ha diseñado para admitir flujos de procesamiento de datos de streaming y por lotes a gran escala. Dataflow se basa en el framework de código abierto Apache Beam.

En esta página se incluyen enlaces a tutoriales y ejemplos de casos prácticos para ayudarte a dar los primeros pasos.

Migración de datos

En este tutorial se muestra cómo ejecutar una plantilla de Dataflow que lee datos de Managed Service para Apache Kafka y escribe los registros en una tabla de BigQuery.
En este tutorial se muestra cómo ejecutar una plantilla de Dataflow que lee mensajes codificados en JSON de Pub/Sub y los escribe en una tabla de BigQuery.

Dataflow ML

En este cuaderno se muestra cómo usar modelos de aprendizaje automático en las canalizaciones de Apache Beam que usan la transformación RunInference.
En este cuaderno se muestra cómo ejecutar la inferencia de aprendizaje automático mediante vLLM y GPUs. vLLM es una biblioteca para la inferencia y el servicio de LLMs.

Otros recursos

Enlaces a código de muestra y guías de referencia técnica para casos prácticos habituales de Dataflow.
En este tutorial, crearás una canalización que transforma datos de comercio electrónico de Pub/Sub y los envía a BigQuery y Bigtable.
Con Dataflow, puedes ejecutar cargas de trabajo altamente paralelas en una sola canalización, lo que mejora la eficiencia y facilita la gestión de tu flujo de trabajo.