Dataflow es un servicio administrado que ejecuta una amplia variedad de patrones de procesamiento de datos. La documentación que se ofrece en este sitio muestra cómo implementar las canalizaciones de procesamiento de datos por lotes y de transmisión mediante Dataflow, y también incluyen instrucciones sobre el uso de las características del servicio.
El SDK de Apache Beam es un modelo de programación de código abierto que te permite desarrollar canalizaciones de transmisión y por lotes. Puedes crear tus canalizaciones con un programa de Apache Beam y, luego, ejecutarlas en el servicio de Dataflow. La documentación de Apache Beam proporciona información conceptual detallada y material de referencia sobre el modelo de programación de Apache Beam, los SDK y otros ejecutores.
Guías
-
Guías de inicio rápido: Guía de inicio rápido: Crea una canalización de Dataflow con Python, Guía de inicio rápido: Crea una canalización de Dataflow con Java, Guía de inicio rápido: Crea una canalización de Dataflow con Go o Guía de inicio rápido: Crea una canalización de transmisión con una plantilla de Dataflow
-
Crea una canalización
-
Implementa una canalización
-
Especifica los parámetros de ejecución de la canalización
-
Desarrolla con notebooks
-
Comienza con las plantillas proporcionadas por Google
-
Detén una canalización en ejecución
-
Solución de problemas y depuración
-
Reference
Casos de uso
Explora casos de uso, arquitecturas de referencia, informes, prácticas recomendadas y soluciones del sector.