Dataflow es un servicio administrado que ejecuta una amplia variedad de patrones de procesamiento de datos. La documentación que se ofrece en este sitio muestra cómo implementar las canalizaciones de procesamiento de datos por lotes y de transmisión mediante Dataflow, y también incluyen instrucciones sobre el uso de las características del servicio.
El SDK de Apache Beam es un modelo de programación de código abierto que te permite desarrollar canalizaciones de transmisión y por lotes. Puedes crear tus canalizaciones con un programa de Apache Beam y, luego, ejecutarlas en el servicio de Dataflow. La documentación de Apache Beam proporciona información conceptual detallada y material de referencia sobre el modelo de programación de Apache Beam, los SDK y otros ejecutores.
Guías
-
Guías de inicio rápido: Python, Java, SQL o Plantillas
-
Crea una canalización
-
Implementa una canalización
-
Especifica los parámetros de ejecución de la canalización
-
Desarrolla con notebooks
-
Comienza con las plantillas proporcionadas por Google
-
Detén una canalización en ejecución
-
Solución de problemas y depuración
-
Referencia
Casos de uso
Explora casos de uso, arquitecturas de referencia, informes, prácticas recomendadas y soluciones del sector.