O Dataflow é um serviço gerenciado para executar uma ampla variedade de padrões de processamento de dados. A documentação neste site mostra como implantar os pipelines de processamento de dados de streaming e em lote usando o Dataflow, incluindo instruções de uso dos recursos de serviço.

O SDK do Apache Beam é um modelo de programação de código aberto que permite desenvolver pipelines de lote e de streaming. Você cria pipelines com um programa do Apache Beam e os executa no serviço do Dataflow. A documentação do Apache Beam fornece informações conceituais aprofundadas e material de referência para o modelo de programação, os SDKs e outros executores do Apache Beam.

Para aprender os conceitos básicos do Apache Beam, consulte o Tour do Beam e o Beam Playground. O repositório do Manual do Dataflow também fornece pipelines prontos para lançamento e independentes, além dos casos de uso mais comuns do Dataflow.

Apache, Apache Beam, Beam, o logotipo do Beam e o mascote Firefly são marcas registradas da Apache Software Foundation nos Estados Unidos e/ou em outros países.
Conheça o treinamento autoguiado do Google Cloud Ensina, os casos de uso, as arquiteturas de referência e os exemplos de código com demonstrações de como usar e conectar os serviços do Google Cloud.

Vídeos relacionados