O Dataflow é um serviço gerenciado para executar uma ampla variedade de padrões de processamento de dados. A documentação neste site mostra como implantar os pipelines de processamento de dados de streaming e em lote usando o Dataflow, incluindo instruções de uso dos recursos de serviço.

O SDK do Apache Beam é um modelo de programação de código aberto que permite desenvolver pipelines de lote e de streaming. Você cria pipelines com um programa do Apache Beam e os executa no serviço do Dataflow. A documentação do Apache Beam fornece informações conceituais aprofundadas e material de referência para o modelo de programação, os SDKs e outros executores do Apache Beam.

Para aprender os conceitos básicos do Apache Beam, consulte o Tour do Beam e o Beam Playground. O repositório do Manual do Dataflow também fornece pipelines prontos para lançamento e independentes, além dos casos de uso mais comuns do Dataflow.

Apache, Apache Beam, Beam, o logotipo do Beam e o mascote Firefly são marcas registradas da Apache Software Foundation nos Estados Unidos e/ou em outros países.
Comece a usar gratuitamente

Comece seu próximo projeto com US$ 300 em créditos sem custos financeiros

Crie e teste uma prova de conceito com os créditos de teste e o uso mensal sem custos financeiros de mais de 20 produtos.

Confira ofertas de produtos sem custos financeiros

Continue explorando com mais de 20 produtos sempre gratuitos

Acesse mais de 20 produtos gratuitos para casos de uso comuns, incluindo APIs de IA, VMs, data warehouses e muito mais.

Conheça o treinamento autoguiado do Google Cloud Skills Boost, os casos de uso, as arquiteturas de referência e os exemplos de código com exemplos de como usar e conectar os serviços do Google Cloud.

Vídeos relacionados