Documentação do Google Cloud Dataflow

IMPORTANTE: o modelo de preços do Cloud Dataflow mudou a partir de 9 de janeiro de 2017. Os jobs do Dataflow passaram a ser cobrados de acordo com o novo modelo de preços do Cloud Dataflow. Antes de 9 de janeiro, os jobs eram cobrados de acordo com o modelo anterior de preços do Cloud Dataflow.

IMPORTANTE: os SDKs do Dataflow estão em processo de transição para serem baseados no Apache Beam (veja o anúncio). Em todo o site, você encontra documentação do SDK 1.x do Dataflow para Java original e de versões dos SDKs baseados no Apache Beam: o SDK 2.x do Dataflow para Java (em versão beta) e o SDK do Dataflow para Python.

O Cloud Dataflow é um modelo de programação unificado e um serviço gerenciado para desenvolver e executar diversos padrões de processamento de dados. Ele inclui SDKs para definir fluxos de trabalho de processamento de dados, além de um serviço gerenciado do Cloud Platform para executá-los em recursos do Google Cloud Platform, como Compute Engine, BigQuery e muito mais.

Apache™, Apache Beam™ e Beam™ são marcas registradas da The Apache Software Foundation ou suas afiliadas nos Estados Unidos e/ou em outros países.

Monitore seus recursos de onde você estiver

Instale o app do Google Cloud Console para ajudar você a gerenciar seus projetos.

Enviar comentários sobre…