Exemplos de utilização do Dataflow

O Dataflow foi concebido para suportar pipelines de streaming e em lote em grande escala. O Dataflow é criado com base na framework Apache Beam de código aberto.
Esta página inclui links para tutoriais e exemplos de utilização para ajudar a começar.
Movimento de dados
Processe dados do Kafka para o BigQuery
Este tutorial mostra como executar um modelo do Dataflow que lê a partir do Managed Service for Apache Kafka e escreve os registos numa tabela do BigQuery.
Processe dados do Pub/Sub para o BigQuery
Este tutorial mostra como executar um modelo do Dataflow que lê mensagens codificadas em JSON do Pub/Sub e as escreve numa tabela do BigQuery.
Dataflow ML
Use RunInference e incorporações
Este bloco de notas mostra como usar modelos de ML em pipelines do Apache Beam que usam a transformação RunInference.
Use GPUs no seu pipeline
Este bloco de notas mostra como executar a inferência de aprendizagem automática através do vLLM e das GPUs. O vLLM é uma biblioteca para inferência e fornecimento de GMLs.
Outros recursos
Padrões de referência
Links para código de exemplo e guias de referência técnica para exemplos de utilização comuns do Dataflow.
Pipeline de streaming de comércio eletrónico
Neste tutorial, vai criar um pipeline que transforma dados de comércio eletrónico do Pub/Sub e envia os dados para o BigQuery e o Bigtable.
Cargas de trabalho altamente paralelas de HPC
Com o Dataflow, pode executar cargas de trabalho altamente paralelas num único pipeline, o que melhora a eficiência e facilita a gestão do fluxo de trabalho.