Casi d'uso di Dataflow

Dataflow è progettato per supportare pipeline di streaming e batch su larga scala. Dataflow è basato sul framework Apache Beam open source.

Questa pagina contiene link a tutorial ed esempi di casi d'uso per aiutarti a iniziare.

Spostamento dei dati

Questo tutorial mostra come eseguire un modello Dataflow che legge da Managed Service for Apache Kafka e scrive i record in una tabella BigQuery.
Questo tutorial mostra come eseguire un modello Dataflow che legge i messaggi con codifica JSON da Pub/Sub e li scrive in una tabella BigQuery.

Dataflow ML

Questo notebook mostra come utilizzare i modelli ML nelle pipeline Apache Beam che utilizzano la trasformazione RunInference.
Questo notebook mostra come eseguire l'inferenza di machine learning utilizzando vLLM e le GPU. vLLM è una libreria per l'inferenza e l'erogazione di LLM.

Altre risorse

Link a codice campione e guide di riferimento tecnico per i casi d'uso comuni di Dataflow.
In questo tutorial, crei una pipeline che trasforma i dati di e-commerce da Pub/Sub e li invia a BigQuery e Bigtable.
Con Dataflow, puoi eseguire carichi di lavoro altamente paralleli in un'unica pipeline, migliorando l'efficienza e semplificando la gestione del flusso di lavoro.