Documentazione di Dataflow
Dataflow è un servizio gestito per l'esecuzione di un'ampia varietà di pattern di elaborazione dati. La documentazione su questo sito mostra come eseguire il deployment delle pipeline di elaborazione dei dati in modalità flusso e batch utilizzando Dataflow, comprese le indicazioni per l'utilizzo delle funzionalità dei servizi.
L'SDK Apache Beam è un modello di programmazione open source che ti consente di sviluppare pipeline sia in batch che in flussi. Puoi creare le pipeline con un programma Apache Beam ed eseguirle sul servizio Dataflow. La documentazione di Apache Beam fornisce informazioni concettuali approfondite e materiale di riferimento per il modello di programmazione Apache Beam, gli SDK e altri runner.
Per apprendere i concetti di base di Apache Beam, consulta Tour di Beam e Beam Playground. Il repository Dataflow Cookbook fornisce anche pipeline pronte all'avvio e autonome e i casi d'uso più comuni di Dataflow.
Risorse di documentazione
Guide
-
Creare una pipeline Dataflow utilizzando Java
-
Creare una pipeline Dataflow utilizzando Python
-
Creare una pipeline Dataflow utilizzando Go
-
Creare una pipeline di inserimento flussi utilizzando un modello Dataflow
-
Creazione ed esecuzione di un modello flessibile
-
Esegui il deployment delle pipeline Dataflow
-
Sviluppa con i blocchi note
-
Risoluzione dei problemi e debug
-