Documentazione di Dataflow
Dataflow è un servizio gestito per l'esecuzione di un'ampia varietà di pattern di elaborazione dati. La documentazione su questo sito mostra come eseguire il deployment delle pipeline di elaborazione dei dati in batch e in flussi utilizzando Dataflow, incluse le indicazioni per l'utilizzo delle funzionalità del servizio.
L'SDK Apache Beam è un modello di programmazione open source che ti consente di sviluppare pipeline sia in modalità batch che in modalità flusso. Puoi creare le pipeline con un programma Apache Beam e quindi eseguirle nel servizio Dataflow. La documentazione di Apache Beam fornisce informazioni concettuali approfondite e materiale di riferimento per il modello di programmazione Apache Beam, gli SDK e altri runner.
Per apprendere i concetti di base di Apache Beam, consulta gli articoli Tour di Beam e Beam Playground. Il repository Cookbook di Dataflow fornisce inoltre pipeline autonome e pronte al lancio e i casi d'uso di Dataflow più comuni.
Risorse di documentazione
Guide
-
Crea una pipeline Dataflow utilizzando Java
-
Crea una pipeline Dataflow utilizzando Python
-
Crea una pipeline Dataflow utilizzando Go
-
Crea una pipeline di inserimento flussi utilizzando un modello Dataflow
-
Crea ed esegui un modello flessibile
-
Esegui il deployment delle pipeline Dataflow
-
Sviluppa con i blocchi note
-
Risoluzione dei problemi e debug
-