-
Modello di programmazione Apache Beam
Panoramica del modello di programmazione unificato di Apache Beam per l'elaborazione di dati in modalità flusso e batch. Scopri le nozioni di base sui modelli di programmazione, comprese pipeline, PCollection, trasformazioni e I/O della pipeline.
-
Pipeline in modalità flusso
Panoramica di come Dataflow elabora i flussi di dati.
-
Modelli Dataflow
Una panoramica su come utilizzare i modelli Dataflow per mettere in scena le pipeline su Google Cloud ed eseguirle tramite la console Google Cloud, lGoogle Cloud CLI o le chiamate API REST.
-
Sicurezza e autorizzazioni
Panoramica di come Dataflow gestisce la sicurezza e le autorizzazioni per i tuoi dati e per le risorse cloud gestite della tua pipeline.
-
Controllo dell'accesso con IAM
Una panoramica di come Dataflow controlla l'accesso degli utenti del tuo progetto alle risorse specifiche di Dataflow.
-
SDK e dipendenze nodi di lavoro
Una panoramica delle informazioni relative alla dipendenza e al pacchetto worker per gli SDK Apache Beam e Dataflow.
-
Endpoint regionali
Una panoramica degli endpoint a livello di regione di Dataflow, che consentono di specificare una regione per il deployment dei job Dataflow.
-
Flussi di dati con Pub/Sub
Una panoramica dell'integrazione di Dataflow con Pub/Sub.
-
Supporto GPU
Una panoramica di come le GPU funzionano con Dataflow.
-
Dettagli esecuzione
Una panoramica della scheda Dettagli esecuzione nell'interfaccia utente di monitoraggio basata sul Web.
-
Audit logging
Una panoramica degli audit log creati da Dataflow nell'ambito di Cloud Audit Logs.
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.