Google fornisce modelli Dataflow open source che puoi utilizzare anziché scrivere il codice della pipeline. Questa pagina elenca i modelli disponibili.
- Per informazioni generali sui modelli, consulta la Panoramica.
- Per iniziare, esegui il modello di esempio Conta parole.
- Per creare la tua modello, scopri come estendere i modelli.
Modelli di streaming
Modelli per l'elaborazione continua dei dati:
- Da Apache Kafka ad Apache Kafka
- Apache Kafka a BigQuery
- Apache Kafka a Cloud Storage
- Eseguire il trasferimento di Change Data Capture da MySQL a BigQuery (stream)
- Modifiche in tempo reale di Bigtable a BigQuery
- modifiche in tempo reale di Bigtable per Pub/Sub
- Modifiche in tempo reale di Spanner a BigQuery
- Modifiche in tempo reale di Spanner a Cloud Storage
- Flussi di modifiche Spanner in qualsiasi database di origine
- Stream di modifica di Spanner in Pub/Sub
- Da Datastream a BigQuery (flusso)
- Datastream to Spanner
- Da Datastream a MySQL o PostgreSQL (flusso)
- Data masking/tokenizzazione da Cloud Storage a BigQuery (utilizzando Cloud DLP)
- JMS to Pub/Sub
- Da MongoDB a BigQuery (stream)
- da MQTT a Pub/Sub
- Pub/Sub a BigQuery
- Pub/Sub a BigQuery con UDF Python
- Pub/Sub Avro to BigQuery
- Protocollo Pub/Sub a BigQuery
- Protocollo Pub/Sub a BigQuery con UDF Python
- Sottoscrizione Pub/Sub a BigQuery
- File da Pub/Sub ad Avro in Cloud Storage
- Pub/Sub a Datadog
- Pub/Sub a Elasticsearch
- Pub/Sub a Java Database Connectivity (JDBC)
- Da Pub/Sub a MongoDB
- Da Pub/Sub a MongoDB con la funzione definita dall'utente Python
- Da Pub/Sub a Pub/Sub
- Pub/Sub a Redis
- Pub/Sub a Splunk
- Argomento o sottoscrizione Pub/Sub a file di testo su Cloud Storage
- Argomento Pub/Sub in file di testo su Cloud Storage
- File di testo su Cloud Storage in BigQuery (stream)
- File di testo di Cloud Storage in BigQuery con UDF Python
- File di testo su Cloud Storage in Pub/Sub (stream)
Modelli batch
Modelli per l'elaborazione collettiva dei dati:
- Qualsiasi database di origine a Spanner
- Da Apache Cassandra a Bigtable
- Da AstraDB a BigQuery
- Da BigQuery a Bigtable
- Esportazione di BigQuery in Parquet (tramite API Storage)
- TFRecord da BigQuery a Cloud Storage
- Da BigQuery a Elasticsearch
- Da BigQuery a MongoDB
- Bigtable in Avro di Cloud Storage
- Da Bigtable a JSON di Cloud Storage
- Da Bigtable a Cloud Storage Parquet
- Da Bigtable a Cloud Storage SequenceFile
- Stream di modifiche Bigtable in Vertex AI Vector Search
- Da Bigtable ai file di ricerca vettoriale di Vertex AI su Cloud Storage
- Spanner a BigQuery
- Spanner in Avro Cloud Storage
- Spanner in testo Cloud Storage
- File Spanner in Vertex AI Vector Search su Cloud Storage
- Cloud Storage Avro to Bigtable
- Da Cloud Storage a Bigtable
- SequenceFile di Cloud Storage in Bigtable
- Da Cloud Storage a Spanner
- File CSV di Cloud Storage in BigQuery
- Testo di Cloud Storage in BigQuery
- File di testo di Cloud Storage in BigQuery con la funzione definita dall'utente Python
- Testo di Cloud Storage in Spanner
- Testo di Cloud Storage in Datastore [Ritirata]
- File di testo di Cloud Storage in Firestore (modalità Datastore)
- Testo Cloud Storage in Pub/Sub (batch)
- Da Cloud Storage a Elasticsearch
- Datastore in testo Cloud Storage [Ritiro programmato]
- Testo da Firestore (modalità Datastore) a Cloud Storage
- Google Ads a BigQuery
- Da Google Cloud a Neo4j
- Da JDBC a BigQuery
- JDBC a Pub/Sub
- Da MongoDB a BigQuery
- Da MySQL a BigQuery
- Da Oracle a BigQuery
- PostgreSQL a BigQuery
- Da SQL Server a BigQuery
Modelli di utilità
- Comprimire in blocco i file di Cloud Storage
- Decompressione in blocco dei file di Cloud Storage
- Eliminazione collettiva Datastore [Deprecata]
- Conversione del formato file
- Eliminazione collettiva di Firestore (modalità Datastore)
- Flussi di dati Da un generatore di dati a Pub/Sub, BigQuery e Cloud Storage