Google fornisce modelli Dataflow open source che puoi utilizzare anziché scrivere il codice della pipeline. Questa pagina elenca i modelli disponibili.
- Per informazioni generali sui modelli, consulta la Panoramica.
- Per iniziare, esegui il modello di esempio WordCount.
- Per creare il tuo modello, scopri come estendere i modelli.
Modelli di streaming
Modelli per l'elaborazione continua dei dati:
- Da Apache Kafka ad Apache Kafka
- Apache Kafka a BigQuery
- Apache Kafka a Cloud Storage
- Eseguire il trasferimento di Change Data Capture da MySQL a BigQuery (stream)
- modifiche in tempo reale Bigtable in BigQuery
- modifiche in tempo reale Bigtable in Pub/Sub
- modifiche in tempo reale di Spanner a BigQuery
- modifiche in tempo reale Spanner in Cloud Storage
- modifiche in tempo reale Spanner in qualsiasi database di origine
- modifiche in tempo reale di Spanner in Pub/Sub
- Datastream a BigQuery (stream)
- Datastream to Spanner
- Datastream in MySQL o PostgreSQL (stream)
- Data masking/tokenizzazione da Cloud Storage a BigQuery (utilizzando Cloud DLP)
- JMS to Pub/Sub
- Da MongoDB a BigQuery (stream)
- MQTT a Pub/Sub
- Pub/Sub a BigQuery
- Pub/Sub a BigQuery con UDF Python
- Pub/Sub Avro to BigQuery
- Protocollo Pub/Sub a BigQuery
- Protocollo Pub/Sub a BigQuery con UDF Python
- Sottoscrizione Pub/Sub in BigQuery
- Pub/Sub in file Avro su Cloud Storage
- Pub/Sub a Datadog
- Pub/Sub a Elasticsearch
- Pub/Sub a Java Database Connectivity (JDBC)
- Da Pub/Sub a MongoDB
- Pub/Sub a MongoDB con UDF Python
- Pub/Sub a Pub/Sub
- Pub/Sub a Redis
- Pub/Sub a Splunk
- Argomento o sottoscrizione Pub/Sub a file di testo su Cloud Storage
- Argomento Pub/Sub in file di testo su Cloud Storage
- File di testo su Cloud Storage in BigQuery (stream)
- File di testo di Cloud Storage in BigQuery con UDF Python
- File di testo su Cloud Storage in Pub/Sub (stream)
Modelli batch
Modelli per l'elaborazione collettiva dei dati:
- Qualsiasi database di origine a Spanner
- Da Apache Cassandra a Bigtable
- AstraDB a BigQuery
- BigQuery a Bigtable
- Esportazione di BigQuery in Parquet (tramite API Storage)
- TFRecord da BigQuery a Cloud Storage
- BigQuery a Elasticsearch
- BigQuery a MongoDB
- Bigtable in Avro di Cloud Storage
- Bigtable a JSON di Cloud Storage
- Bigtable to Cloud Storage Parquet
- SequenceFile da Bigtable a Cloud Storage
- Stream di modifiche in tempo reale in Vertex AI Vector Search
- File da Bigtable a Vertex AI Vector Search su Cloud Storage
- Spanner a BigQuery
- Spanner in Avro Cloud Storage
- Spanner in testo Cloud Storage
- File Spanner in Vertex AI Vector Search su Cloud Storage
- Cloud Storage Avro to Bigtable
- Parquet di Cloud Storage in Bigtable
- SequenceFile di Cloud Storage in Bigtable
- Da Avro di Cloud Storage a Spanner
- File CSV di Cloud Storage in BigQuery
- Testo di Cloud Storage in BigQuery
- File di testo di Cloud Storage in BigQuery con UDF Python
- Testo di Cloud Storage in Spanner
- Testo di Cloud Storage in Datastore [Ritirata]
- File di testo di Cloud Storage in Firestore (modalità Datastore)
- Testo Cloud Storage in Pub/Sub (batch)
- Da Cloud Storage a Elasticsearch
- Datastore in testo Cloud Storage [Ritiro programmato]
- Firestore (modalità Datastore) in testo Cloud Storage
- Google Ads a BigQuery
- Da Google Cloud a Neo4j
- JDBC to BigQuery
- JDBC a Pub/Sub
- Da MongoDB a BigQuery
- MySQL a BigQuery
- Da Oracle a BigQuery
- PostgreSQL a BigQuery
- Da SQL Server a BigQuery