Google fornisce open source Modelli Dataflow che puoi utilizzare al posto del codice della pipeline. Questa pagina elenca i modelli disponibili.
- Per informazioni generali sui modelli, consulta la Panoramica.
- Per iniziare, esegui il modello di esempio Conta parole.
- Per creare la tua scopri come estendere i modelli.
Modelli di streaming
Modelli per l'elaborazione continua dei dati:
- Da Apache Kafka ad Apache Kafka
- Da Apache Kafka a BigQuery
- Da Apache Kafka a Cloud Storage
- Eseguire il trasferimento di Change Data Capture da MySQL a BigQuery (stream)
- Modifiche in tempo reale di Bigtable a BigQuery
- modifiche in tempo reale di Bigtable su Pub/Sub
- Modifiche in tempo reale di Spanner a BigQuery
- Flussi di modifiche Spanner in Cloud Storage
- modifiche in tempo reale di Spanner verso Pub/Sub
- Datastream a BigQuery (stream)
- Da Datastream a Spanner
- Datastream in MySQL o PostgreSQL (stream)
- Mascheramento dei dati/tokenizzazione da Cloud Storage a BigQuery (con Cloud DLP)
- Da JMS a Pub/Sub
- Da MongoDB a BigQuery (CDC)
- da MQTT a Pub/Sub
- Da Pub/Sub a BigQuery
- Pub/Sub a BigQuery con UDF Python
- Da Pub/Sub Avro a BigQuery
- Protocollo Pub/Sub a BigQuery
- Protocollo Pub/Sub a BigQuery con la funzione definita dall'utente per Python
- Sottoscrizione Pub/Sub a BigQuery
- File da Pub/Sub ad Avro in Cloud Storage
- Da Pub/Sub a Datadog
- Da Pub/Sub a Elasticsearch
- Da Pub/Sub a Java Database Connectivity (JDBC)
- Da Pub/Sub a MongoDB
- Da Pub/Sub a MongoDB con la funzione definita dall'utente Python
- Da Pub/Sub a Pub/Sub
- Da Pub/Sub a Redis
- Pub/Sub a Splunk
- Argomento o sottoscrizione Pub/Sub a file di testo su Cloud Storage
- Argomento Pub/Sub in file di testo su Cloud Storage
- File di testo da Cloud Storage a BigQuery (flusso)
- File di testo di Cloud Storage in BigQuery con UDF Python
- File di testo su Cloud Storage in Pub/Sub (flusso)
Modelli batch
Modelli per l'elaborazione collettiva dei dati:
- Da qualsiasi database di origine a Spanner
- Da Apache Cassandra a Bigtable
- Da AstraDB a BigQuery
- BigQuery a Bigtable
- Esportazione di BigQuery in Parquet (tramite l'API Storage)
- TFRecord da BigQuery ai record Cloud Storage
- BigQuery a Elasticsearch
- BigQuery a MongoDB
- Da Bigtable a Cloud Storage Avro
- Bigtable a JSON di Cloud Storage
- Da Bigtable a Cloud Storage Parquet
- Da Bigtable a Cloud Storage SequenceFile
- Flussi di modifiche in tempo reale su Vertex AI Vector Search
- File da Bigtable a Vertex AI Vector Search su Cloud Storage
- Da Spanner a BigQuery
- Da Spanner ad Avro Cloud Storage
- Spanner in testo Cloud Storage
- File da Spanner a Vertex AI Vector Search su Cloud Storage
- Da Avro di Cloud Storage a Bigtable
- Da Cloud Storage a Bigtable
- Da Cloud Storage a Bigtable
- Da Cloud Storage a Spanner
- File CSV di Cloud Storage in BigQuery
- Testo di Cloud Storage in BigQuery
- File di testo di Cloud Storage in BigQuery con la funzione definita dall'utente Python
- Testo di Cloud Storage in Spanner
- Testo Cloud Storage in Datastore [deprecato]
- Da testo Cloud Storage a Firestore (modalità Datastore)
- Testo Cloud Storage in Pub/Sub (batch)
- Da Cloud Storage a Elasticsearch
- Testo da datastore a Cloud Storage [deprecato]
- Firestore (modalità Datastore) in testo Cloud Storage
- Da Google Ads a BigQuery
- Da Google Cloud a Neo4j
- JDBC to BigQuery
- JDBC a Pub/Sub
- Da MongoDB a BigQuery
- Da MySQL a BigQuery
- Da Oracle a BigQuery
- Da PostgreSQL a BigQuery
- Da SQL Server a BigQuery