Domande frequenti

Panoramica

In questo argomento troverai le risposte alle domande frequenti sull'utilizzo di Datastream. Queste domande frequenti sono associate a:

  • Domande generali su Datastream e modifica dell'acquisizione dei dati (CDC)
  • Acquisizione dati modifica MySQL (CDC)
  • Acquisizione dati modifica Oracle (CDC)
  • Casi d'uso comuni per l'utilizzo di Datastream
  • In che modo Datastream si integra con i servizi dati Google Cloud
  • Informazioni sull'anteprima e sulle versioni GA di Datastream
  • Il comportamento e le limitazioni di Datastream
  • Sicurezza e connettività
  • Elaborazione dei file di flussi di dati
  • Monitoraggio dei flussi di dati
  • Prezzi
  • Ulteriori informazioni su Datastream

Domande generali su Datastream e modifica dell'acquisizione dei dati (CDC)

Domanda Rispondi
Che cos'è Datastream?

Datastream è un servizio di replica dei dati di modifica (CDC) serverless e facile da utilizzare che consente di sincronizzare flussi di dati tra database e applicazioni eterogenei e con una latenza minima. Datastream supporta modifiche in flussi di dati dai database Oracle e MySQL in Cloud Storage.

Il servizio offre un'integrazione semplificata con i modelli Dataflow per consentire visualizzazioni aggiornate e aggiornate in BigQuery per l'analisi, replicare i database in Cloud SQL o Cloud Spanner per la sincronizzazione dei database o sfruttare i flussi direttamente da Cloud Storage per realizzare architetture basate su eventi sul dispositivo mobile. Datastream si integra anche con Cloud Data Fusion se vuoi creare pipeline di dati con trasformazioni in BigQuery.

Che cos'è la CDC?

CDC è un approccio all'integrazione dei dati che ti consente di integrare e analizzare i dati più velocemente, utilizzando meno risorse di sistema. È un metodo per estrarre solo le ultime modifiche (aggiornamenti, inserimenti o eliminazioni) da un'origine dati, spesso leggendo il log delle modifiche apportate dall'origine per la propria integrità interna delle transazioni.

CDC è un meccanismo altamente efficiente per limitare l'impatto sull'origine quando si caricano nuovi dati in datastore e data warehouse operativi; inoltre, elimina la necessità di caricare collettivamente e di finestre in batch poco efficaci attivando il caricamento incrementale o lo streaming in tempo reale di modifiche dei dati nella destinazione dei dati.

CDC può essere utilizzato in molti casi d'uso che derivano dal continuo accesso alle modifiche ai dati in tempo reale, come l'analisi, la sincronizzazione dei dati attraverso i sistemi distribuiti geograficamente e le architetture basate su eventi.

Che cos'è il backfill? Oltre alle modifiche in corso, Datastream utilizza anche il backfill per estrarre tutti i dati esistenti da una sorgente e quindi trasmetterli in una destinazione. Di conseguenza, la destinazione viene "completata" con tutti i dati storici provenienti dalla fonte.
Quali metodi utilizzano i dati dello stream di flussi di dati? Datastream trasmette i dati da un'origine a una destinazione in uno dei due metodi seguenti:
  • CDC: acquisizione dei cambiamenti in tempo reale provenienti dall'origine in tempo reale.
  • Backfill: fornisce un'istantanea storica dei dati presenti in una tabella.
Che cos'è uno stream delle modifiche? Uno stream di modifiche è una sequenza di eventi che Datastream viene trasmesso a una destinazione come Cloud Storage per il consumo a valle. Il risultato di uno stream di modifiche che viene scritto in una destinazione è un insieme di file che contengono eventi del log delle modifiche da una tabella di database specifica per un determinato periodo di tempo. Questi eventi rappresentano inserimenti, aggiornamenti ed eliminazioni da tale tabella dall'origine e possono essere utilizzati ed elaborati a valle del servizio da servizi come Dataflow per le architetture basate su eventi.
Che cos'è una visualizzazione materializzata?

Una visualizzazione materializzata è una rappresentazione aggiornata e aggiornata di una tabella di origine in una destinazione. Un esempio di questo tipo di vista è una tabella di database Oracle in cui le modifiche da questa tabella vengono replicate continuamente su una tabella BigQuery. Di conseguenza, la tabella BigQuery viene aggiornata con le modifiche trasmesse in streaming dalla tabella Oracle.

Le visualizzazioni materializzate sfruttano gli stream delle modifiche consumando ogni evento di modifica e utilizzandolo per aggiornare la visualizzazione materializzata. Datastream offre visualizzazioni materializzate in destinazioni come BigQuery, Cloud SQL e Cloud Spanner tramite l'integrazione con Dataflow, sfruttando i modelli che estraeno gli eventi di modifica dalla destinazione e aggiornando le tabelle di destinazione di conseguenza.

È necessario un agente per l'origine del flusso di dati? Non devi installare un agente nell'origine. Datastream utilizza interfacce esistenti (come Oracle LogMiner) per estrarre i dati dall'origine.
Quali sono gli effetti delle prestazioni dell'utilizzo di Datastream in un database di produzione?

CDC è un meccanismo altamente efficiente per limitare l'impatto sulla fonte quando vengono caricati nuovi dati in datastore e destinazione di dati. CDC elimina inoltre la necessità di eseguire in massa il caricamento collettivo e di facilitate finestre batch consentendo il caricamento incrementale o lo streaming in tempo reale delle modifiche ai dati in una destinazione.

Inoltre, il flusso di dati riduce al minimo l'impatto di un backfill iniziale limitando il numero di attività di backfill simultanee, e ti offre il controllo per decidere quali oggetti sottoporre a backfill e quando vuoi farlo.

Puoi copiare i file di log dall'origine a Google Cloud? No. Datastream esegue query sui log direttamente sul server di database e solo le modifiche alle tabelle specificate vengono scritte nella destinazione.
Datastream può anche trasferire i dati storici? Sì. Per impostazione predefinita, lo stream di dati restituisce tutti i dati storici dalle tabelle del database di origine specificate in parallelo al flusso CDC. Datastream offre la flessibilità necessaria per ottenere dati storici da alcune o tutte le tabelle di database nell'origine. Inoltre, quando configuri lo stream, puoi scegliere di disattivare il backfill storico.
Qual è la dimensione massima della riga supportata da Datastream? Il flusso di dati è attualmente limitato a righe non superiori a 3 MB.
Datastream garantisce l'ordine? Lo stream di dati non garantisce l'ordine. Fornisce metadati aggiuntivi su ciascun evento, che possono essere utilizzati per garantire la coerenza finale nel bucket di destinazione. A seconda dell'origine, della tariffa, della frequenza delle modifiche e di altri parametri, la coerenza finale può essere raggiunta entro un'ora.
Lo stream di dati garantisce la consegna esatta? No. Lo stream di dati è dotato di una distribuzione "at-least-once". I metadati aggiuntivi scritti da Datastream in ogni evento possono essere utilizzati per rimuovere dati duplicati.
In che modo Datastream gestisce le modifiche dello schema a un'origine? Lo stream di dati recupera lo schema periodicamente dall'origine. Tuttavia, tra i recuperi dello schema, alcune modifiche allo schema potrebbero non essere rilevate e potrebbero causare discrepanze nei dati. Abbiamo in programma di acquisire in tempo reale gli eventi relativi alla lingua di definizione dei dati in modo da risolvere il problema attuale.
Gestisci database criptati? Sì.
È possibile eseguire lo stream di tabelle e colonne specifiche di un'origine? Sì. Con Datastream puoi specificare ed escludere elenchi per tabelle e schemi per trasmettere in streaming solo i dati desiderati da un'origine alla destinazione. Per le tabelle incluse, puoi escludere colonne specifiche delle tabelle per ottimizzare con precisione i dati che vuoi visualizzare in streaming nella destinazione. Tuttavia, non è possibile replicare le visualizzazioni materializzate.
Come si sposta uno stream in un altro progetto o area geografica?
  1. Crea uno stream in una nuova area geografica o in un nuovo progetto con la stessa configurazione dello stream esistente, ma non selezionare la casella di controllo Dati storici di riempimento.
  2. Avvia lo stream che hai creato.
  3. Quando lo stream che hai creato ha lo stato RUNNING, metti in pausa lo stream esistente.
  4. Facoltativamente, modifica il nuovo stream selezionando la casella di controllo Dati storici di backfill. I dati esistenti nelle tabelle aggiunte allo stream in futuro verranno trasmessi in streaming dall'origine alla destinazione.

Acquisizione dati modifica MySQL (CDC)

Domanda Rispondi
In che modo Datastream ottiene i dati da MySQL? Datastream utilizza il log binario di MySQL per estrarre gli eventi di modifica da MySQL.

Acquisizione dati modifica Oracle (CDC)

Domanda Rispondi
In che modo Datastream ottiene i dati da Oracle? Datastream utilizza Oracle LogMiner per estrarre i dati dai log di ripetizione di Oracle.
Datastream richiede una licenza GoldenGate da Oracle? No. Datastream utilizza Oracle LogMiner per leggere i dati dai log di ripetizione del database.
Che cosa succede quando Oracle LogMiner non è più supportato? Il progetto Oracle verrà supportato per le release future. Per il momento, Oracle LogMiner è ancora disponibile in tutte le release di Oracle generalmente disponibili.
Datastream supporta l'architettura multi-tenant Oracle, in particolare Container Database (CDB) e i database compatibili (PDB)? Lo stream di dati al momento non supporta i CDB e i DDB, ma questo si trova nella nostra roadmap.

Casi d'uso

Domanda Rispondi
Quali sono alcuni casi d'uso comuni per l'utilizzo di Datastream?

Datastream è un servizio di replica e CDC, il che significa che è flessibile in vari casi d'uso che possono trarre vantaggio dall'accesso ai dati di flusso continue. I casi d'uso più comuni per Datastream sono in ordine di similarità:

  1. Analytics: integrando i flussi di dati con i modelli Dataflow per caricare dati in BigQuery, puoi ottenere visualizzazioni materiali aggiornate in modo semplice in BigQuery. Puoi utilizzare questi dati costantemente aggiornati per creare dashboard aggiornate per i dati. Questa funzione può essere utilizzata, ad esempio, per monitorare i sistemi e per ricavare informazioni aggiornate sullo stato della tua attività.
  2. Scenari di replica e sincronizzazione dei database:integrando i flussi di dati con i modelli Dataflow per caricare i dati in Cloud SQL o Cloud Spanner, puoi ottenere visualizzazioni materiali aggiornate dei tuoi dati di origine in questi database. Puoi utilizzare questi dati costantemente aggiornati nei database di destinazione per una migrazione a database a tempo di inattività dall'origine alla destinazione o per le configurazioni del cloud ibrido, in cui l'origine e la destinazione risiedere in diversi ambienti di hosting.
  3. Architetture basate su eventi: le moderne architetture basate su microservizi si basano su hub centrali di dati che vengono aggiornati continuamente con eventi che vengono distribuiti continuamente nell'intera organizzazione. Scrivendo costantemente i dati degli eventi in destinazioni come Cloud Storage, puoi creare architetture basate su eventi basate sul consumo di dati degli eventi provenienti da queste destinazioni.

Integrazioni

Domanda Rispondi
In che modo Datastream si integra con i servizi dati di Google Cloud?

Datastream completa e migliora la suite di dati di Google Cloud fornendo la replica dei dati CDC dalle origini a vari servizi Google Cloud. Grazie all'integrazione perfetta con questi servizi, Datastream si integra nel più grande ecosistema di Google Cloud.

Datastream si integra con i seguenti servizi di dati:

  • Dataflow: Datastream si integra con Dataflow tramite i modelli di Dataflow. Questi modelli leggono i dati da Cloud Storage e li caricano in BigQuery, Cloud SQL per PostgreSQL o Cloud Spanner. Lo scopo di questi modelli è la conservazione aggiornata delle visualizzazioni materiali nelle tabelle di origine replicate nelle destinazioni. I modelli sono disponibili nell'interfaccia utente di Dataflow e sono creati per file generati tramite Datastream per un'elaborazione facile e pronta all'uso.
  • Cloud Data Fusion: Datastream si integra con Cloud Data Fusion alimentando un connettore Oracle tramite la funzionalità di replica di Cloud Data Fusion. Puoi creare una replica di origine Oracle in cui il flusso di dati "power" viene eseguito in modo trasparente per creare facilmente una pipeline di dati. Questa pipeline include avanzate trasformazioni per i dati Oracle trasmessi da Datastream in Cloud Data Fusion.
  • Cloud Storage: Datastream si integra con Cloud Storage scrivendo nella destinazione in streaming delle modifiche.
  • Cloud SQL, Cloud Spanner e BigQuery: Datastream si integra con questi database di destinazione. Utilizzando i modelli Dataflow, puoi mantenere visualizzazioni aggiornate aggiornate nei database.

Anteprima e GA

Domanda Rispondi
Quando saranno disponibili le versioni in anteprima e GA di Datastream? La versione di anteprima di Datastream è attualmente disponibile. La versione GA sarà disponibile più avanti nel corso di quest'anno.
Quali origini e destinazioni sono supportate da Datastream per l'anteprima?
  • Fonti: Datastream supporta flussi di dati provenienti da origini Oracle e MySQL, sia ospitati nella cloud che gestiti autonomamente. Per ulteriori informazioni sul supporto della fonte, vedi Comportamento e limitazioni.
  • Destinazioni: Datastream supporta le modifiche ai dati nei file trasmessi in Cloud Storage. Puoi quindi utilizzare i modelli Dataflow per trasferire questi dati da Cloud Storage a BigQuery, Cloud Spanner e Cloud SQL per PostgreSQL.
Quali origini e destinazioni saranno supportate da Datastream per GA? Datastream supporta le stesse origini e destinazioni per GA, come l'anteprima.
Datastream è in grado di gestire i database criptati? Sì.
Qual è la disponibilità regionale di Datastream?

Per visualizzare un elenco delle aree geografiche in cui è disponibile Datastream, consulta l'articolo sulle aree geografiche e per le aree IP consentite.

Per GA, Datastream sarà disponibile in tutte le aree geografiche.

Comportamento e limitazioni

Domanda Rispondi
Quali versioni di origine sono supportate da Datastream?

Per MySQL, Datastream supporta le versioni 5.6, 5.7 e 8.0. Sono supportati tutti i database conformi a MySQL, tra cui a titolo esemplificativo:

  • Un database ospitato autonomamente, on-premise o su qualsiasi cloud provider
  • Cloud SQL per MySQL
  • AWS RDS MySQL e Aurora MySQL
  • MariaDB
  • Polarba Cloud di Alibaba
  • Percona Server per MySQL

Per Oracle, Datastream supporta 11g release 2, 12c Release 2, 18c e 19c (non RAC in configurazione SCAN, CDB/PDB o DB autonomo). Sono supportati tutti i database conformi a Oracle, tra cui a titolo esemplificativo:

  • Un database ospitato autonomamente, on-premise o su qualsiasi cloud provider
  • RDS AWS
  • Cloud Oracle
In che modo Datastream estrae i dati dalle origini?

Per MySQL, Datastream elabora il log binario di MySQL per estrarre gli eventi di modifica.

Per Oracle, Datastream utilizza le impostazioni di LogMiner e di logging supplementare per estrarre dati dai log di Oracle.

Puoi copiare i file di log direttamente da un'origine a Google Cloud? Datastream non copia completamente i file di log, ma esegue una query sui file di log direttamente dal server di database e replica solo le modifiche apportate dalle tabelle specificate alla destinazione.
Per le origini Oracle, è necessario disporre di una licenza GoldenGate? Datastream non richiede una licenza GoldenGate perché utilizza Oracle LogMiner per leggere i dati dai log di recupero del database.
Che cosa succede quando Oracle LogMiner non sarà supportato per le versioni più recenti? Il supporto LogMister è stato rimosso per Oracle 20 e versioni successive. Di conseguenza, tutte le origini Oracle prima che quella versione possano continuare a utilizzare LogMiner con Datastream in sicurezza.
Quali sono le limitazioni sui dati che Datastream può elaborare?

Esistono limitazioni generali, limitazioni per le origini MySQL e limitazioni per le origini Oracle.

Le limitazioni generali includono:

  • Velocità effettiva: ~5 MBPS con un limite di dimensione massima di 3 MB.
  • Alcune operazioni di DDL (Data Definition Language) non sono supportate durante la replica, tra cui:
    • Eliminare una colonna dal centro di una tabella. Questo potrebbe causare una discrepanza di dati perché i valori sono associati alla colonna sbagliata.
    • Modifica del tipo di dati di una colonna. Ciò può causare una discrepanza dei dati perché i dati non sono mappati correttamente al tipo corretto di Stream Data e i dati potrebbero essere danneggiati.
    • Le eliminazioni di copertura vengono ignorate.
    • Il troncamento della tabella viene ignorato.

Le limitazioni MySQL non includono il backfill non supportato per le tabelle che non hanno una chiave primaria e sono superiori a 100 GB.

Le limitazioni per il furto d'uso includono:

  • Assistenza per le colonne:
    • Alcuni tipi di dati non sono supportati e vengono replicati con NULL valori. Questi tipi di dati includono tipi di dati astratti (ADT), ANYDATA, raccolte (VARRAY), BLOB/CLOB/LOB/NCLOB, LONG, UDT, UROWID e XMLType.
  • Funzionalità Oracle non supportate:
    • Tabelle esterne
    • Link al database (dblinks)
    • Tabelle solo indice (IOT)
    • Il sistema Oracle Label Security (OLS) non è replicato.
  • Il backfill non è supportato per le tabelle con dimensioni superiori a 100 GB.

Quali dati vengono inclusi in ogni evento generato da Datastream? Ogni evento generato (per inserimenti, aggiornamenti ed eliminazioni) include l'intera riga di dati dall'origine, con il tipo e il valore di ogni colonna. Ogni evento include anche dei metadati degli eventi che possono essere utilizzati per definire l'ordine e garantire la consegna esatta.
Datastream garantisce l'ordine? Nonostante Datastream non garantisca l'ordine, vengono forniti metadati aggiuntivi per ogni evento. Tali metadati possono essere utilizzati per garantire la coerenza finale nella destinazione. A seconda dell'origine, della frequenza e della frequenza delle modifiche e di altri parametri, in genere è possibile raggiungere la coerenza finale entro un'ora.
Lo stream di dati garantisce la consegna esatta? Lo stream di dati prevede la distribuzione "at least once". Puoi eliminare i dati duplicati utilizzando metadati aggiuntivi che Datastream scrive in ogni evento.
In che modo Datastream rappresenta i tipi di dati provenienti dall'origine per l'utilizzo nell'elaborazione a valle?

Lo stream di dati semplifica l'elaborazione dei dati tra le origini dati, semplificando la procedura standard di connessione in tutte le origini. Lo stream di dati utilizza il tipo di dati di origine originale (ad esempio un tipo di MySQL NUMERIC o un tipo di tipo NUMBER Oracle) e lo standardzza in un tipo unificato di Datastream.

I tipi unificati rappresentano un superset senza perdita di tutti i possibili tipi di origine e la normalizzazione consente di elaborare facilmente i dati provenienti da origini diverse e di eseguire query downstream in maniera indipendente dalla sorgente.

Se un sistema a valle deve conoscere il tipo di dati di origine, può farlo tramite una chiamata API al registro schema di Datastream. Questo registro memorizza gli schemi aggiornati alle versioni per ogni origine dati. L'API del Registro di sistema di schema consente anche una rapida risoluzione dei rifiuti degli schemi downstream perché gli schemi del database di origine cambiano.

In che modo viene modificata la struttura (schema) di Datastream nell'origine? Lo stream di dati monitora continuamente le modifiche alla struttura dei dati di origine. Gli schemi vengono memorizzati nel Registro di schema degli stream di dati e ogni evento fa riferimento allo schema al momento della sua generazione. In questo modo, Datastream o altri processi downstream possono tenere traccia delle modifiche apportate agli schemi in tempo reale e regolarle in base a tali modifiche, per assicurarti che tutti i dati siano trasmessi in streaming e caricati correttamente nella destinazione.

Sicurezza e connettività

Domanda Rispondi
Datastream è un servizio sicuro per i dati sensibili? Lo stream di dati supporta varie configurazioni di connettività private sicure per proteggere i dati in transito durante il trasferimento da un'origine a una destinazione. Una volta replicati, i dati vengono criptati per impostazione predefinita e sfruttano i controlli di sicurezza di Cloud Storage. Tutti i dati di cui è stato eseguito il buffering da Datastream vengono criptati.
Quali opzioni di connettività sono disponibili per il collegamento delle fonti a Datastream?

Esistono tre tipi di metodi di connettività che è possibile configurare:

  • IP allowlist: questo metodo offre la connettività pubblica autorizzando gli indirizzi IP regionali di Datastream nell'origine. Quando crei lo stream, Datastream mostra questi indirizzi IP nell'interfaccia utente.
  • Inoltra SSH SSH: questo metodo offre la connettività sicura sulle reti pubbliche grazie a un bastion SSH SSH configurato dal cliente oltre all'inserimento di indirizzi IP regionali.
  • Connettività privata sul peering VPC: utilizza questo metodo per connetterti ai database ospitati da Google Cloud sulla rete interna di Google Cloud oppure sfrutta una VPN o un'interconnessione esistente creando il peering VPC tra la rete privata di Datastream e quella di Google della tua organizzazione. VPC Cloud.
Come posso limitare il trattamento dei dati sensibili da Cloudstream?

Lo stream di dati consente di specificare gli elementi di dati specifici (schema, tabelle e colonne) dell'origine che vuoi trasmettere in streaming in una destinazione e quelli da escludere.

I log del database possono contenere dati di modifica degli elementi che sono stati esclusi nella definizione dello stream. Poiché non è possibile filtrare questi elementi all'origine, Datastream leggerà, ma ignora, tutti i dati associati agli elementi.

Elaborare i flussi di dati

Domanda Rispondi
Come vengono creati i file in Cloud Storage? Lo stream di dati crea una cartella per ogni tabella. In ogni cartella, Datastream ruota il file (o crea un nuovo file) ogni volta che raggiunge la soglia di dimensione o tempo definita dall'utente. Inoltre, lo strumento Ruota ruota il file ogni volta che viene rilevata una modifica dello schema. Il nome del file sarà composto da una chiave schema univoca (basata su un hash dello schema), seguita dal timestamp del primo evento nel file. Per motivi di sicurezza, questi nomi di file non sono destinati a essere letti o compresi dalle persone.
Se i dati in Cloud Storage non vengono ordinati, come possono essere riordinati prima di caricarli nella destinazione? Ogni evento contiene diversi campi di metadati che identificano in modo univoco la riga nel log di ripetizione di Oracle. In particolare:
  • rs_id, che in realtà è composto da tre valori, ad esempio 0x0073c9.000a4e4c.01d0. Il valore rs_id identifica in modo univoco il record nel log di ripetizione.
  • ssn, che viene utilizzato quando il record nel log di ripetizione è troppo lungo. Per questo motivo, Oracle LogMiner divide il record in più righe.
Per ordinare gli eventi, devi ordinare per ogni parte di rs_id, poi per ssn.
Se vengono creati più file per lo stesso timestamp, in quale ordine devono essere elaborati? Poiché l'ordine tra i file all'interno e tra file non è garantito, il modo migliore per determinare l'ordine di elaborazione dei file è recuperare tutti gli eventi per tutti i file per il timestamp specifico, quindi applicare l'ordine utilizzando il metodo indicato in precedenza.
Come vengono gestiti gli aggiornamenti chiave principali? L'evento contiene informazioni prima e dopo? Il campo dei metadati row_id identifica in modo univoco la riga che sta modificando. Per garantire l'integrità dei dati, consolida i dati in base al valore associato al campo row_id, anziché affidarti alla chiave primaria.

Monitorare lo stream di dati

Domanda Rispondi
Come faccio a sapere quando tutti i miei dati storici sono stati copiati nel bucket di Cloud Storage di destinazione? Datastream fornisce informazioni sullo stato attuale nei file di log. Viene creata una voce di log per indicare quando una tabella ha completato il backfill.

Prezzi

Domanda Rispondi
Qual è il prezzo di Datastream?

Il prezzo del flusso di dati si basa sul volume (GB) dei dati trasmessi in streaming dalla tua origine a una destinazione.

Per ulteriori informazioni sui prezzi dei dati per Datastream, consulta la sezione Prezzi.

Come vengono calcolate le dimensioni dei dati? La fatturazione viene calcolata in base alle dimensioni dei dati non elaborati (non compressi) trasmessi in streaming dalla origine alla destinazione. Lo stream di dati addebita solo i dati trasmessi in streaming alla destinazione.
Se utilizzi Datastream con Dataflow o Cloud Data Fusion, a che cosa paghi? I prezzi di ciascun servizio vengono addebitati separatamente.

Informazioni aggiuntive

Domanda Rispondi
Che cosa succede se ho ulteriori domande o problemi sull'utilizzo di Datastream? Il team di assistenza di Google può aiutarti in caso di problemi con l'utilizzo di Datastream. Inoltre, la guida alla risoluzione dei problemi gestisce i problemi comuni che puoi riscontrare durante l'utilizzo di Datastream.