Lo stream potrebbe generare errori durante il runtime.
- Alcuni errori, ad esempio una password errata nel database di origine, sono recuperabili, il che significa che possono essere corretti e lo stream riprende automaticamente.
- Gli errori possono influire su un singolo oggetto, ad esempio un evento contenente tipi di dati non supportati. Altri errori possono influire su più oggetti o sull'intero flusso, ad esempio quando Datastream non riesce a connettersi al database di origine.
- A seconda dell'errore, le informazioni vengono fornite nelle pagine Stream o Dettagli stream dell'interfaccia utente di Datastream. Puoi anche utilizzare le API di Datastream per recuperare informazioni sull'errore.
Per risolvere un errore, vai allo stream per visualizzarlo e segui i passaggi descritti nel messaggio di errore.
Questa pagina contiene informazioni su errori di configurazione, connettività, Oracle e MySQL, nonché passaggi per la risoluzione dei problemi.
Errori di configurazione e connettività
Errore | Passaggi per la risoluzione dei problemi |
---|---|
Errore di connessione al database di origine (generico). | Questo può accadere per vari motivi. Per risolvere l'errore:
Lo stream riprende automaticamente. |
Errore durante la connessione al database di origine (inserimento nella lista consentita di indirizzi IP). | Ciò può accadere se il metodo di connettività scelto è Lista consentita IP, ma uno o più indirizzi IP in uscita di Datastream non sono aggiunti correttamente nel database di origine. Assicurati che gli indirizzi IP in uscita visualizzati nel profilo di connessione Datastream siano configurati sul firewall di rete in modo che il server di database di origine possa accettare connessioni da questi indirizzi IP. Una volta risolto il problema, lo stream riprende automaticamente. |
Errore di connessione al database di origine (tunnel SSH di forwarding). | Ciò può verificarsi se si verifica un problema con il tunnel SSH di forwarding. Controlla lo stato del tunnel. Se il tunnel è arrestato, deve essere avviato. Una volta risolto il problema, lo stream riprende automaticamente. |
Datastream non può connettersi a un bastion host tramite un tunnel SSH di forwarding. | Verifica che la configurazione del tunnel SSH per il forwarding sia corretta nel profilo di connessione di origine e che la porta sul server del tunnel SSH sia aperta. |
Errore di connessione al database di origine a causa di certificati non validi. | Ciò può accadere se si verifica un problema con i certificati forniti durante la definizione del profilo di connessione di origine. Vai alla pagina Profili di connessione e seleziona il profilo di connessione specificato. Verifica che i certificati siano configurati correttamente. Dopo aver apportato le modifiche, salva il profilo di connessione e lo stream riprende automaticamente. |
Errore durante l'utilizzo della connettività privata per connettersi al database di origine. | Questo errore riguarda il metodo di connettività privata del peering VPC.
|
Errore durante l'utilizzo dell'interfaccia Private Service Connect per connettersi al database di origine. |
|
Il tipo di connettività STATIC_SERVICE_IP_CONNECTIVITY non è consentito quando i vincoli dei criteri dell'organizzazione/datastream.disablePublicConnectivity sono attivi. | Hai selezionato i metodi di connettività di rete lista consentita di IP pubblici o tunnel SSH di forwarding per il profilo di connessione che stai creando. Tuttavia, è abilitato il criterio dell'organizzazione Blocca metodi di connettività pubblica per Datastream. Pertanto, non puoi selezionare metodi di connettività pubblici per il profilo di connessione. Per risolvere questo problema, seleziona il metodo di connettività di rete peering VPC o interfacce Private Service Connect privato oppure disattiva il criterio dell'organizzazione. Per disattivare il criterio dell'organizzazione:
|
Quando configuro il database di origine per il mio flusso, non riesco a trovare le tabelle e gli schemi che voglio trasferire nell'elenco degli oggetti da includere. | Ciò può accadere se il database contiene migliaia di tabelle e schemi. Alcuni potrebbero non essere inclusi nell'elenco degli oggetti da estrarre durante la configurazione dell'origine per lo stream nella console Google Cloud . Anziché selezionare Schemi e tabelle specifici nella sezione Seleziona oggetti da includere, seleziona Personalizzato. Nel campo Criteri di corrispondenza degli oggetti, inserisci gli schemi e le tabelle che vuoi che Datastream estragga. |
Ho aggiunto più tabelle al mio stream utilizzando il menu Oggetti da includere. Tuttavia, quando esamino la scheda Oggetti in Dettagli stream, noto che mancano alcune tabelle. | Assicurati che ci sia almeno un aggiornamento CDC per ciascuna di queste tabelle in modo che Datastream possa riconoscere le modifiche e includere automaticamente le tabelle nel flusso. |
Errore durante il caricamento dell'elenco di oggetti quando utilizzi il menu Oggetti da includere nella console Google Cloud . | Ciò può accadere se il tuo database ha più di 5000 schemi e tabelle. Utilizza un metodo diverso per specificare gli oggetti da includere oppure utilizza l'API Datastream. Per ulteriori informazioni, consulta Configurare i database di origine. |
Eventi eliminati durante lo streaming e non replicati nella destinazione. | Datastream potrebbe eliminare gli eventi non supportati durante lo streaming. Per risolvere il problema, puoi eseguire le seguenti azioni:
|
Timeout durante il tentativo di connessione all'origine dati. Assicurati che il nome host e la configurazione della porta siano accurati e che l'origine dati sia accessibile. | Poiché non è possibile eseguire il peering diretto della rete Datastream con una rete di servizi privati (ad esempio un'istanza Cloud SQL) quando si utilizza il peering VPC, devi utilizzare una VM di Network Address Translation (NAT) per stabilire la connettività tra Datastream e la tua risorsa. Per saperne di più su come configurare una VM NAT, consulta Configura il peering VPC. |
Lo schema dell'oggetto OBJECT_NAME è troppo grande per essere elaborato da Datastream. | Datastream non supporta la replica di eventi con schemi di origine corrispondenti più grandi di 2.621.440 caratteri Unicode. Questi eventi vengono eliminati con il seguente codice motivo: UNSUPPORTED_LARGE_SCHEMA . Potresti voler escludere alcune colonne o rinominarle. In alternativa, puoi escludere l'oggetto con lo schema di grandi dimensioni. |
Lo stato dello stream è cambiato. | Sebbene possa esserci più di un motivo per cui si verifica questo errore, un problema sottostante comune è la configurazione di origine non valida. Se lo stream non viene avviato e viene visualizzato questo messaggio di errore, controlla la configurazione dell'origine per verificare la presenza di chiavi o nomi di tabelle duplicati, incoerenze dei dati o conflitti di schema. Molti problemi possono essere risolti modificando le impostazioni del flusso non riuscito direttamente nella console Google Cloud e modificando le voci per gli oggetti inclusi ed esclusi. Per ulteriori informazioni, vedi Modificare le informazioni di configurazione sul database di origine. |
Errori Oracle
Errore | Passaggi per la risoluzione dei problemi |
---|---|
Il logging supplementare è configurato in modo errato nel database di origine. | Un errore durante il recupero dei dati CDC (Change Data Capture) in corso può verificarsi se la configurazione del logging supplementare non è corretta nel database di origine. Verifica che il logging supplementare sia configurato correttamente. In particolare, verifica che il logging supplementare sia attivato per le tabelle del database di cui viene eseguito lo streaming dall'origine alla destinazione. Lo stream riprende automaticamente. |
Impossibile riprendere la replica perché la posizione del log è andata persa. | Questo errore può verificarsi quando il processo di replica viene sospeso per un lungo periodo di tempo, il che causa la perdita della posizione del log. I flussi non devono essere sospesi per periodi di tempo che si avvicinano al periodo di conservazione dei log. Ricrea lo stream. |
I file di log sono mancanti, parzialmente o completamente. | I file di log potrebbero essere stati eliminati. Oracle elimina i file di log non appena
può, a meno che tu non specifichi un periodo di rotazione minimo per conservarli.
Nel server Oracle, imposta per quanto tempo devono essere conservati i file di log. Ad esempio, utilizza
Per un deployment RDS, utilizza |
L'elenco di esclusione include l'elenco di inclusione. | L'elenco di inclusione è totalmente contenuto nell'elenco di esclusione, quindi l'elenco di oggetti che Datastream estrae dall'origine è vuoto. Modifica la selezione degli oggetti e riprova. |
La modalità di logging per il database Oracle non è impostata su ARCHIVELOG. | Cambia la modalità di logging e riprova. |
Datastream restituisce un messaggio di errore ORA-00942: table or view does not exist , ma tutto è configurato correttamente. |
Ciò può essere il risultato della memorizzazione nella cache sul server Oracle. La ricreazione dell'utente del database dovrebbe risolvere il problema di memorizzazione nella cache. |
Le modifiche a un'origine Oracle non vengono riflesse nella destinazione quando lo stream è già in esecuzione. | Se utilizzi LogMiner come metodo CDC, Datastream legge i redo log archiviati. In questo caso, le modifiche apportate all'origine non vengono applicate alla destinazione finché il log non viene archiviato. Per visualizzare le modifiche nella destinazione, modifica il metodo CDC in lettore di log binari, modifica le norme di archiviazione dei log o forza manualmente un cambio di log. Per ulteriori informazioni, vedi Utilizzo dei file di log di ripetizione del database Oracle. |
La convalida della configurazione CDC di Oracle non è riuscita. | Hai selezionato un metodo CDC per il quale non è stato configurato il database di origine. Seleziona un metodo diverso o completa la configurazione per il metodo CDC. Per maggiori dettagli, vedi Configurare un database Oracle di origine. |
Si è verificato un errore interno imprevisto. | Per maggiori dettagli, contatta l'Assistenza Google. |
Errori MySQL
Errore | Passaggi per la risoluzione dei problemi |
---|---|
Binlog è configurato in modo errato nel database di origine. | Ciò può verificarsi per i flussi MySQL continui se la configurazione binlog non è corretta nel database di origine. Per risolvere l'errore, esegui le seguenti azioni:
|
Impossibile riprendere la replica perché la posizione del binlog è andata persa. | Questo errore può verificarsi quando il processo di replica viene sospeso per un lungo periodo di tempo, il che causa la perdita della posizione binlog. I flussi non devono essere messi in pausa per periodi di tempo che si avvicinano al periodo di conservazione dei log binari. Ricrea lo stream. |
Errore durante l'esecuzione dello stream a causa di versioni del database di origine e di destinazione incompatibili. | Ciò può accadere quando il database di origine non rispetta la matrice di supporto delle versioni. Per risolvere l'errore, esegui le seguenti azioni:
|
I binlog di origine AWS RDS MySQL sono mancanti, parzialmente o completamente. | I binlog potrebbero essere stati eliminati. AWS RDS elimina i binlog non appena
possibile, a meno che tu non specifichi un periodo di rotazione minimo per conservarli.
Nell'istanza AWS RDS MySQL di origine,
imposta per quante ore devono essere conservati i binlog. Ad esempio, utilizza
mysql.rds_set_configuration('binlog retention hours', 168);
per conservare i binlog per almeno 7 giorni. |
L'elenco di esclusione include l'elenco di inclusione. | L'elenco di inclusione è totalmente contenuto nell'elenco di esclusione, quindi l'elenco di oggetti che Datastream estrae dall'origine è vuoto. Modifica la selezione degli oggetti e riprova. |
Datastream non può replicare un database MySQL. | Assicurati che Datastream disponga delle autorizzazioni per replicare il database. |
Quando crei un profilo di connessione per un'origine MySQL, non vengono accettati più certificati SSL codificati in formato PEM nel menu Tipo di crittografia. | Datastream non supporta le catene di certificati SSL nei profili di connessione MySQL. Sono supportati solo i certificati singoli con codifica PEM x509. |
Latenza elevata durante lo streaming da un'origine MySQL. | Aumenta la capacità di Datastream di leggere dal database di origine:
|
La convalida della configurazione CDC di MySQL non è riuscita. | Il database di origine non è stato configurato per il metodo CDC selezionato. Seleziona un metodo diverso o completa la configurazione per il metodo CDC. Per maggiori dettagli, vedi Configurare un database MySQL di origine. |
Si è verificato un errore interno imprevisto. | Per maggiori dettagli, contatta l'Assistenza Google. |
Errori PostgreSQL
Errore | Passaggi per la risoluzione dei problemi |
---|---|
La decodifica logica è configurata in modo errato sul database di origine. | Verifica che la decodifica logica sia configurata correttamente. Consulta Configurare un database PostgreSQL di origine. |
Lo slot di replica non esiste. | Si può verificare un errore durante il recupero dei dati CDC (Change Data Capture) in corso se lo slot di replica non esiste nel database. Verifica che lo slot di replica sia configurato correttamente. Consulta Configurare un database PostgreSQL di origine. |
Lo slot di replica è configurato con un plug-in errato. | Questo errore può verificarsi se lo slot di replica è configurato con un plug-in diverso da pgoutput . Verifica che lo slot di replica sia configurato correttamente. Per saperne di più, consulta Database PostgreSQL di origine. |
Lo slot di replica è attivo in un altro processo. | Questo errore può verificarsi quando lo slot di replica viene utilizzato da un altro processo. Gli slot di replica possono essere utilizzati da un solo processo alla volta. Assicurati di non utilizzare lo stesso slot di replica in nessun altro processo, ad eccezione di Datastream. |
La pubblicazione non è configurata correttamente. | Questo errore può verificarsi quando la pubblicazione non è configurata per esporre le tabelle incluse nella configurazione dello stream. Verifica che la pubblicazione sia configurata correttamente. Consulta Configurare le informazioni sul database di origine per lo stream. |
La pubblicazione non esiste. | Questo errore può verificarsi se la pubblicazione non esiste nel database. Verifica che la pubblicazione sia configurata correttamente. Consulta Configurare un database PostgreSQL di origine. |
Impossibile riprendere la replica perché i file WAL sono andati persi. | Questo errore può verificarsi quando il processo di replica viene sospeso per un lungo periodo di tempo, causando la perdita dei file WAL. I flussi non devono essere messi in pausa per periodi di tempo che si avvicinano al periodo di conservazione dei file WAL. Ricrea lo stream. |
L'elenco di esclusione include l'elenco di inclusione. | L'elenco di inclusione è totalmente contenuto nell'elenco di esclusione, quindi l'elenco di oggetti che Datastream estrae dall'origine è vuoto. Modifica la selezione degli oggetti e riprova. |
Datastream non può replicare uno schema PostgreSQL. | Assicurati che Datastream disponga delle autorizzazioni per replicare lo schema. |
Le transazioni di grandi dimensioni nel database di origine causano problemi di replica e sincronizzazione dei dati. | Se inserisci, aggiorni o elimini un numero significativo di record nel database di origine, lo slot di replica potrebbe essere sovraccarico degli eventi corrispondenti. Datastream ha bisogno di tempo per leggere ed elaborare questi eventi. Poiché gli slot di replica PostgreSQL sono single-thread, l'elaborazione di altre modifiche nello slot di replica, incluse le modifiche ai dati in altre tabelle, viene ritardata finché Datastream non recupera tutte le modifiche nello slot di replica. |
Le transazioni di grandi dimensioni sul database di origine causano una bassa velocità effettiva di CDC. | Datastream non supporta CDC multithread in PostgreSQL. Per superare questa limitazione e aumentare la velocità effettiva di CDC, puoi dividere l'origine in più flussi, ognuno con il proprio slot di pubblicazione e replica. Ad esempio, potresti voler creare uno stream per la tabella più grande del database e un altro per tutte le altre tabelle oppure uno stream per le tabelle di massima priorità e un altro per le rimanenti. I casi d'uso possono variare, quindi devi valutare cosa è più sensato nel tuo scenario CDC specifico. Per informazioni sulla creazione di una pubblicazione, consulta Configurare un database PostgreSQL di origine. |
Eventi non supportati eliminati con codice motivo: BIGQUERY_TOO_MANY_PRIMARY_KEYS . |
Quando l'identità di replica PostgreSQL per una tabella è impostata su FULL , Datastream considera tutte le colonne di questa tabella come chiavi primarie. Se nella tabella sono presenti più di 16 colonne, viene violata la limitazione CDC di BigQuery e viene generato l'errore. Per risolvere il problema, completa i seguenti passaggi:
|
Si è verificato un errore interno imprevisto. | Per maggiori dettagli, contatta l'Assistenza Google. |
Errori di SQL Server
Errore | Passaggi per la risoluzione dei problemi |
---|---|
La tecnologia CDC è disabilitata per il database DATABASE_NAME. | Change Data Capture (CDC) deve essere abilitato per il database. Datastream ha bisogno dell'accesso in lettura diretto ai log delle transazioni per replicare le modifiche in tempo reale al database di origine e per ottenere informazioni complete sui log. Abilita CDC per il database e riprova. Per informazioni sull'abilitazione di CDC per un database, consulta Configurare un database SQL Server di origine. |
Tabelle con CDC disabilitata. | Change Data Capture (CDC) deve essere abilitato per tutte le tabelle incluse nello stream. Datastream ha bisogno dell'accesso in lettura diretto ai log delle transazioni per replicare le modifiche in tempo reale alle tabelle di origine e per ottenere informazioni complete sui log. Abilita CDC per le tabelle incluse nello stream e riprova. Per informazioni sull'attivazione di CDC per le tabelle di origine, consulta Configura un database SQL Server di origine. |
Autorizzazioni mancanti. | Datastream non dispone delle autorizzazioni necessarie per leggere dall'origine. Concedi i privilegi appropriati all'account utente utilizzato per la connessione al tuo database e riprova. |
La versione SQL Server EDITION_NAME non è supportata. | Datastream non supporta questa versione di SQL Server. Per ulteriori informazioni sulle versioni supportate di SQL Server, consulta la panoramica di SQL Server come origine. |
La versione SQL Server VERSION_NAME dell'edizione Standard non è supportata. | Datastream non supporta questa versione di SQL Server Standard Edition. Per ulteriori informazioni sulle versioni supportate di SQL Server, consulta la panoramica di SQL Server come origine. |
Il flusso non è in grado di leggere l'evento nell'LSN "YOUR_LSN" perché il log delle transazioni sembra essere troncato. | Questo problema può verificarsi quando i log delle transazioni non esistono più nel database di origine. Quando replichi i dati da un'origine SQL Server utilizzando il metodo CDC dei log delle transazioni, i log potrebbero essere troncati prima che Datastream li legga. In questo caso, Datastream non può replicare in modo affidabile il database di origine nella destinazione. Per risolvere il problema, recupera lo stream o valuta la possibilità di utilizzare il metodo CDC delle tabelle delle modifiche. Per ulteriori informazioni sulle differenze tra i due metodi, consulta la panoramica di SQL Server come origine. |
Configurazione CDC di SQL Server: non riuscita. | Il metodo CDC che hai selezionato non è conforme alla configurazione del database. Modifica il metodo CDC e riprova. |
Errori di Salesforce
Errore | Passaggi per la risoluzione dei problemi |
---|---|
Autorizzazioni insufficienti. | L'utente dell'app connessa o dell'app client esterna che hai configurato per autenticare la connessione tra la tua organizzazione Salesforce e Datastream non dispone di autorizzazioni sufficienti per accedere ai dati che vuoi replicare. Assicurati di aver configurato correttamente l'origine Salesforce. Per maggiori informazioni, vedi Configurare un'origine Salesforce. |
API Bulk 2.0 disabilitata. | L'API Bulk 2.0 è abilitata per impostazione predefinita per le versioni Performance, Unlimited, Enterprise e Developer. Questo messaggio di errore indica che l'API è disattivata nella tua edizione o che le credenziali che utilizzi non dispongono di autorizzazioni sufficienti. Assicurati che il profilo utente che utilizzi disponga dell'autorizzazione |
Limite superato. | Hai superato il limite di query dell'API Salesforce. Questo messaggio viene visualizzato quando raggiungi il 90% della quota limite dell'API. In questo caso, Datastream riprova a eseguire l'operazione in un secondo momento. Ti consigliamo di aumentare la quota dell'API Salesforce. |
Limite di eliminazioni superato. | Quando esegui una query per i record eliminati, Salesforce limita la risposta a 600.000 identificatori di record. La granularità di query più bassa in Salesforce è di un minuto e, se elimini più di 600.000 record in un minuto, Salesforce restituisce questo errore. |
Errore di autenticazione. | Datastream non può eseguire l'autenticazione con Salesforce. Probabilmente hai utilizzato credenziali o un nome di dominio errati. |
Errori MongoDB
Errore | Passaggi per la risoluzione dei problemi |
---|---|
Autenticazione non riuscita. | Verifica se authSource per l'utente
Datastream è admin . L'utente Datastream deve essere creato nel database admin . Questo database è un database privilegiato che
consente agli utenti di eseguire determinati
comandi amministrativi. |
Accesso al database non riuscito. | Controlla nome utente e password e riprova. Inoltre, assicurati che il tuo account utente sia stato creato nel database admin . Se il problema persiste, è possibile che il tuo account utente sia stato eliminato o creato in modo errato. |
L'elenco di oggetti esclusi non è valido: {exclude_list} . |
Specifica gli oggetti esclusi nel seguente formato: DATABASE_NAME.COLLECTION_NAME.FIELD_NAME.NESTED_FIELD_NAME con caratteri jolly facoltativi. Esempi validi: db.* , database.collection.* , database.*.field.* . |
Non abbiamo le autorizzazioni necessarie per leggere dall'origine. | Assegna il ruolo readAnyDatabase al tuo utente e riprova. |
La versione VERSION_NAME di MongoDB non è supportata. | Utilizza la versione 5.0 o successive. |
Datastream non è riuscito a eseguire il comando buildinfo per determinare la versione di MongoDB. |
Assicurati che l'utente disponga delle autorizzazioni necessarie per eseguire il comando buildinfo e riprova. Per ulteriori informazioni sulle autorizzazioni richieste, consulta Configurare un database MongoDB. |
La connessione al cluster MongoDB è scaduta. | Assicurati di aver fornito il nome host e le credenziali corretti, quindi riprova. |
Impossibile leggere i dati necessari a causa di autorizzazioni insufficienti. | Assegna il ruolo readAnyDatabase all'account utilizzato per connetterti al tuo cluster MongoDB, quindi riprova. |
L'account utente utilizzato per connettersi al cluster MongoDB non esiste. | Crea l'account utente e riprova. |
Impossibile connettersi utilizzando le informazioni fornite. | Verifica che venga utilizzato il formato di connessione corretto (SRV o Standard) e che siano incluse tutte le informazioni necessarie, ad esempio i nomi dei set di repliche per la stringa di connessione del set di repliche. Per saperne di più, consulta Creare un profilo di connessione per un database MongoDB. |
Si è verificata un'eccezione MongoDB. Messaggio di errore dell'origine: {source_error} . |
Se il messaggio di errore della sorgente non è chiaro, contatta l'Assistenza Google. |
Errori BigQuery
Errore | Passaggi per la risoluzione dei problemi |
---|---|
BIGQUERY_UNSUPPORTED_PRIMARY_KEY_CHANGE, details: Failed to write to BigQuery due to an unsupported primary key change: adding primary keys to existing tables is not supported. |
Se la chiave primaria cambia nell'origine, devi eliminare la tabella in BigQuery e avviare di nuovo il backfill. Si tratta di una limitazione di BigQuery, perché non è possibile garantire l'unione corretta dei nuovi eventi con le righe esistenti se la chiave primaria è diversa. Per ulteriori informazioni, vedi Configurare una destinazione BigQuery. |
La tabella BigQuery di destinazione contiene molti più record rispetto alla tabella di origine. | Ciò può accadere quando la tabella di origine non ha una chiave primaria. In questo caso, Datastream elabora la tabella in modalità di scrittura solo accodamento e ogni evento per una determinata riga viene visualizzato come riga separata in BigQuery. |
I dati vengono duplicati quando viene eseguito il backfill nella modalità di scrittura Solo aggiunta. | Quando selezioni la modalità di scrittura Solo accodamento per il flusso, i dati vengono accodati in BigQuery come flusso di eventi SELECT * FROM (SELECT *, row_number() OVER (PARTITION BY datastream_metadata.uuid) AS num FROM TABLE_NAME) WHERE num=1
|
Datastream è configurato per la modalità di scrittura unione, ma le modifiche non vengono unite in BigQuery. | Verifica che nella tabella di origine sia presente una chiave primaria. BigQuery ne ha bisogno per unire le modifiche nella tabella di destinazione. Se non è presente una chiave primaria, valuta la possibilità di aggiungerne una nella tabella di origine o di destinazione. Per aggiungere una chiave primaria nella tabella BigQuery di destinazione:
|
Impossibile aggiungere una chiave primaria, rimuovere una chiave primaria o modificare la definizione della chiave primaria per una tabella già replicata in BigQuery. | Per impostazione predefinita, Datastream non supporta l'aggiunta di una chiave primaria a una tabella già replicata in BigQuery senza una chiave primaria o la rimozione di una chiave primaria da una tabella replicata in BigQuery con una chiave primaria. Tuttavia, puoi modificare la definizione della chiave primaria per una tabella di origine replicata in BigQuery che ha già una chiave primaria:
|
Passaggi successivi
- Per scoprire come cercare potenziali problemi con il tuo stream, vedi Risolvere i problemi relativi a uno stream.
- Per scoprire come configurare il database di origine, consulta Origini.
- Per scoprire come configurare la destinazione BigQuery o Cloud Storage, consulta Destinazioni.