Questa pagina mostra come risolvere i problemi relativi a Cloud Data Fusion in altri job di replica.
Eccezione: impossibile creare il bucket di staging
Se la convenzione di denominazione dei bucket viene violata, il job di replica potrebbe non riuscire con il seguente errore nel log della pipeline:
Caused by: java.io.IOException: Unable to create staging bucket
BUCKET_NAME in project PROJECT_NAME.
Se vuoi, puoi fornire il nome del bucket di staging. Se non viene specificato, il valore il job di replica ne genera uno aggiungendo un suffisso al job nome. In alcuni casi, puoi utilizzare un nome job più breve per risolvere il problema. Per ulteriori informazioni, consulta Nomi dei bucket.
Valore CONVERT_TO_NULL
di MySQL non presente nell'insieme
Se utilizzi una versione precedente di MySQL Connector/J, ad esempio la versione 5, il job di replica non va a buon fine e restituisce il seguente errore:
The connection property 'zeroDateTimeBehavior' only accepts values of the form:
'exception', 'round' or 'convertToNull'. The value 'CONVERT_TO_NULL' is not in
this set.
I valori accettati per zeroDateTimeBehavior
sono incompatibili tra le diverse versioni di MySQL Connector/J.
Per risolvere questo problema, utilizza MySQL Connector/J versione 8 o successive.
Replica e database SQL Server sempre attivi
Un'origine Microsoft SQL Server può acquisire le modifiche da una replica di sola lettura Always On. Per questa configurazione, devi passare l'argomento runtime
source.connector.database.applicationIntent=ReadOnly
alla
di replica. Senza questo argomento di runtime, il job ha esito negativo con
il seguente errore:
Producer failure
java.lang.RuntimeException: com.microsoft.sqlserver.jdbc.SQLServerException:
Failed to update database "DATABASE_NAME" because the database is read-only.
Per risolvere il problema, impostasource.connector.database.applicationIntent=ReadOnly
come argomento di runtime.
Questa operazione imposta internamente il valore snapshot.isolation.mode
su snapshot
.
Errore di replica nel cluster statico Dataproc
Quando esegui un job di replica, la connessione SSL
I nodi del cluster Dataproc potrebbero generare errori
java.lang.NullPointerException
o Connection reset
errore:
ERROR [SparkRunnerphase-1:i.c.c.i.a.r.ProgramControllerServiceAdapter@93] -
Spark program 'phase-1' failed with error: The driver could not establish a
secure connection to SQL Server by using Secure Sockets Layer (SSL) encryption.
Error: "Connection reset ClientConnectionId:ID"
Questo errore si verifica a causa del fornitore SSL Conscrypt configurato per l'utilizzo nella versione JDK installata su Dataproc.
Per risolvere il problema, utilizza il provider SSL predefinito per Java JDK disattivando il provider SSL Conscrypt. Per disattivare il provider SSL Conscrypt, imposta la seguente proprietà del cluster quando avvii il cluster Dataproc:
--properties dataproc:dataproc.conscrypt.provider.enable=false
La replica per SQL Server non replica tutte le colonne per le tabelle modificate
Quando replichi i dati da una tabella in SQL Server, se la tabella di origine della replica contiene una colonna appena aggiunta, questa non viene aggiunta automaticamente alla tabella Change Data Capture (CDC). Devi aggiungerlo manualmente alla tabella CDC sottostante.
Per risolvere il problema, segui questi passaggi:
Disattiva l'istanza CDC:
EXEC sp_cdc_disable_table @source_schema = N'dbo', @source_name = N'myTable', @capture_instance = 'dbo_myTable' GO
Riattiva l'istanza CDC:
EXEC sp_cdc_enable_table @source_schema = N'dbo', @source_name = N'myTable', @role_name = NULL, @capture_instance = 'dbo_myTable' GO
Crea un nuovo job di replica.
Per ulteriori informazioni, consulta Gestione delle modifiche alle tabelle di origine.
Errori relativi a ruoli ed autorizzazioni
Si verificano i seguenti problemi con il controllo dell'accesso.
Problema di autorizzazione dell'account di servizio Cloud Data Fusion
Durante l'esecuzione di un job di replica utilizzando il database Oracle, il recupero un elenco di tabelle potrebbe non riuscire e restituire il seguente errore:
Error io.grpc.StatusRuntimeException: PERMISSION_DENIED: Permission
'datastream.streams.get' denied on 'projects/PROJECT_NAME/locations/REGION/streams/STREAM_NAME'
Quando esegui un job di replica con un database Oracle,
Cloud Data Fusion utilizza il servizio Datastream nel backend.
Per ottenere le autorizzazioni necessarie per utilizzare il servizio Datastream,
chiedi all'amministratore di concederti
Amministratore Datastream
(roles/datastream.admin
) Ruolo IAM nell'account di servizio Cloud Data Fusion.
L'autorizzazione per visualizzare la funzionalità di rilevamento dei dati modificati non è stata concessa
Durante la replica dei dati da SQL Server, potresti visualizzare il seguente errore nel log della pipeline:
No whitelisted table has enabled CDC, whitelisted table list does not contain any
table with CDC enabled or no table match the white/blacklist filter(s)
Questo problema si verifica se l'utente specificato nelle proprietà di connessione di origine
non dispone delle autorizzazioni per visualizzare il monitoraggio dei dati modificati (CDC) per la tabella
replicata. Questo è controllato dal parametro role_name
quando
abilitare CDC nella tabella, utilizzando sys.sp_cdc_enable_table
.
Per ulteriori informazioni sulla concessione delle autorizzazioni necessarie per visualizzare la CDC, consulta Abilita CDC nella tabella e sys.sp_cdc_enable_table.
Problema di autorizzazione per Tipo definito dall'utente
Se l'utente del database utilizzato dal job di replica non ha autorizzazioni per l'opzione definita dall'utente (UDT), potrebbe essere visualizzato il seguente errore nel log della pipeline:
java.lang.IllegalArgumentException: The primary key cannot reference a non-existent
column'oid' in table TABLE_NAME
In questo messaggio di errore, la colonna oid
potrebbe essere un UDT.
Per risolvere il problema, concedi l'accesso all'utente eseguendo il seguente comando nel database:
GRANT EXECUTE ON TYPE::UDT_NAME to YOUR_USER
L'agente SQL Server non è in esecuzione
Se l'agente SQL Server non è in esecuzione, potresti vedere quanto segue nel log della pipeline:
No maximum LSN recorded in the database; please ensure that the SQL Server Agent
is running [io.debezium.connector.sqlserver.SqlServerStreamingChangeEventSource]
Per risolvere il problema, avvia l'agente SQL Server. Per ulteriori informazioni, consulta la seguente documentazione a seconda del sistema operativo in uso:
- Windows: avvia il browser SQL Server o un'istanza dell'agente SQL Server
- Linux: Abilita l'agente SQL Server
La versione della pipeline di replica SQL Server non è la più recente
Se la versione della pipeline di replica SQL Server non è più recente, nel log della pipeline viene visualizzato il seguente errore:
Method io/cdap/delta/sqlserver/SqlServerDeltaSource.configure(Lio/cdap/delta/api/SourceConfigurer;) is abstract
Questo errore si verifica se una versione precedente del plug-in del codice sorgente lavorare con una versione relativamente nuova dell'app delta. In questi casi, il nuovo definita dalla nuova versione dell'app delta non sia implementata.
Per risolvere il problema, procedi nel seguente modo:
Recupera le informazioni sul job di replica inviando una richiesta HTTP GET:
GET v3/namespaces/NAMESPACE_ID/apps/REPLICATOR_NAME
Per ulteriori informazioni, consulta Visualizzare i dettagli del job di replica.
Controlla le versioni del plug-in e dell'app delta utilizzate dal compito di replica.
Recupera l'elenco degli artefatti disponibili inviando una richiesta HTTP GET:
GET /v3/namespaces/NAMESPACE_ID/artifacts
Per ulteriori informazioni, consulta Elenco degli elementi disponibili.
Cluster Dataproc statico con ambito di autenticazione insufficiente
Se utilizzi un cluster Dataproc statico creato con un ambito di autenticazione insufficiente, potresti visualizzare il seguente errore nella log della pipeline:
ERROR [worker-DeltaWorker-0:i.c.c.i.a.r.ProgramControllerServiceAdapter@92] - Worker
Program 'DeltaWorker' failed.
Caused by: io.grpc.StatusRuntimeException: PERMISSION_DENIED: Request had
insufficient authentication scopes.
Per risolvere il problema,
crea un nuovo cluster Dataproc statico
e abilita l'ambito cloud-platform
per questo cluster nello stesso progetto.