Panoramica del plug-in Origine batch di SAP Table

Questa guida descrive come eseguire il deployment, configurare ed eseguire pipeline di dati che utilizzano il plug-in batch della tabella SAP.

Il plug-in Origine batch di SAP Table consente l'integrazione collettiva dei dati da applicazioni SAP con Cloud Data Fusion. Puoi configurare ed eseguire trasferimenti di dati collettivi da tabelle e viste SAP senza dover scrivere codice.

Consulta le domande frequenti per le applicazioni, le tabelle e le viste SAP supportate per l'estrazione. Per ulteriori informazioni su SAP su Google Cloud, consulta la panoramica di SAP su Google Cloud.

Obiettivi

  • Configurare il sistema SAP ERP (attivare DataSources in SAP).
  • Esegui il deployment del plug-in nel tuo ambiente Cloud Data Fusion.
  • Scarica il trasferimento SAP da Cloud Data Fusion e installalo in SAP.
  • Utilizza Cloud Data Fusion e SAP Table Batch Source per creare pipeline di dati per l'integrazione dei dati SAP.

Prima di iniziare

Per utilizzare questo plug-in, devi conoscere il dominio nelle seguenti aree:

  • Creazione di pipeline in Cloud Data Fusion
  • Gestione degli accessi con IAM
  • Configurazione di SAP Cloud e dei sistemi di pianificazione delle risorse aziendali on-premise

Ruoli utente

Le attività in questa pagina vengono eseguite dalle persone con i seguenti ruoli in Google Cloud o nel loro sistema SAP:

Tipo di utente Descrizione
Amministratore Google Cloud Gli utenti a cui è stato assegnato questo ruolo sono amministratori di account Google Cloud.
Utente Cloud Data Fusion Gli utenti a cui è stato assegnato questo ruolo sono autorizzati a progettare ed eseguire pipeline di dati. Viene concesso almeno il ruolo Visualizzatore Data Fusion ( roles/datafusion.viewer). Se utilizzi il controllo dell'accesso basato sui ruoli, potrebbero essere necessari ruoli aggiuntivi.
Amministratore SAP Gli utenti a cui è stato assegnato questo ruolo sono amministratori del sistema SAP. Hanno accesso per scaricare software dal sito del servizio SAP. Non è un ruolo IAM.
Utente SAP Gli utenti a cui è stato assegnato questo ruolo sono autorizzati a connettersi a un sistema SAP. Non è un ruolo IAM.

Configurazione del sistema SAP ERP

L'origine batch della tabella SAP utilizza un modulo funzione remota (RFM), che deve essere installato su ogni server SAP in cui vengono estratti i dati. Questa RFM viene fornita come trasporto SAP.

Per configurare il sistema SAP, segui questi passaggi:

  1. L'utente Cloud Data Fusion deve scaricare il file ZIP contenente il trasporto SAP e fornirlo all'amministratore SAP. Per il download, utilizza il link fornito con il plug-in nell'hub. Consulta la pagina Configurare Cloud Data Fusion.
  2. L'amministratore SAP deve importare il trasporto SAP nel sistema SAP e verificare gli oggetti creati. Per ulteriori informazioni sull'installazione, consulta l'installazione di SAP Transfer.

Installazione di SAP Transfer

I componenti SAP sono necessari per progettare ed eseguire pipeline di dati in Cloud Data Fusion. Vengono forniti come file di trasporto SAP archiviati come file ZIP (una richiesta di trasporto, composta da un cofile e un file di dati).

L'ID della richiesta di trasporto e i file associati sono forniti nella seguente tabella:

Tabella 2: trasporto SAP

ID trasporto Cofile File di dati
ABAK900043 K900043.ABA R900043.ABA

Dopo aver importato il trasporto nel sistema SAP, verifica la creazione del modulo della funzione abilitato per RFC, /GOOG/RFC_READ_TABLE.

Per installare SAP Transfer, procedi nel seguente modo:

Passaggio 1: carica i file di richiesta di trasporto

  1. Accedi al sistema SAP come amministratore di sistema SAP.
  2. Copia il cofile nella cartella /usr/sap/trans/cofiles.
  3. Copia il file di dati nella cartella /usr/sap/trans/data.

Passaggio 2: importa i file di richiesta di trasporto

L'amministratore SAP può importare i file delle richieste di trasporto utilizzando una delle seguenti opzioni:

Opzione 1: importa i file di richiesta di trasporto utilizzando il sistema di gestione dei trasporti SAP
  1. Accedi al sistema SAP come amministratore SAP.
  2. Inserisci la STMS di transazione.
  3. Fai clic su Panoramica > Importazioni.
  4. Fai doppio clic sul SID corrente nella colonna Coda.
  5. Fai clic su Extra > Altre richieste > Aggiungi.
  6. Seleziona l'ID richiesta di trasporto e fai clic su Continua.
  7. Seleziona la richiesta di trasporto nella coda di importazione, quindi fai clic su Richiedi > Importa.
  8. Inserisci il numero del cliente.
  9. Nella scheda Opzioni, seleziona Sovrascrivi originali e Ignora la versione del componente non valida (se disponibile).

    (Facoltativo) Per pianificare una reimportazione dei trasporti per un secondo momento, seleziona Lascia le richieste di trasporto in coda per l'importazione successiva e Importa di nuovo le richieste di trasporto. Questo è utile per gli upgrade di sistema SAP e i ripristini di backup.

  10. Fai clic su Continua.

  11. Per verificare l'importazione, utilizza qualsiasi transazione, ad esempio SE80 e SU01.

Opzione 2: importa i file di richiesta di trasporto a livello di sistema operativo
  1. Accedi al sistema SAP come amministratore di sistema SAP.
  2. Aggiungi le richieste appropriate al buffer di importazione eseguendo questo comando:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Ad esempio: tp addtobuffer IB1K903958 DD1

  3. Importa le richieste di trasporto eseguendo questo comando:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Sostituisci NNN con il numero del client. Ad esempio: tp import IB1K903958 DD1 client=800 U1238

  4. Verifica che il modulo funzione e i ruoli di autorizzazione siano stati importati correttamente utilizzando eventuali transazioni appropriate, come SE80 e SU01.

Autorizzazioni SAP obbligatorie

Per eseguire una pipeline di dati in Cloud Data Fusion, è necessario un utente SAP. L'utente SAP deve essere di tipo Communications o Dialog. Consigliamo di utilizzare il tipo Communications per evitare di utilizzare le risorse della finestra di dialogo SAP. Gli utenti possono essere creati utilizzando il codice transazione SU01 di SAP.

Per creare il ruolo di autorizzazione in SAP, segui questi passaggi:

  1. Nella GUI di SAP, inserisci il codice transazione PFCG per aprire la finestra Role Manutenzione.
  2. Nel campo Ruolo, inserisci un nome per il ruolo.

    Ad esempio: zcdf_role

  3. Fai clic su Ruolo singolo.

    Viene visualizzata la finestra Crea ruoli.

  4. Nel campo Descrizione, inserisci una descrizione e fai clic su Salva.

    Ad esempio: Authorizations for Cloud Data Fusion SAP Table plugin.

  5. Fai clic sulla scheda Autorizzazioni. Il titolo della finestra diventa Cambia ruoli.

  6. In Modifica dati di autorizzazione e generazione profili, fai clic su Modifica dati autorizzazione.

    Viene visualizzata la finestra Scegli modello.

  7. Fai clic su Non selezionare modelli.

    Viene visualizzata la finestra Modifica ruolo: autorizzazioni.

  8. Fai clic su Manualmente.

  9. Fornisci le autorizzazioni mostrate nella tabella Autorizzazione SAP seguente.

  10. Fai clic su Salva.

  11. Per attivare il ruolo di autorizzazione, fai clic sull'icona Genera.

Tabella 3: autorizzazioni SAP

Classe di oggetti Testo classe oggetto Oggetto di autorizzazione Testo oggetto autorizzazione Autorizzazione Testo Valore
AAA Oggetti di autorizzazione per più applicazioni S_RFC Oggetti di autorizzazione per più applicazioni RFC_TYPE Tipo di oggetto RFC a cui è consentito l'accesso FUNC
AAA Oggetti di autorizzazione per più applicazioni S_RFC Oggetti di autorizzazione per più applicazioni RFC_NAME Nome dell'oggetto RFC a cui è consentito l'accesso DDIF_FIELDINFO_GET,
RFCPING,
RFC_GET_FEATURE_INTERFACE,
/GOOG/RFC_READ_TABLE,
SAPTUNE_GET_SUMMARY_STATISTIC,
TH_WPINFO
AAA Oggetti di autorizzazione per più applicazioni S_RFC Oggetti di autorizzazione per più applicazioni ACTVT Attività 16
AAA Oggetti di autorizzazione per più applicazioni S_TCODE Controllo del codice transazione all'inizio della transazione TCD Codice transazione SM50
BC_A Base: amministrazione S_TABU_NAM Accesso alla tabella tramite strumenti standard generici ACTVT Attività 03
BC_A Base: amministrazione S_TABU_NAM Accesso alla tabella tramite strumenti standard generici TABELLA Nome tabella *
BC_A Base: amministrazione S_ADMI_FCD Autorizzazioni di sistema S_ADMI_FCD Funzione di amministrazione del sistema ST0R

Configurazione di Cloud Data Fusion

Assicurati che la comunicazione sia abilitata tra l'istanza Cloud Data Fusion e il server SAP. Assicurati di seguire i passaggi di peering di rete per le istanze private di Cloud Data Fusion.

Per configurare l'ambiente Cloud Data Fusion per il plug-in, procedi come segue:

  1. L'utente Cloud Data Fusion deve scaricare il plug-in Origine batch della tabella SAP dall'hub. Il plug-in è disponibile a partire dalla versione 6.3.0.

    1. (Facoltativo) Se hai creato un'istanza 6.3.0 prima del 22 marzo 2021, potresti non vedere il plug-in nell'hub. Per abilitarlo, esegui il comando seguente.

      Utilizza la variabile HUB_URLS per SAP Hub. Se utilizzi l'acceleratore Healthcare, includi la variabile HUB_URLS (vedi i commenti nel comando).

      # Enter values for these variables
      PROJECT=PROJECT_ID
      REGION=REGION_CODE
      INSTANCE=INSTANCE
      
      # Select one of the following HUB_URLS
      HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub"
      # HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub+https://storage.googleapis.com/b999ec76-9e36-457b-bf30-753cb13a8c98" # Uncomment this line if the Healthcare accelerator is enabled
      
      # Run these commands (NOTE: This restarts your instance after the update)
      curl -X PATCH -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE -d "{ 'options':{'market.base.urls':\"$HUB_URLS\"}}"
      sleep 300 # Wait for update operation to succeed
      curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE:restart
      
    2. Fai clic su HUB e seleziona la scheda SAP.

    3. Esegui il deployment del plug-in batch per la tabella SAP.

  2. Verifica che il plug-in sia visualizzato nella tavolozza nella sezione Origine.

  3. L'amministratore di SAP deve scaricare i seguenti artefatti di JCo dal sito di assistenza SAP e consegnarli all'amministratore di GCP.

    La versione minima di JCo supportata è 3.1.2.

    • Indipendente dalla piattaforma (sapjco3.jar)
    • Dipendente da una piattaforma (libsapjco3.so)

    Per scaricare i file:

    1. Vai a Connettori SAP.
    2. Fai clic su SAP Java Connector/Strumenti e servizi. Puoi trovare link specifici per la piattaforma per il download.
    3. Scegli la piattaforma su cui viene eseguita l'istanza CDF:
      1. Se utilizzi immagini Google Cloud standard per le VM nel tuo cluster (impostazione predefinita per Cloud Data Fusion), seleziona Linux per processori compatibili con Intel a 64 bit x86.
      2. Se utilizzi un'immagine personalizzata, seleziona la piattaforma corrispondente.
  4. L'amministratore di GCP deve copiare i file JCo in un bucket Cloud Storage leggibile. Fornisci il percorso del bucket all'utente Cloud Data Fusion.

  5. L'amministratore GCP deve concedere l'accesso in lettura per i due file all'account di servizio Cloud Data Fusion per l'ambiente di progettazione e all'account di servizio Dataproc per l'ambiente di esecuzione. Per ulteriori informazioni, vedi Account di servizio Cloud Data Fusion.

  6. Il percorso del bucket deve essere fornito nella proprietà del plug-in corrispondente. Percorso GCS della libreria SAP Co.

Configurazione del plug-in

Il plug-in Origine batch della tabella SAP legge i contenuti di una tabella o di una vista SAP (consulta la sezione Domande frequenti per ulteriori dettagli di supporto). Sono disponibili varie opzioni per filtrare i record.

Puoi configurare le seguenti proprietà per l'origine batch della tabella SAP.

Base

Nome di riferimento: nome utilizzato per identificare in modo univoco questa origine per il derivato, l'annotazione dei metadati e così via.
Client SAP: il client SAP da utilizzare (ad es. 100.
Lingua SAP: linguaggio di accesso SAP (ad es. EN.
Tipo di connessione: tipo di connessione SAP (diretto o bilanciato). La selezione di un tipo cambierà i seguenti campi disponibili:

Per collegamento diretto

SAP Application Server Host: il nome o l'indirizzo IP del server SAP.
Numero di sistema SAP: il numero di sistema SAP (ad es. 00.
Router SAP: la stringa del router.

Per connessione bilanciata del carico

SAP Message Server Host: il nome o l'indirizzo IP di SAP Message Host.
Servizio o numero di porta del messaggio del server SAP: numero del servizio o numero di porta del server dei messaggi SAP (ad es. sapms02.
ID sistema SAP (SID): l'ID sistema SAP (ad es. N75.
Nome gruppo di accesso SAP: il nome del gruppo di accesso SAP (ad es. PUBLIC.
Nome tabella/vista SAP: il nome tabella/vista SAP (ad es. MARA).

Pulsante Ottieni schema: il plug-in genera uno schema basato sui metadati da SAP, con mappatura automatica dei tipi di dati SAP ai tipi di dati Cloud Data Fusion corrispondenti (stessa funzionalità del pulsante Convalida).

Credenziali

SAP Logon Username (Nome utente accesso SAP): nome utente SAP. Consigliato: se il nome utente di accesso a SAP cambia periodicamente, utilizza una macro.
Password di accesso SAP: password utente SAP. Consigliato: utilizza le macro sicure per i valori sensibili come Password utente.

Dettagli su SAP JCo

ID progetto GCP: ID progetto Google Cloud, che identifica in modo univoco un progetto. Puoi trovarlo nella dashboard di Google Cloud Console.
Percorso GCS della libreria JCO SAP: il percorso Cloud Storage che contiene i file della libreria SAP JCo caricati dall'utente.

Avanzato

Opzioni di filtro: condizioni specificate nella sintassi OpenSQL che verranno utilizzate come condizioni di filtro nella clausola SQL WHERE (ad es. KEY6 LT '25'. I record possono essere estratti in base a condizioni come determinate colonne che hanno un insieme definito di valori o un intervallo di valori.

Numero di righe da recuperare: utilizza questa opzione per limitare il numero di record estratti. Inserisci un numero intero positivo. Se 0 o viene lasciato vuoto, estrae tutti i record dalla tabella specificata. Se viene fornito un valore positivo superiore al numero effettivo di record disponibili in base alle opzioni di filtro, vengono estratti solo i record disponibili.

Numero di suddivisioni da generare: utilizza questa opzione per creare partizioni per estrarre i record delle tabelle in parallelo. Inserisci un numero intero positivo. Il motore di runtime crea il numero specificato di partizioni (e connessioni SAP) durante l'estrazione dei record della tabella. Fai attenzione quando imposti questa proprietà su un numero maggiore di 16, poiché un parallelismo più elevato aumenta le connessioni simultanee con SAP. Sono consigliati valori compresi tra 8 e 16.

Se il valore è 0 o è vuoto, il sistema sceglie automaticamente un valore appropriato in base al numero di processi di lavoro SAP disponibili, ai record da estrarre e alle dimensioni del pacchetto.

Dimensioni pacchetto: il numero di record da estrarre in una singola chiamata di rete SAP. Indica il numero di record archiviati da SAP in ogni chiamata di estrazione di rete. La pipeline di dati in fase di estrazione può raggiungere il picco di utilizzo della memoria e causare errori dovuti a errori Out of Memory. Fai attenzione quando imposti questa proprietà.

Inserisci un numero intero positivo. Se 0 o è vuoto, il plug-in utilizza un valore standard di 70000 o un valore calcolato in modo appropriato se il numero di record da estrarre è inferiore a 70000.

Se la pipeline di dati non riesce con errori Out of Memory, riduci le dimensioni del pacchetto o aumenta la memoria disponibile per i processi di lavoro SAP.

Mappatura dei tipi di dati

Tabella 4: mappatura dei tipi di dati SAP con i tipi di dati Cloud Data Fusion

Tipo ABAP Descrizione (SAP) Tipo di dati Cloud Data Fusion
Numerica
b Numero intero a 1 byte (INT1) int
s Numero intero a 2 byte (INT2) int
i Numero intero a 4 byte (INT4) int
(int8)
8
Numero intero a 8 byte (INT8) long
p Numero in formato BCD (DEC) decimal
(decfloat16)
a
Decimale virgola mobile 8 byte IEEE 754r (DF16_DEC, DF16_RAW) decimal
(decfloat34)
e
Decimale virgola mobile 16 byte IEEE 754r (DF34_DEC, DF34_RAW) decimal
f Numero in virgola mobile binario (FLTP) double
Carattere
c Stringa di caratteri (CHAR/LCHR) string
string Stringa di caratteri (SSTRING, GEOM_EWKB) string
string Stringa di caratteri CLOB (STRING) bytes
n Testo numerico (NUMC/ACCP) string
Byte
x Dati binari (RAW/LRAW) bytes
xstring Stringa di byte BLOB (RAWSTRING) bytes
Data/ora
d Data (DATS) date
t Tempo (TIMS) time
utclong/utcl Timestamp timestamp

Convalida

Fai clic su Validate (Convalida) in alto a destra o su Get Schema (Ottieni schema).

Il plug-in genera uno schema basato sui metadati di SAP. Mappa automaticamente i tipi di dati SAP ai tipi di dati Cloud Data Fusion corrispondenti.

Esecuzione di una pipeline di dati

  1. Dopo aver eseguito il deployment della pipeline, fai clic su Configura nel riquadro centrale in alto.
  2. Seleziona Risorse.
  3. Se necessario, modifica Cellexe e Memoria in base alle dimensioni complessive e al numero di trasformazioni utilizzate nella pipeline.
  4. Fai clic su Salva.
  5. Per avviare la pipeline di dati, fai clic su Esegui.

Ottimizzazione del rendimento

Il plug-in utilizza le funzionalità di caricamento in contemporanea di Cloud Data Fusion. Le seguenti linee guida ti aiuteranno a configurare l'ambiente di runtime in modo da fornire risorse sufficienti al motore di runtime per raggiungere il grado di parallelismo e prestazioni previsti.

Configurazione SAP

Consigliato: utilizza un utente di comunicazione SAP anziché un utente di una conversazione (richiede meno risorse di sistema SAP). Inoltre, se il server dei messaggi è disponibile nel tuo ambiente, utilizza una connessione SAP con bilanciamento del carico anziché una connessione diretta.

Se specifichi i valori di Number of Splits e Package size, il plug-in potrebbe regolarli per non esaurire i processi di lavoro e la memoria di SAP disponibili. Ecco i limiti superiori delle risorse SAP utilizzate:

  • Il 50% dei processi di lavoro disponibili
  • 70% di memoria disponibile per ogni processo di lavoro

Configurazione del plug-in

Consigliato: lascia vuoti i campi Numero di suddivisioni da generare e Dimensioni pacchetto, a meno che tu non abbia familiarità con le impostazioni di memoria del sistema SAP. Per impostazione predefinita, questi valori vengono regolati automaticamente per migliorare il rendimento.

Utilizza le seguenti proprietà per garantire prestazioni ottimali quando esegui la pipeline:

  • Numero di suddivisioni da generare: questa opzione controlla direttamente il parallelismo sul lato Cloud Data Fusion. Il motore di runtime crea il numero specificato di partizioni (e connessioni SAP) durante l'estrazione dei record della tabella. I valori compresi tra 8 e 16 sono consigliati, ma possono aumentare fino a 30 o anche 64 con la configurazione appropriata sul lato SAP (allocando le risorse di memoria appropriate per i processi di lavoro in SAP).

    Se il valore è 0 o viene lasciato vuoto, il sistema sceglie automaticamente un valore appropriato in base al numero di processi di lavoro SAP disponibili, ai record da estrarre e alle dimensioni del pacchetto.

  • Dimensioni pacchetto: il numero di record da estrarre in una singola chiamata di rete SAP. Indica il numero di record archiviati da SAP in ogni chiamata di estrazione. Aumenta questo valore (dal valore predefinito di 70000) se il tuo sistema SAP alloca una memoria sufficiente per i processi di lavoro. Nella maggior parte delle configurazioni predefinite, puoi aumentare fino a 100000, ma le dimensioni più grandi potrebbero richiedere la riconfigurazione del sistema SAP.

Impostazioni delle risorse Cloud Data Fusion

Consigliato: utilizza 1 CPU e 4 GB di memoria per esecutore (questo valore si applica a ogni processo esecutore). Impostale nella finestra di dialogo Configura > risorse.

Impostazioni cluster Dataproc

Consigliato: come minimo, alloca un totale di CPU (tra worker) più grandi del numero previsto di suddivisioni (vedi la sezione Configurazione plug-in). Ad esempio, se hai 16 suddivisioni, definisci 20 o più CPU in totale, per tutti i worker (è previsto un sovraccarico di 4 CPU utilizzate per il coordinamento).

Domande frequenti

Quali sono i prodotti e le versioni SAP supportati?

Le origini supportate sono SAP ERP6/NW7.5 e SAP S4HANA 1909 e 2020.

Quali tipi di tabelle e viste SAP sono supportati per l'estrazione?

Il plug-in supporta tabelle e viste trasparenti SAP, visualizzazioni CDS e viste HANA.Gli oggetti vengono letti tramite il livello dell'applicazione SAP, non il livello del database. Le tabelle pool e cluster non sono supportate.

Esiste un limite al volume dei dati o alla larghezza dei record?

La larghezza della riga supportata è limitata a 30 kB. Non esiste un limite al numero di record estratti o alle dimensioni della tabella.

Qual è la velocità effettiva prevista per i plug-in?

Per un ambiente configurato correttamente, il plug-in può estrarre circa 9000 righe/sec da una tabella di medie dimensioni come EKKO e 6500 righe/sec da una tabella di grandi dimensioni come ACDOCA.

Come posso ottimizzare le prestazioni dell'estrazione?

Consulta Ottimizzazione del rendimento.

L'estrazione delta è supportata?

L'estrazione delta (dati dall'ultima esecuzione) non è supportata direttamente nel plug-in. Puoi definire le pipeline di dati che filtrano i record in base ai campi del timestamp nelle tabelle transazionali (ad es. il campo TIMESTAMP nella tabella ACDOCA, il campo AEDAT nella tabella EKKO). Utilizza la proprietà del plug-in Opzioni di filtro per indicare la condizione di filtro.

Esempio: TIMESTAMP >= '20210130100000' AND TIMESTAMP <= ' 20210226000000' (seleziona i record nella tabellaACDOCA con TIMESTAMP tra il 30 gennaio 2021 alle 10:00 UTC e il 26 febbraio 2021 alle 00:00 UTC).

Scenari di errore

In fase di esecuzione, il plug-in scrive le voci di log nel log della pipeline di dati di Cloud Data Fusion. Le voci contengono un prefisso CDF_SAP che semplifica l'identificazione.

In fase di progettazione, quando l'utente convalida le impostazioni del plug-in, i messaggi vengono visualizzati nell'area Proprietà, evidenziata in rosso. Alcuni messaggi specifici di convalida delle proprietà vengono visualizzati immediatamente sotto la casella delle proprietà utente, evidenziata in rosso. Questi messaggi di errore di convalida della proprietà non hanno un ID messaggio specifico.

Esempio di messaggio di errore generico:

Messaggio di errore

La tabella seguente elenca alcuni messaggi di errore comuni (il testo segnaposto viene sostituito dai valori effettivi al momento dell'esecuzione):

ID messaggio Messaggio Azione consigliata
N/D (UI) Required property UI_CONNECTION_PROPERTY_LABEL for connection type UI_CONNECTION_TYPE_RADIO_OPTION. Inserisci un valore effettivo o una variabile macro.
N/D (UI) Invalid value for property UI_ADVANCED_OPTIONAL_PROPERTY_LABEL. Inserisci un numero intero non negativo (0 o maggiore, senza numero decimale) o variabile macro.
CDF_SAP_01412 One or more SAP JCo library files are missing or of incompatible version. Assicurati che la libreria JCo richiesta (sapjco3.jar) e la libreria condivisa dipendente dal sistema operativo associata (ad esempio libsapjco3.so) corrispondano alla stessa versione e siano state caricate su Cloud Data Fusion come documentato nella guida dell'utente.
CDF_SAP_01500 Unable to retrieve SAP destination from Destination Manager. Cannot initiate connectivity test with SAP.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Verifica la causa principale visualizzata nel messaggio e intraprendi le azioni necessarie.
CDF_SAP_01404 SAP connection test failed. Please verify the connection parameters.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Verifica la causa principale visualizzata nel messaggio e intraprendi le azioni necessarie.
CDF_SAP_01512 Unable to retrieve JCo Repository from SAP Destination.
Root Cause: SAP_ERROR_CODE - SAP root cause message
Verifica la causa principale visualizzata nel messaggio e intraprendi le azioni necessarie.
CDF_SAP_01513 Unable to retrieve JCo Function for SAP_RFM_NAME from SAP Repository.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Verifica la causa principale visualizzata nel messaggio e intraprendi le azioni necessarie.
CDF_SAP_01501 Impossibile trovare RFM SAP_RFM_NAME. Verifica che la Transport Request appropriata sia importata in SAP.
CDF_SAP_01406 Error while executing RFM SAP_RFM_NAME.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Verifica che all'utente SAP siano assegnate le autorizzazioni appropriate.
CDF_SAP_01516 Table or View SAP_TABLE/VIEW_NAME could not be found. Assicurati che la tabella o la vista esista e sia attiva in SAP.
CDF_SAP_01517 SAP_TABLE/VIEW_NAME is not of type table or view. Assicurati che sia una tabella o una vista valida e non una struttura in SAP.
CDF_SAP_1532 Filter Options syntax is not valid. Verifica che la sintassi OpenSQL corretta sia seguita mentre fornisci le condizioni del filtro.
CDF_SAP_1534 Data buffer in SAP exceeded while extracting records from table/view SAP_TABLE/VIEW_NAME. Riduci le dimensioni del pacchetto e/o il numero di suddivisioni. In alternativa, avvisa l'amministratore di SAP per aumentare le risorse di memoria disponibili sul server SAP.
CDF_SAP_1403 User is not authorized to access SAP_TABLE/VIEW_NAME table/view data in SAP. Verifica che all'utente SAP sia assegnata l'autorizzazione di lettura appropriata su tabella/vista SAP.
CDF_SAP_1535 Query for the table/view AP_TABLE/VIEW_NAME failed to execute successfully. Verifica che nella condizione del filtro vengano utilizzati nomi di colonne validi.
CDF_SAP_01520 Failed to extract records #FROM_RECORD_INDEX to #TO_RECORD_INDEX, even after MAX_RETRY_COUNT retries. Errore di comunicazione con SAP Server. Verifica la connettività di rete e l'accessibilità di SAP Server da Cloud Data Fusion.

Passaggi successivi