Questa guida descrive come eseguire il deployment, configurare ed eseguire pipeline di dati che utilizzano il plug-in SAP OData.
Puoi utilizzare SAP come origine per l'estrazione di dati basata su batch in Cloud Data Fusion utilizzando l'Open Data Protocol (OData). Il plug-in SAP OData consente di configurare ed eseguire dati da SAP OData Catalog Services senza programmazione.
Per ulteriori informazioni sui servizi e DataSources, consulta i dettagli dell'assistenza. Per ulteriori informazioni su SAP per Google Cloud, consulta Panoramica di SAP su Google Cloud.
Obiettivi
- Configurare il sistema SAP ERP (attivare DataSources in SAP).
- Esegui il deployment del plug-in nel tuo ambiente Cloud Data Fusion.
- Scarica il trasferimento SAP da Cloud Data Fusion e installalo in SAP.
- Utilizza Cloud Data Fusion e SAP OData per creare pipeline di dati per l'integrazione di dati SAP.
Prima di iniziare
Per utilizzare questo plug-in, devi conoscere il dominio nelle seguenti aree:
- Creazione di pipeline in Cloud Data Fusion
- Gestione degli accessi con IAM
- Configurazione di SAP Cloud e dei sistemi di pianificazione delle risorse aziendali on-premise
Ruoli utente
Le attività in questa pagina vengono eseguite dalle persone con i seguenti ruoli in Google Cloud o nel loro sistema SAP:
Tipo di utente | Descrizione |
---|---|
Amministratore Google Cloud | Gli utenti a cui è stato assegnato questo ruolo sono amministratori di account Google Cloud. |
Utente Cloud Data Fusion | Gli utenti a cui è stato assegnato questo ruolo sono autorizzati a progettare ed eseguire pipeline di dati. Viene concesso almeno il ruolo Visualizzatore Data Fusion (
roles/datafusion.viewer ). Se utilizzi il controllo dell'accesso basato sui ruoli, potrebbero essere necessari ruoli aggiuntivi.
|
Amministratore SAP | Gli utenti a cui è stato assegnato questo ruolo sono amministratori del sistema SAP. Hanno accesso per scaricare software dal sito del servizio SAP. Non è un ruolo IAM. |
Utente SAP | Gli utenti a cui è stato assegnato questo ruolo sono autorizzati a connettersi a un sistema SAP. Non è un ruolo IAM. |
Prerequisiti per l'estrazione di OData
Il servizio OData Catalog deve essere attivate nel sistema SAP.
I dati devono essere compilati nel servizio OData.
Prerequisiti per il tuo sistema SAP
In SAP NetWeaver dalla versione 7.02 alla versione 7.31 di SAP NetWeaver, vengono Le funzionalità gateway vengono fornite con il software SAP seguente componenti:
IW_FND
GW_CORE
IW_BEP
In SAP NetWeaver versione 7.40 e successive, tutte le funzionalità sono disponibile nel componente
SAP_GWFND
, che deve essere reso disponibile in SAP NetWeaver.
(Facoltativo) Installa i file di trasporto SAP
I componenti SAP necessari per le chiamate di bilanciamento del carico a SAP vengono forniti come file di trasporto SAP archiviati come file ZIP (una richiesta di trasporto, che è composto da un cofile e un file di dati). Puoi usare questo passaggio per limitare più chiamate parallele a SAP, in base ai processi di lavoro disponibili in SAP.
Il download del file ZIP è disponibile quando eseguire il deployment del plug-in nell'hub Cloud Data Fusion.
Scarica il file ZIP del trasporto SAP ODATA
Gli ID delle richieste di trasporto SAP e i file associati sono forniti di seguito tabella:
ID trasporto | Archivia | File di dati | Contenuti |
---|---|---|---|
ED1K900360 | K900360.ED1 | R900360.ED1 | Moduli di funzione RFC esposti tramite OData |
Quando importi i file di trasporto in SAP, vengono applicati i seguenti progetti SAP OData vengono create:
Progetti OData
/GOOG/GET_STATISTIC
/GOOG/TH_WPINFO
Nodo di servizio ICF:
GOOG
Per installare il trasporto SAP, segui questi passaggi:
Passaggio 1: carica i file di richiesta di trasporto
- Accedi al sistema operativo dell'istanza SAP.
- Usa il codice transazione SAP
AL11
per ottenere il percorso della cartellaDIR_TRANS
. In genere il percorso è/usr/sap/trans/
. - Copia i cofile nella cartella
DIR_TRANS/cofiles
. - Copia i file di dati nella cartella
DIR_TRANS/data
. - Imposta il campo Utente e gruppo di dati e cofile su
<sid>adm
esapsys
.
Passaggio 2: importa i file di richiesta di trasporto
L'amministratore SAP può importare i file delle richieste di trasporto utilizzando uno dei seguenti le seguenti opzioni:
Opzione 1: importa i file delle richieste di trasporto utilizzando il sistema di gestione dei trasporti SAP
- Accedi al sistema SAP come amministratore SAP.
- Inserisci l'STMS della transazione.
- Fai clic su Panoramica > Importazioni.
- Nella colonna Coda, fai doppio clic sul SID attuale.
- Fai clic su Extra > Altre richieste > Aggiungi.
- Seleziona l'ID richiesta di trasporto e fai clic su Continua.
- Seleziona la richiesta di trasporto nella coda di importazione, poi fai clic su Richiesta > Importa.
- Inserisci il numero cliente.
Nella scheda Opzioni, seleziona Sovrascrive gli originali e Ignora la versione del componente non valida (se disponibile).
(Facoltativo) Per pianificare una reimportazione dei trasporti per un secondo momento, seleziona Lascia in coda le richieste di trasporto per l'importazione successiva e Importa di trasporto pubblico. Ciò è utile per gli upgrade di sistemi SAP e i ripristini di backup.
Fai clic su Continua.
Per verificare l'importazione, utilizza qualsiasi transazione, ad esempio
SE80
eSU01
.
Opzione 2: importa i file di richiesta di trasporto a livello di sistema operativo
- Accedi al sistema SAP come amministratore di sistema SAP.
Aggiungi le richieste appropriate al buffer di importazione eseguendo il comando seguente comando:
tp addtobuffer TRANSPORT_REQUEST_ID SID
Ad esempio:
tp addtobuffer IB1K903958 DD1
Importa le richieste di trasporto eseguendo il seguente comando:
tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
Sostituisci
NNN
con il numero del cliente. Ad esempio:tp import IB1K903958 DD1 client=800 U1238
Verificare che il modulo funzione e i ruoli di autorizzazione siano stati importati correttamente utilizzando eventuali transazioni appropriate, come
SE80
eSU01
.
Ottieni un elenco di colonne filtrabili per un servizio di catalogo SAP
Solo alcune colonne DataSource possono essere utilizzate per le condizioni di filtro (si tratta di un modello SAP limitazione per definizione).
Per ottenere un elenco di colonne filtrabili per un servizio di catalogo SAP, segui questi passaggi passaggi:
- Accedi al sistema SAP.
- Vai al t-code
SEGW
. Inserisci il nome del progetto OData, che è una sottostringa del nome del servizio. Per esempio:
- Nome servizio:
MM_PUR_POITEMS_MONI_SRV
- Nome progetto:
MM_PUR_POITEMS_MONI
- Nome servizio:
Fai clic su Invio.
Vai all'entità che vuoi filtrare e seleziona Proprietà.
Puoi utilizzare i campi visualizzati in Proprietà come filtri. Supportato operazioni sono Equal e Between (Intervallo).
Per un elenco di operatori supportati nel linguaggio di espressione, consulta la sezione documentazione di origine: Convenzioni URI (OData versione 2.0).
URI di esempio con filtri:
/sap/opu/odata/sap/MM_PUR_POITEMS_MONI_SRV/C_PurchaseOrderItemMoni(P_DisplayCurrency='USD')/Results/?$filter=(PurchaseOrder eq '4500000000')
Configura il sistema SAP ERP
Il plug-in SAP OData utilizza un servizio OData che viene attivato ogni server SAP da cui vengono estratti i dati. Questo servizio OData può essere standard fornito da SAP o da un servizio OData personalizzato sviluppato sul tuo sistema SAP.
Passaggio 1: installa SAP Gateway 2.0
L'amministratore di SAP (base) deve verificare che il gateway SAP 2.0 sono disponibili nel sistema di origine SAP, a seconda della configurazione . Per ulteriori informazioni sull'installazione di SAP Gateway 2.0, accedi a Launchpad di SAP ONE Support e vedi Nota 1569624 (accesso richiesto) .
Passaggio 2: attiva il servizio OData
Attiva il servizio OData richiesto sul sistema di origine. Per ulteriori informazioni, consulta Server front-end: Attivare i servizi OData.
Passaggio 3: crea un ruolo di autorizzazione
Per connetterti a DataSource, crea un ruolo di autorizzazione con le autorizzazioni in SAP e poi concederle all'utente SAP.
Per creare il ruolo di autorizzazione in SAP, segui questi passaggi:
- Nella GUI di SAP, inserisci il codice della transazione PFCG per aprire il ruolo periodo di manutenzione.
Nel campo Ruolo, inserisci un nome per il ruolo.
Ad esempio:
ZODATA_AUTH
Fai clic su Singolo ruolo.
Viene visualizzata la finestra Crea ruoli.
Nel campo Descrizione, inserisci una descrizione e fai clic su Salva.
Ad esempio:
Authorizations for SAP OData plugin
.Fai clic sulla scheda Autorizzazioni. Il titolo della finestra diventa Modifica ruoli.
In Modifica dati di autorizzazione e genera profili, fai clic su
Modifica dei dati di autorizzazione.Viene visualizzata la finestra Scegli modello.
Fai clic su Non selezionare i modelli.
Si apre la finestra Modifica ruolo: autorizzazioni.
Fai clic su Manualmente.
Fornisci le autorizzazioni mostrate nella seguente tabella delle autorizzazioni SAP.
Fai clic su Salva.
Per attivare il ruolo di autorizzazione, fai clic sull'icona Generate (Genera).
Autorizzazioni SAP
Classe oggetto | Testo classe oggetto | Oggetto autorizzazione | Testo oggetto di autorizzazione | Autorizzazione | Testo | Valore |
---|---|---|---|---|---|---|
AAAB | Oggetti di autorizzazione tra applicazioni | S_SERVICE | Verifica all'inizio dei servizi esterni | SRV_NAME | Nome del programma, della transazione o del modulo della funzione | * |
AAAB | Oggetti di autorizzazione tra applicazioni | S_SERVICE | Verifica all'inizio dei servizi esterni | SRV_TYPE | Tipo di flag di controllo e valori predefiniti di autorizzazione | HT |
FI | Contabilità finanziaria | F_UNI_HIER | Accesso universale alla gerarchia | TVCC | Attività | 03 |
FI | Contabilità finanziaria | F_UNI_HIER | Accesso universale alla gerarchia | HRYTYPE | Tipo di gerarchia | * |
FI | Contabilità finanziaria | F_UNI_HIER | Accesso universale alla gerarchia | HRYID | ID gerarchia | * |
Progettare ed eseguire una pipeline di dati in Cloud Data Fusion (come utente Cloud Data Fusion), devi avere le credenziali utente SAP (nome utente e password) per configurare il plug-in in modo che si connetta a DataSource.
L'utente SAP deve essere di tipo Communications
o Dialog
. Per evitare di utilizzare
Risorse delle finestre di dialogo SAP, è consigliato il tipo Communications
. Gli utenti possono essere
creato utilizzando il codice transazione SAP SU01.
(Facoltativo) Passaggio 4: proteggi la connessione
Puoi proteggere le comunicazioni sulla rete tra i tuoi Cloud Data Fusion e SAP.
Per proteggere la connessione, segui questi passaggi:
- L'amministratore SAP deve generare un certificato X509. Per generare consulta la sezione Creazione di un PSE del server SSL.
- L'amministratore Google Cloud deve copiare il file X509 in un file nello stesso progetto del bucket Cloud Storage Cloud Data Fusion e fornire il percorso del bucket Utente di Cloud Data Fusion, che lo inserisce quando configura il plug-in.
- L'amministratore di Google Cloud deve concedere l'accesso in lettura per il file X509 all'account Utente di Cloud Data Fusion che progetta ed esegue pipeline.
(Facoltativo) Passaggio 5: crea servizi OData personalizzati
Puoi personalizzare la modalità di estrazione dei dati creando servizi OData personalizzati in SAP:
- Per creare servizi OData personalizzati, vedi Creazione di servizi OData per principianti.
- Per creare servizi OData personalizzati utilizzando le viste dei servizi dati principali (CDS), consulta Come creare un servizio OData ed esporre le viste CDS come servizio OData.
- Qualsiasi servizio OData personalizzato deve supportare le query
$top
,$skip
e$count
. Queste query consentono al plug-in di partizionare i dati per l'estrazione sequenziale e parallela. Se utilizzate, devono essere supportate anche le query$filter
,$expand
o$select
.
Configura Cloud Data Fusion
Assicurati che la comunicazione sia abilitata tra l'istanza Cloud Data Fusion e il server SAP. Per le istanze private, configura peering di rete. Dopo aver stabilito il peering di rete con il progetto in cui vengono in hosting, non è necessaria alcuna configurazione aggiuntiva per dell'istanza di Cloud Data Fusion. Sia il sistema SAP che Cloud Data Fusion devono trovarsi all'interno dello stesso progetto.
Passaggio 1: configura il tuo ambiente Cloud Data Fusion
Per configurare il tuo ambiente Cloud Data Fusion per il plug-in:
Vai ai dettagli dell'istanza:
Nella console Google Cloud, vai alla pagina Cloud Data Fusion.
Fai clic su Istanze, quindi sul nome dell'istanza per andare alla pagina Dettagli istanza.
Verifica che sia stato eseguito l'upgrade dell'istanza alla versione 6.4.0 o successiva. Se se l'istanza è in una versione precedente, devi eseguirne l'upgrade.
Fai clic su Visualizza istanza. All'apertura della UI di Cloud Data Fusion, fai clic su Hub.
Seleziona la scheda SAP > SAP OData.
Se la scheda SAP non è visibile, consulta la sezione Risoluzione dei problemi relativi alle integrazioni SAP.
Fai clic su Deploy SAP OData Plugin (Esegui il deployment del plug-in SAP OData).
Il plug-in viene ora visualizzato nel menu Origine della pagina di Studio.
Passaggio 2: configura il plug-in
Il plug-in SAP OData legge il contenuto di un SAP DataSource.
Per filtrare i record, puoi configurare le seguenti proprietà nella pagina Proprietà OData SAP.
Nome proprietà | Descrizione |
---|---|
Di base | |
Nome di riferimento | Nome utilizzato per identificare in modo univoco questa origine per la derivazione, metadati per annotare ecc. |
URL SAP OData Base | URL OData Base del gateway SAP (utilizza il percorso dell'URL completo, simile a
https://ADDRESS:PORT/sap/opu/odata/sap/ ).
|
Versione OData | Versione di SAP OData supportata. |
Nome servizio | Nome del servizio SAP OData da cui vuoi estrarre un dell'oggetto. |
Nome entità | Nome dell'entità che viene estratta, ad esempio Results . Puoi utilizzare un prefisso, ad esempio C_PurchaseOrderItemMoni/Results . Questo campo supporta i parametri Categoria ed Entità. Esempi:
|
Pulsante Ottieni schema | Genera uno schema basato sui metadati di SAP, con mappatura dei tipi di dati SAP ai dati Cloud Data Fusion corrispondenti (stessa funzionalità del pulsante Convalida). |
Credenziali* | |
Tipo SAP | Di base (tramite nome utente e password). |
Nome utente di accesso SAP | Nome utente SAP Consigliato: se il nome utente di accesso SAP modifiche periodicamente, utilizza un macro. |
Password di accesso SAP | Password utente SAP Consigliato: utilizza macro sicure per i valori sensibili, come password. |
Certificato client SAP X.509 (vedi Utilizzo di certificati client X.509 su SAP NetWeaver Server di applicazioni per ABAP. |
|
ID progetto Google Cloud | Un identificatore univoco globale per il progetto. Questo campo è obbligatorio se il percorso di archiviazione cloud del certificato X.509 non contiene un valore macro. |
Percorso GCS | Il percorso del bucket Cloud Storage che contiene il file caricato dall'utente X.509, che corrisponde al server di applicazioni SAP per per le chiamate sicure in base ai tuoi requisiti (vedi Proteggi la connessione). |
Passphrase | Passphrase corrispondente al certificato X.509 fornito. |
Avanzato | |
Opzioni di filtro | Indica il valore che un campo deve essere letto. Usa questo filtro per limitare il volume dei dati di output. Ad esempio: "Prezzo Gt 200" seleziona i record con un valore del campo "Prezzo" maggiore di "200". (Vedi Ottieni un elenco di colonne filtrabili per un SAP servizio di catalogo.) |
Seleziona campi | Campi da conservare nei dati estratti (ad esempio Categoria, Prezzo, nome, fornitore/indirizzo). |
Espandi campi | Elenco di campi complessi da espandere nei dati di output estratti (ad es. Prodotti/Fornitori). |
Numero di righe da saltare | Numero totale di righe da saltare (ad es. 10). |
Numero di righe da recuperare | Numero totale di righe da estrarre. |
Numero di suddivisioni da generare | Il numero di suddivisioni utilizzate per partizionare i dati di input. Altre partizioni
aumentano il livello di parallelismo, ma richiedono più risorse e
overhead. Se viene lasciato vuoto, il plug-in sceglie un valore ottimale (consigliato). |
Dimensione del batch | Numero di righe da recuperare in ogni chiamata di rete a SAP. Le dimensioni ridotte causano
frequenti chiamate di rete che si ripetono l'overhead associato. Dimensioni grandi
potrebbe rallentare il recupero dei dati e causare un utilizzo eccessivo di risorse in SAP.
Se il valore è impostato su 0 , il valore predefinito è
2500 e il limite di righe da recuperare in ogni batch è
5000 . |
Tipi di OData supportati
La tabella seguente mostra la mappatura tra Tipi di dati OData v2 utilizzati nelle applicazioni SAP e nei tipi di dati di Cloud Data Fusion.
Tipo OData | Descrizione (SAP) | Tipo di dati di Cloud Data Fusion |
---|---|---|
Numerico | ||
SByte | Valore intero a 8 bit firmato | int |
Byte | Valore intero a 8 bit senza segno | int |
Int16 | Valore intero a 16 bit firmato | int |
Int32 | Valore intero a 32 bit firmato | int |
Int64 | Valore intero a 64 bit firmato aggiunto con il carattere "L" Esempi: 64L , -352L |
long |
Singolo | Numero in virgola mobile con precisione a sette cifre che può rappresentare i valori
con un intervallo approssimativo di ± 1,18e -38 a ± 3,40e +38, aggiunto
con il carattere: "f" Esempio: 2.0f |
float |
Doppio | Numero in virgola mobile con precisione di 15 cifre che può rappresentare i valori
con intervalli approssimativi di ± 2,23e -308 a ± 1,79e +308, aggiunto
con il carattere: 'd' Esempi: 1E+10d , 2.029d , 2.0d |
double |
Decimale | Valori numerici con precisione e scala fisse che descrivono un valore numerico
che vanno da negativo 10^255 + 1 a positivo 10^255 -1, seguito dal
carattere: "M" o "m" Esempio: 2.345M |
decimal |
Carattere | ||
Guida | Un valore di identificatore univoco di 16 byte (128 bit), che inizia con
carattere: "guid" Esempio: guid'12345678-aaaa-bbbb-cccc-ddddeeeeffff' |
string |
Stringa | Dati di caratteri fissi o di lunghezza variabile codificati in UTF-8 | string |
Byte | ||
Binario | Dati binari fissi o di lunghezza variabile, che iniziano con "X" o
"binario" (entrambi sono sensibili alle maiuscole) Esempio: X'23AB' , binary'23ABFF' |
bytes |
Logico | ||
Booleano | Concetto matematico della logica a valori binari | boolean |
Data/Ora | ||
Data/Ora | Data e ora con valori compresi tra 00:00:00 del 1° gennaio 1753 e 23:59:59 del 31 dicembre 9999 | timestamp |
Ora | Ora del giorno con valori compresi tra 0:00:00.x e 23:59:59.y, dove "x" e "y" dipendono dalla precisione | time |
DateTimeOffset | Data e ora come scarto, in minuti rispetto al GMT, con valori che variano dalle ore 00:00:00 del 1° gennaio 1753 alle ore 23:59:59 del 31 dicembre 9999 | timestamp |
Complesso | ||
Proprietà di navigazione e non di navigazione (moltiplicità = *) | Raccolte di tipo semplice, con una molteplicità di one-to-many. | array ,string ,int e così via. |
Proprietà (moltiplicità = 0,1) | Riferimenti ad altri tipi complessi con una moltiplicazione dei numeri uno a uno | record |
Convalida
Fai clic su Convalida in alto a destra o su Ottieni schema.
Il plug-in convalida le proprietà e genera uno schema basato sui metadati. da SAP. Mappa automaticamente i tipi di dati SAP Tipi di dati di Cloud Data Fusion.
Esegui una pipeline di dati
- Dopo aver eseguito il deployment della pipeline, fai clic su Configura nel riquadro in alto al centro.
- Seleziona Risorse.
- Se necessario, modifica la CPU dell'esecutore e la memoria in base alla la dimensione complessiva dei dati e il numero di trasformazioni utilizzate nella pipeline.
- Fai clic su Salva.
- Per avviare la pipeline di dati, fai clic su Esegui.
Prestazioni
Il plug-in utilizza le funzionalità di parallelizzazione di Cloud Data Fusion. La le linee guida riportate di seguito possono aiutarti a configurare l'ambiente di runtime fornire risorse sufficienti al motore di runtime per raggiungere grado di parallelismo e prestazioni.
Ottimizza la configurazione del plug-in
Consigliato: a meno che tu non abbia familiarità con le impostazioni di memoria del sistema SAP, lascia il campo Numero di suddivisioni da generare e Dimensioni batch vuoto (non specificato).
Per ottenere prestazioni migliori quando esegui la pipeline, utilizza quanto segue configurazioni:
Numero di suddivisioni da generare: i valori compresi tra
8
e16
sono consigliato. Ma possono aumentare a32
o perfino64
, con le configurazioni appropriate sul lato SAP (allocando per i processi di lavoro in SAP). Questa configurazione migliora parallelismo sul lato Cloud Data Fusion. Il motore di runtime crea il numero specificato di partizioni (e connessioni SAP) durante l'estrazione i record.Se il servizio di configurazione (che viene fornito con il plug-in al momento dell'importazione del file di trasporto SAP) è disponibile: il plug-in utilizza per impostazione predefinita la configurazione del sistema SAP. Le suddivisioni costituiscono il 50% dei processi di lavoro delle finestre di dialogo disponibili in SAP. Nota: il servizio di configurazione può essere importato solo da sistemi S4HANA.
Se il servizio di configurazione non è disponibile, il valore predefinito è le suddivisioni
7
.In ogni caso, se specifichi un valore diverso, il valore fornito prevale sul valore di suddivisione predefinito,tranne per il fatto che è limitato dai processi di finestra di dialogo disponibili in SAP, meno due suddivisioni.
Se il numero di record da estrazione è inferiore a
2500
, il numero di suddivisioni è1
.
Dimensione del batch: si tratta del conteggio dei record da recuperare in ogni rete a SAP. Una dimensione del batch più piccola causa chiamate di rete frequenti e si ripetono l'overhead associato. Per impostazione predefinita, il conteggio minimo è
1000
e il limite massimo è50000
.
Per saperne di più, consulta Limiti delle entità OData.
Impostazioni delle risorse di Cloud Data Fusion
Consigliato: Utilizza 1 CPU e 4 GB di memoria per esecutore (questo valore si applica a ogni processo dell'esecutore). Impostale nel menu a discesa Configura > Finestra di dialogo Risorse.
Impostazioni del cluster Dataproc
Consigliato: Alloca almeno un totale di CPU (tra i worker) maggiore del valore previsto numero di suddivisioni (vedi Configurazione dei plug-in).
Ogni worker deve avere almeno 6,5 GB di memoria allocata per CPU Impostazioni di Dataproc (ossia la disponibilità di almeno 4 GB per esecutore di Cloud Data Fusion). Possibilità di mantenere i valori predefiniti per altre impostazioni e i relativi valori.
Consigliato: Utilizza un cluster Dataproc permanente per ridurre runtime della pipeline di dati (elimina il passaggio di provisioning, che potrebbe richiedere minuti o più). Impostalo nella sezione Configurazione Compute Engine.
Configurazioni di esempio e velocità effettiva
Esempi di configurazioni di sviluppo e test
- Cluster Dataproc con 8 worker, ciascuno con 4 CPU e 26 GB di memoria. Puoi generare fino a 28 suddivisioni.
- Cluster Dataproc con 2 worker, ciascuno con 8 CPU e 52 GB di memoria. Puoi generare fino a 12 suddivisioni.
Configurazioni di produzione di esempio e velocità effettiva
- Cluster Dataproc con 8 worker, ciascuno con 8 CPU e 32 GB di memoria. Genera fino a 32 suddivisioni (metà di quelli disponibili CPU).
- Cluster Dataproc con 16 worker, ciascuno con 8 CPU e 32 GB di memoria. Genera fino a 64 suddivisioni (metà delle CPU disponibili).
Velocità effettiva di esempio per un sistema di origine di produzione SAP S4HANA 1909
La tabella seguente riporta la velocità effettiva di esempio. La velocità effettiva mostrata è senza filtro se non diversamente specificato. Quando si utilizzano le opzioni di filtro, la velocità effettiva è è ridotto.
Dimensione del batch | Tempi intermedi | Servizio OData | Righe totali | Righe estratte | Velocità effettiva (righe al secondo) |
---|---|---|---|---|---|
1000 | 4 | ZACDOCA_CDS | 5,37 M | 5,37 M | 1069 |
2500 | 10 | ZACDOCA_CDS | 5,37 M | 5,37 M | 3384 |
5000 | 8 | ZACDOCA_CDS | 5,37 M | 5,37 M | 4630 |
5000 | 9 | ZACDOCA_CDS | 5,37 M | 5,37 M | 4817 |
Velocità effettiva di esempio per un sistema di origine di produzione cloud SAP S4HANA
Dimensione del batch | Tempi intermedi | Servizio OData | Righe totali | Righe estratte | Velocità effettiva (GB/ora) |
---|---|---|---|---|---|
2500 | 40 | TEST_04_UOM_ODATA_CDS/ | 201 Mln | 10 M | 25,48 |
5000 | 50 | TEST_04_UOM_ODATA_CDS/ | 201 Mln | 10 M | 26,78 |
Dettagli assistenza
Prodotti e versioni SAP supportati
Le origini supportate includono SAP S4/HANA 1909 e versioni successive, S4/HANA su cloud SAP e qualsiasi applicazione SAP in grado di esporre i servizi OData.
Il file di trasporto che contiene il servizio OData personalizzato per il bilanciamento del carico delle chiamate a SAP deve essere importato in S4/HANA 1909 e versioni successive. Il servizio consente di calcolare il numero di suddivisioni (partizioni di dati) che il plug-in può leggere in parallelo (vedi numero di suddivisioni).
È supportata la versione 2 di OData.
Il plug-in è stato testato con server SAP S/4HANA di cui è stato eseguito il deployment su Google Cloud.
I servizi SAP OData Catalog sono supportati per l'estrazione
Il plug-in supporta i seguenti tipi di DataSource:
- Dati delle transazioni
- Visualizzazioni CDS esposte tramite OData
Dati principali
- Attributi
- SMS
- Gerarchie
Note SAP
Non sono richieste note SAP prima dell'estrazione, ma il sistema SAP deve disporre di SAP Gateway. Per ulteriori informazioni le informazioni, vedi nota 1560585 (questo sito esterno richiede credenziali di accesso SAP).
Limiti relativi al volume di dati o alla larghezza del record
Non esiste un limite definito per il volume di dati estratti. Abbiamo eseguito test con fino a 6 milioni di righe estratte in una chiamata, con una larghezza record di 1 kB. Per SAP S4/HANA su cloud, abbiamo testato fino a 10 milioni di righe estratte in una chiamata, con una larghezza record di 1 kB.
Velocità effettiva prevista del plug-in
Per un ambiente configurato in base alle linee guida in Prestazioni, il plug-in può estrarre circa 38 GB all'ora. Le prestazioni effettive potrebbero variare con Cloud Data Fusion e SAP di sistema o di traffico di rete.
Estrazione delta (dati modificati)
L'estrazione delta non è supportata.
Scenari di errore
In fase di runtime, il plug-in scrive le voci di log nella pipeline di dati di Cloud Data Fusion
log. Queste voci sono precedute dal prefisso CDF_SAP
per una facile identificazione.
In fase di progettazione, quando convalidi le impostazioni del plug-in, i messaggi vengono visualizzati in alla scheda Proprietà e vengono evidenziate in rosso.
Nella tabella seguente sono elencati alcuni messaggi di errore comuni (il testo in
ID messaggio | Messaggio | Azione consigliata |
---|---|---|
Nessuno | Proprietà obbligatoria " |
Inserisci un valore effettivo o una variabile macro. |
Nessuno | Valore non valido per la proprietà " |
Inserisci un numero intero non negativo (0 o maggiore, senza decimale) o una variabile macro. |
CDF_SAP_ODATA_01505 | Impossibile preparare lo schema di output di Cloud Data Fusion. Controlla fornito il valore delle macro di runtime. | Assicurati che i valori della macro forniti siano corretti. |
N/D | SAP X509 ha certificato "<UI input in GCS Path>" mancante. Non dimenticare di apporre assicurati che il certificato X509 richiesto sia caricato Bucket Google Cloud Storage "<nome bucket GCS>". | Assicurati che il percorso Cloud Storage fornito sia corretto. |
CDF_SAP_ODATA_01532 | Codice di errore generico relativo a problemi di connettività di SAP OData Impossibile chiamare il servizio SAP OData specificato. Causa principale: <SAP OData messaggio causa principale del servizio> |
Controlla la causa principale visualizzata nel messaggio e adotta le misure necessarie un'azione. |
CDF_SAP_ODATA_01534 | Codice di errore generico relativo a un errore del servizio SAP OData. Convalida del servizio non riuscita. Causa principale: <sroot del servizio OData AP messaggi di causa></s |
Controlla la causa principale visualizzata nel messaggio e adotta le misure necessarie un'azione. |
CDF_SAP_ODATA_01503 | Impossibile recuperare il conteggio totale dei record disponibili da <servizio OData SAP nome entità>. Causa principale: <causa principale del servizio SAP Odata <ph type="x-smartling-void-element"><br></ph> | Controlla la causa principale visualizzata nel messaggio e adotta le misure necessarie un'azione. |
CDF_SAP_ODATA_01506 | Nessun record trovato da estrarre in <nome entità del servizio SAP OData>. Assicurati che l'entità fornita contenga record. | Controlla la causa principale visualizzata nel messaggio e adotta le misure necessarie un'azione. |
CDF_SAP_ODATA_01537 | Impossibile elaborare i record per <nome entità del servizio SAP OData>. Causa principale: <messaggio causa principale del servizio SAP OData> | Controlla la causa principale visualizzata nel messaggio e adotta le misure necessarie un'azione. |
CDF_SAP_ODATA_01536 | Impossibile eseguire il pull dei record da <nome entità del servizio SAP OData>. Radice Causa: <messaggio causa principale del servizio SAP OData> | Controlla la causa principale visualizzata nel messaggio e adotta le misure necessarie un'azione. |
CDF_SAP_ODATA_01504 | Impossibile generare la stringa di metadati codificata per il servizio OData specificato <Nome servizio SAP OData>. Causa principale: <root del servizio OData SAP messaggio di cause> | Controlla la causa principale visualizzata nel messaggio e adotta le misure necessarie un'azione. |
CDF_SAP_ODATA_01533 | Impossibile decodificare i metadati dalla stringa di metadati codificata specificata per <nome del servizio SAP OData>. Causa principale: <SAP OData messaggio causa principale del servizio> | Controlla la causa principale visualizzata nel messaggio e adotta le misure necessarie un'azione. |
Passaggi successivi
- Scopri di più su Cloud Data Fusion.
- Scopri di più su SAP su Google Cloud.