Questa guida descrive come eseguire il deployment, configurare ed eseguire pipeline di dati che utilizzano il plug-in SAP BW Open Hub Batch Source. Puoi utilizzare SAP come origine per l'estrazione di dati basata su batch e delta in Cloud Data Fusion tramite il servizio BW Open Hub.
Questo plug-in consente l'integrazione collettiva dei dati da applicazioni SAP con Cloud Data Fusion. Puoi configurare ed eseguire trasferimenti di dati in blocco da Origini dati SAP senza alcuna programmazione.
Per le applicazioni e gli oggetti SAP supportati per l'estrazione, consulta Dettagli sull'assistenza. Per ulteriori informazioni sull'esecuzione di SAP su Google Cloud, consulta la Panoramica di SAP su Google Cloud.
Obiettivi
- Configura il sistema SAP BW.
- Esegui il deployment del plug-in nell'ambiente Cloud Data Fusion.
- Scarica il trasporto SAP da Cloud Data Fusion e installalo in SAP.
- Utilizza Cloud Data Fusion e SAP BW Open Hub Batch Source per creare pipeline di dati per l'integrazione dei dati SAP.
Prima di iniziare
Per utilizzare questo plug-in, devi avere conoscenze di dominio nelle seguenti aree:
- Creazione di pipeline in Cloud Data Fusion
- Configurazione dei sistemi SAP BW o BW4HANA
Ruoli utente
Le attività in questa pagina vengono eseguite da persone con i seguenti ruoli in Google Cloud o nel sistema SAP:
Tipo di utente | Descrizione |
---|---|
Amministratore Google Cloud | Gli utenti a cui è assegnato questo ruolo sono amministratori degli account Google Cloud. |
Utente Cloud Data Fusion | Gli utenti a cui è assegnato questo ruolo sono autorizzati a progettare ed eseguire
pipeline di dati. Devono disporre almeno del ruolo Visualizzatore Data Fusion
(
roles/datafusion.viewer ). Se utilizzi
il controllo degli accessi basato sui ruoli, potresti avere bisogno di
altri
ruoli.
|
Amministratore SAP | Gli utenti a cui è assegnato questo ruolo sono amministratori del sistema SAP. Hanno accesso per scaricare il software dal sito del servizio SAP. Non è un ruolo IAM. |
Utente SAP | Gli utenti a cui è assegnato questo ruolo sono autorizzati a connettersi a un sistema SAP. Non è un ruolo IAM. |
Prerequisiti per SAP BW
Per creare e modificare le catene di processi e i processi di trasferimento dati, devi disporre di SAP HANA Studio.
Prerequisiti per Cloud Data Fusion
- Per la creazione di un'istanza Cloud Data Fusion è necessaria una rete VPC.
- È obbligatoria un'istanza Cloud Data Fusion, versione 6.8.0 o successive, di qualsiasi versione.
- I ruoli richiesti devono essere concessi all'account di servizio assegnato all'istanza Cloud Data Fusion. Per ulteriori informazioni, consulta Concedere l'autorizzazione utente all'account di servizio.
- Devi utilizzare una connessione di peering tra il tuo VPC e la rete VPC condivisa di Google.
Configura il sistema SAP BW
SAP BW Open Hub Batch Source utilizza un modulo di funzione remota (RFM), che deve essere installato su ogni server SAP dove vengono estratti i dati. Questo RFM viene inviato come trasporto SAP.
Per configurare il sistema SAP:
- L'utente di Cloud Data Fusion deve scaricare il file ZIP contenente il trasporto SAP e fornirlo all'amministratore SAP. Per saperne di più, consulta Configurare Cloud Data Fusion.
- L'amministratore SAP deve importare il trasporto SAP nel sistema SAP e verificare gli oggetti creati. Per ulteriori informazioni, consulta Installare il trasporto SAP.
- (Facoltativo) L'utente SAP può modificare gli oggetti di autorizzazione SAP standard del ruolo fornito
/GOOG/BWOH_CDF_AUTH
in base ai criteri di sicurezza della propria organizzazione.
Installa i file di trasporto SAP
Per progettare ed eseguire pipeline di dati in Cloud Data Fusion, i componenti SAP vengono caricati in file di trasporto SAP, che vengono archiviati in un file ZIP. Il download è disponibile quando esegui il deployment del plug-in in Cloud Data Fusion Hub.
Per installare il trasporto SAP:
Passaggio 1: carica i file delle richieste di trasporto
- Accedi al sistema operativo dell'istanza SAP.
- Utilizza il codice transazione SAP
AL11
per ottenere il percorso della cartellaDIR_TRANS
. In genere, il percorso è/usr/sap/trans/
. - Copia i file co nella cartella
DIR_TRANS/cofiles
. - Copia i file di dati nella
cartella
DIR_TRANS/data
. - Imposta l'utente e il gruppo di dati e del cofile su
<sid>adm
esapsys
.
Passaggio 2: importa i file delle richieste di trasporto
L'amministratore SAP può importare i file di richiesta di trasporto utilizzando una delle seguenti opzioni:
Opzione 1: importa i file di richiesta di trasporto utilizzando il sistema di gestione dei trasporti SAP
- Accedi al sistema SAP come amministratore SAP.
- Inserisci l'STMS della transazione.
- Fai clic su Panoramica > Importazioni.
- Nella colonna Coda, fai doppio clic sull'ID cliente corrente.
- Fai clic su Extra > Altre richieste > Aggiungi.
- Seleziona l'ID richiesta di trasporto e fai clic su Continua.
- Seleziona la richiesta di trasporto nella coda di importazione e poi fai clic su Richiedi > Importa.
- Inserisci il numero cliente.
Nella scheda Opzioni, seleziona Sostituisci originali e Ignora versione del componente non valida.
(Facoltativo) Seleziona Lascia le richieste di trasporto in coda per l'importazione successiva. Di conseguenza, le richieste vengono importate di nuovo nell'ordine corretto con la successiva importazione di tutte le richieste. Questa opzione è utile se devi eseguire importazioni preliminari per singole richieste.
Fai clic su Continua.
Verifica che il modulo della funzione e i ruoli di autorizzazione siano stati importati correttamente utilizzando le transazioni appropriate, ad esempio
SE80
ePFCG
.
Opzione 2: importa i file di richiesta di trasporto a livello di sistema operativo
- Accedi al sistema SAP come amministratore SAP.
Aggiungi le richieste appropriate al buffer di importazione:
tp addtobuffer TRANSPORT_REQUEST_ID SID
Ad esempio:
tp addtobuffer BW1K900054 DD1
Importa le richieste di trasporto:
tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
Sostituisci
NNN
con il numero del cliente. Ad esempio:tp import BW1K900054 DD1 client=100 U1238
Verifica che il modulo della funzione e i ruoli di autorizzazione siano stati importati correttamente utilizzando le transazioni appropriate, ad esempio
SE80
ePFCG
.
Autorizzazioni SAP richieste
Per eseguire una pipeline di dati in Cloud Data Fusion, devi disporre di un utente SAP. L'utente SAP deve essere di tipo Communications
o Dialog
. Per evitare di utilizzare le risorse di dialogo SAP, è consigliato il tipo Communications
. L'amministratore SAP può creare utenti utilizzando il codice transazione SAP SU01
.
Le autorizzazioni SAP sono necessarie per configurare il connettore per SAP. Gli oggetti di autorizzazione SAP specifici del connettore vengono inviati nell'ambito della richiesta di trasporto. Importa il trasporto del ruolo di autorizzazione come descritto in Installare il trasporto SAP per inserire il ruolo nel sistema e generare il ruolo dal codice transazione PFCG.
Per gli oggetti di autorizzazione SAP standard, la tua organizzazione gestisce le autorizzazioni con il proprio meccanismo di sicurezza. Puoi gestire gli oggetti di autorizzazione in base ai criteri di sicurezza della tua organizzazione.
Crea una catena di processi (PC) e un processo di trasferimento dati (DTP)
La creazione di una catena di processi e di un processo di trasferimento dei dati richiede alcune competenze e conoscenze aggiuntive.
Concetti di base
Per creare o modificare un PC e un DTP, utilizza SAP HANA Studio.
Competenze di base
- Hai utilizzato le trasformazioni per definire il flusso di dati tra l'oggetto di origine e quello di destinazione.
- Hai familiarità con i concetti di base di BW e HANA, come oggetti DataStore (DSO), trasformazioni dei dati, InfoCube, ottimizzazione delle query, modellazione HANA e funzionalità del database HANA utilizzando HANA Studio. Per ulteriori informazioni su questi concetti, consulta i tutorial SAP su BW e HANA.
Tipo di estrazione
Esistono due modalità di estrazione dei dati per un processo di trasferimento dati: completa e delta.
Completa: seleziona tutti i dati disponibili nell'origine in base alle condizioni di filtro indicate nel DTP. Se l'origine dei dati è uno dei seguenti InfoProvider, è disponibile solo la modalità di estrazione completa:
- InfoObjects
- InfoSet
- Oggetti DataStore per l'aggiornamento diretto
Delta: a differenza di InfoPackage, il trasferimento Delta utilizzando un DTP non richiede un'inizializzazione esplicita. Quando un DTP viene eseguito con la modalità di estrazione Delta per la prima volta, tutte le richieste esistenti fino al momento dell'estrazione vengono recuperate dall'origine e il delta viene inizializzato automaticamente.
Per un DTP con la modalità di estrazione Delta sono disponibili le seguenti opzioni:
- Ricevi Delta una sola volta
- Ottieni tutte le nuove richieste di dati per richiesta
- Recupero fino al termine dei nuovi dati
Dimensioni del pacchetto: il numero di record di dati presenti in un singolo
pacchetto di dati. Il valore predefinito è 50,000
.
Creare una catena di processi
Per creare una catena di processo (PC), utilizza la transazione RSPC in SAP GUI. Definisci un procedura di avvio, quindi aggiungi i passaggi della procedura e il DTP. Per saperne di più, consulta la documentazione di SAP relativa alla creazione di catene di processo.
In HANA Studio sono disponibili varie opzioni per monitorare e amministrare i PC. Per ulteriori informazioni, consulta Operazioni della catena di processo SAP BW/4HANA.
Creare un processo di trasferimento dati utilizzando una catena di processi
Vai alla visualizzazione Pianificazione della catena di processo che vuoi utilizzare per il processo di trasferimento dei dati. Dalla visualizzazione Pianificazione, puoi creare il DTP utilizzando HANA Studio. Per saperne di più, consulta la documentazione di SAP relativa alla creazione di un processo di trasferimento dei dati.
Per ulteriori informazioni sulle opzioni di configurazione, consulta Tutto su Data Transfer Process (DTP) - SAP BW 7.
Connessione RFC
Per notificare al sistema di callback, ad esempio il plug-in SAP BW Open Hub Batch Source, che i dati sono disponibili, la catena di processo deve essere aggiornata per utilizzare una destinazione RFC:
In SM59, crea una connessione RFC di tipo Connessioni TCP/IP per inviare una notifica al sistema di destinazione da BW al termine del caricamento dei dati in BI.
Assicurati che l'ID programma sia configurato nella connessione RFC facendo clic due volte sulla connessione RFC. L'ID programma deve essere univoco per ogni destinazione RFC per evitare conflitti di listener di runtime.
Utilizza la connessione TCP/IP appena creata nella catena di processo per inviare la notifica per il completamento di un job batch di Cloud Data Fusion. Il nome della catena di processo non è sensibile alle maiuscole. Deve essere specificato correttamente in lettere maiuscole nel processo di integrazione end-to-end.
Visualizza i log delle catene di processo e dei processi di trasferimento dati
Vai al codice T : RSPC e fai clic su Process Chains (Catene di processo).
Fai clic con il tasto destro del mouse sulla catena di processo per cui vuoi visualizzare i log e poi su Visualizza log.
Configura il cluster Dataproc quando utilizzi la catena di processi
Per abilitare la comunicazione tramite il server RFC, devi aggiungere le voci della porta SAP Gateway nel file /etc/services
nei nodi del cluster Dataproc.
Ti consigliamo di utilizzare un init action
,
lo script da eseguire quando viene inizializzato il cluster. Per ulteriori informazioni, consulta Azioni di inizializzazione.
Crea un file di script e salvalo in un bucket Cloud Storage. L'esempio seguente mostra i contenuti del file di script:
gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services
Nell'esempio precedente, tieni presente quanto segue:
Le voci sono nel formato
sapgwxx 33xx/tcp
, doveXX
è il numero di istanza SAP.Le porte per le istanze SAP da
00
a04
vengono aggiunte.
Esegui i seguenti passaggi se utilizzi un cluster Dataproc temporaneo, uno appena creato o uno esistente.
Cluster Dataproc temporaneo
Se utilizzi un cluster Dataproc temporaneo, aggiungi il percorso dello script init
alle proprietà del cluster:
- Nel monitoraggio dei job, dalla pagina della pipeline in Cloud Data Fusion, fai clic su Configura.
- Seleziona il profilo di calcolo e fai clic su Personalizza.
- In Impostazioni avanzate, inserisci il percorso dello script
init
nel campo Azioni di inizializzazione.
Nuovo cluster Dataproc persistente
Se utilizzi un cluster Dataproc permanente appena creato, utilizza lo script init
nel comando gcloud per creare il cluster. Ad
esempio:
gcloud dataproc clusters create cluster-name \
--region=${REGION} \
--initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
... other flags ...
Cluster Dataproc persistente esistente
Se utilizzi un cluster Dataproc persistente esistente, segui questi passaggi:
Se il cluster è già stato creato senza utilizzare lo script init
,
aggiungi le voci manualmente nei nodi Master e Worker del
cluster Dataproc.
- Accedi tramite SSH al nodo master e al nodo del cluster.
- Accedi all'ID utente root.
- Vai a
/etc/
e apri il file/etc/services
in un editor VI. - Aggiungi la voce
sapgwxx 33xx/tcp
. Sostituiscixx
con il numero dell'istanza SAP. - Salva il file
/etc/services
.
Configurare Cloud Data Fusion
Assicurati che la comunicazione sia abilitata tra l'istanza Cloud Data Fusion e il server SAP. Per le istanze private, configura il peering di rete. Una volta stabilito il peering di rete con il progetto in cui sono ospitati i sistemi SAP, non è richiesta alcuna configurazione aggiuntiva per connettersi all'istanza Cloud Data Fusion. Sia il sistema SAP sia l'istanza Cloud Data Fusion devono trovarsi nello stesso progetto.
Passaggi per gli utenti di Cloud Data Fusion
- Vai ai dettagli dell'istanza:
Nella console Google Cloud, vai alla pagina Cloud Data Fusion.
Fai clic su Istanze, quindi sul nome dell'istanza per andare alla pagina Dettagli istanza.
- Verifica che sia stato eseguito l'upgrade dell'istanza alla versione 6.8.0 o successiva. Se l'istanza è in una versione precedente, devi eseguirne l'upgrade.
- Apri l'istanza. Quando si apre l'interfaccia utente di Cloud Data Fusion, fai clic su Hub.
- Seleziona la scheda SAP > SAP BW. Se la scheda SAP non è visibile, consulta la sezione Risolvere i problemi di integrazione di SAP.
- Fai clic su Esegui il deployment del plug-in SAP BW. Il plug-in viene visualizzato nel menu Origine nella pagina di Studio.
Passaggi per SAP Admin e Google Cloud Admin
L'amministratore SAP scarica i seguenti elementi JCo dal sito di assistenza SAP e li consegna all' Google Cloud amministratore.
- Uno indipendente dalla piattaforma (
sapjco3.jar
) - Uno dipendente dalla piattaforma (
libsapjco3.so
su Unix)
Per scaricare i file:
- Vai alla pagina Connettori SAP.
- Fai clic su SAP Java Connector/Strumenti e servizi. Puoi selezionare link specifici per la piattaforma per il download.
Seleziona la piattaforma su cui viene eseguita l'istanza Cloud Data Fusion:
- Se utilizzi immagini Google Cloud standard per le VM nel tuo cluster, che è l'impostazione predefinita per Cloud Data Fusion, seleziona Linux per processori compatibili con Intel x86 a 64 bit.
- Se utilizzi un'immagine personalizzata, seleziona la piattaforma corrispondente.
L' Google Cloud amministratore deve copiare i file JCo in un bucket Cloud Storage leggibile. Fornisci il percorso del bucket all'utente Cloud Data Fusion affinché lo inserisca nella proprietà del plug-in corrispondente in Cloud Data Fusion: Percorso GCS della libreria JCo di SAP. Vedi Configurare il plug-in.
L' Google Cloud amministratore deve concedere l'accesso in lettura per i due file all'account di servizio Cloud Data Fusion per l'ambiente di progettazione e all'account di servizio Dataproc per l'ambiente di esecuzione. Per ulteriori informazioni, consulta Account di servizio di Cloud Data Fusion.
Configura il plug-in
Il plug-in SAP BW Open Hub Batch Source legge i contenuti di un'origine dati SAP.
Per filtrare i record, puoi configurare le seguenti proprietà per la fonte SAP BW Open Hub Batch.
Per definire i campi vengono utilizzati i seguenti indicatori:
- (M): indica che le macro sono supportate per il rispettivo campo
- (O): campo facoltativo
Etichetta: etichetta del plug-in sulla tela.
Di base
Nel seguente elenco di proprietà, (M) indica che l'opzione supporta le macro e possono essere utilizzate per gestire centralmente le connessioni SAP. Ad esempio, puoi utilizzare le macro per le proprietà di connessione e impostare i valori in fase di esecuzione utilizzando i parametri di runtime o un plug-in Argument Setter.
- Nome di riferimento: nome utilizzato per identificare in modo univoco questa origine per la tracciabilità e l'annotazione dei metadati.
Usa connessione (pulsante di attivazione/disattivazione): indica se utilizzare una connessione esistente (vedi Gestire le connessioni). Se scegli di utilizzare una connessione esistente, non devi fornire dettagli sulla connessione SAP.
Connessione (sfoglia le connessioni): scegli la connessione esistente da utilizzare. Puoi anche utilizzare la funzione macro
${conn(connection-name)}
.Client SAP (M): il client SAP da utilizzare. Ad esempio,
100
.Lingua SAP (M): lingua di accesso a SAP. Ad esempio,
EN
.Tipo di connessione: tipo di connessione SAP: diretta o bilanciata in base al carico. Le connessioni con bilanciamento del carico non sono supportate per l'estrazione basata sulla catena di processo. Per ulteriori informazioni, vedi Dettagli sull'assistenza.
La selezione di un tipo di connessione modifica i campi disponibili.
Per una connessione diretta, sono disponibili i seguenti campi:
- Host del server di applicazioni SAP (M): il nome o l'indirizzo IP del server SAP.
- Numero sistema SAP (M): il numero del sistema SAP. Ad esempio,
00
. - Router SAP (M, O): la stringa del router.
Per una connessione con bilanciamento del carico, sono disponibili i seguenti campi:
- Host del server di messaggi SAP (M): il nome host o l'indirizzo IP del messaggio SAP.
- Numero di porta o servizio del server di messaggi SAP (M): il numero di porta o il servizio del server di messaggi SAP. Ad esempio,
sapms02
. - ID sistema SAP (SID) (M): l'ID sistema SAP. Ad esempio,
N75
. - Nome gruppo di accesso SAP (M): il nome del gruppo di accesso SAP. Ad esempio,
PUBLIC
.
Utilizza la catena di processo (M): questo campo contiene due opzioni.
Se attivi la catena di processo utilizzando l'opzione Sì, vengono attivate le seguenti proprietà:
Risolvi automaticamente gli errori di PC e DTP: controlla il comportamento quando viene identificata un'esecuzione precedentemente non riuscita. Se è disattivato, il plug-in non supera la pipeline con errori pertinenti. Se abilitato (valore predefinito), il plug-in controlla la catena di processo e lo stato del processo di trasferimento dati in SAP. Se viene rilevato uno dei seguenti errori, il plug-in tenta automaticamente di risolverlo:
Data Transfer Process in error state
: il plug-in elimina la richiesta precedenteProcess Chain in stato rosso con errore
previous request status has not been set
: Il plug-in elimina la richiesta di blocco dopo aver recuperato l'ID richiesta dal log di Process Chain e poi tenta di eseguire il PC.Tempo di attesa (in minuti) per la notifica dello stato della catena di processo (M, O): attende il tempo specificato, in minuti, per il completamento della preparazione dei dati da parte della catena di processo e invia una notifica alla pipeline per avviare l'estrazione. Se specifichi
0
o lasci vuoto il campo, il valore viene considerato pari a 10 minuti, che è il valore predefinito.Process Chain (M): il nome della catena di processo SAP. Ad esempio,
PC_RFC
.
Se disattivi la catena di processo utilizzando l'opzione No, vengono attivate le seguenti proprietà:
- Destinazione hub aperta (M): il nome della destinazione hub aperta da leggere.
- ID richiesta (M,O): ID richiesta per la procedura di trasferimento dei dati già eseguita.
Credenziali
- Nome utente di accesso SAP (M): nome utente SAP. Consigliato: se il nome utente di accesso SAP cambia periodicamente, utilizza una macro.
- SAP Logon Password (M): password utente SAP. Consigliato: per i valori sensibili come la password utente, utilizza macro sicure
Dettagli JCo SAP
- ID progetto Google Cloud (M): l' Google Cloud ID progetto, che identifica in modo univoco un progetto. Puoi trovarlo nella dashboard della console Google Cloud.
- Percorso GCS della libreria JCo di SAP (M): il percorso di Cloud Storage contenente i file della libreria JCo di SAP caricati dall'utente.
- Genera schema: fai clic qui se vuoi che il plug-in generi uno schema basato sui metadati di SAP, con mappatura automatica dei tipi di dati SAP ai tipi di dati Cloud Data Fusion corrispondenti. La funzionalità è la stessa del pulsante Convalida.
Per ulteriori informazioni sui certificati client, consulta Utilizzare i certificati client X.509 su SAP NetWeaver Application Server per ABAP.
Avanzate
Numero di suddivisioni da generare (M, O): il numero di suddivisioni viene utilizzato per partizionare i dati di input. Un maggior numero di partizioni aumenta il livello di parallelismo, ma richiede più risorse e overhead. Nel caso di un sistema SAP on-premise, se il valore non è specificato nell'interfaccia utente, le suddivisioni corrispondono al 50% dei flussi di lavoro di dialogo disponibili in SAP. In caso contrario, le suddivisioni vengono ottimizzate tra il valore specificato dall'utente e il 50% dei processi di lavoro disponibili.
Consigliato: lascia la proprietà vuota, a meno che tu non abbia dimestichezza con le impostazioni del sistema SAP.
Proprietà di connessione SAP aggiuntive (M, O): imposta proprietà JCo SAP aggiuntive che sostituiscono i valori predefiniti di JCo SAP. Ad esempio, l'impostazione
jco.destination.pool_capacity = 10
sostituisce la capacità del pool di connessioni predefinita.La tabella seguente elenca le proprietà JCo di SAP supportate:
Proprietà | Descrizione |
---|---|
jco.destination.peak_limit |
Numero massimo di connessioni attive che è possibile creare contemporaneamente per una destinazione. |
jco.destination.pool_capacity |
Numero massimo di connessioni inattive mantenute aperte dalla destinazione. Un valore
di 0 comporta l'assenza di pooling delle connessioni,
ovvero le connessioni verranno chiuse dopo ogni richiesta. |
jco.destination.expiration_time |
Tempo in ms dopo il quale le connessioni in attesa del pool interno possono essere chiuse. |
jco.destination.expiration_check_period |
Intervallo in ms con cui il thread di controllo del timeout controlla la scadenza delle connessioni nel pool. |
jco.destination.max_get_client_time |
Tempo massimo in ms di attesa per una connessione, se il numero massimo di connessioni consentito è allocato dall'applicazione. |
Comportamento delle modalità di estrazione dei dati
La modalità di estrazione dei dati è controllata tramite le impostazioni del processo di trasferimento dei dati. Il comportamento è diverso se utilizzi una catena di processo rispetto a una destinazione hub aperta.
Quando utilizzi una catena di processi
Le impostazioni a livello di processo di trasferimento dati controllano se viene eseguito un caricamento completo o delta. L'ID richiesta arriva come notifica da SAP al plug-in. Il plug-in legge i dati dei pacchetti associati a questo singolo ID richiesta.
Quando utilizzi la destinazione Open Hub senza ID richiesta
Caricamento completo: l'esecuzione della pipeline per la prima volta recupera tutti gli ID richiesta disponibili nella tabella Open Hub. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.
Caricamento delta: l'esecuzione della stessa pipeline la volta successiva recupera tutti gli ID richiesta delta disponibili dopo l'ultimo ID richiesta recuperato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.
Quando utilizzi la destinazione Open Hub con l'ID richiesta
Caricamento completo: l'esecuzione della pipeline per la prima volta recupera tutti gli ID richiesta disponibili successivi maggiori dell'ID richiesta specificato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.
Caricamento delta: l'esecuzione della stessa pipeline la volta successiva recupera tutti gli ID richiesta delta disponibili dopo l'ultimo ID richiesta recuperato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.
Mappatura dei tipi di dati
La seguente tabella mostra la mappatura tra i tipi di dati utilizzati in SAP BW e Cloud Data Fusion.
Tipo di dati BW | Tipo ABAP | Descrizione (SAP) | Tipo di dati di Cloud Data Fusion | |
---|---|---|---|---|
Numerico | ||||
INT1 | b |
Numero intero di 1 byte | integer |
|
INT2 | s |
Numero intero a 2 byte | integer |
|
INT4 | i |
Numero intero a 4 byte | integer |
|
INT8 | 8 |
Intero a 8 byte | long |
|
DIC | p |
Numero pacchettizzato in formato BCD (DEC) | decimal |
|
DF16_DEC DF16_RAW |
a |
Virgola mobile decimale 8 byte IEEE 754r | decimal |
|
DF34_DEC DF34_RAW |
e |
Virgola mobile decimale 16 byte IEEE 754r | decimal |
|
FLTP | f |
Numero in virgola mobile binario | double |
|
Carattere | ||||
CHAR LCHR |
c |
Stringa di caratteri | string |
|
SSTRING GEOM_EWKB |
string |
Stringa di caratteri | string |
|
STRING | string |
Stringa di caratteri CLOB | bytes |
|
NUMC ACCP |
n |
Testo numerico | string |
|
Byte | ||||
RAW LRAW |
x |
Dati binari | bytes |
|
RAWSTRING | xstring |
BLOB di stringhe di byte | bytes |
|
Data/ora | ||||
DATS | d |
Data | date |
|
TIMS | t |
Ora | time |
|
TIMESTAMP | utcl |
TimeStamp Utclong |
timestamp |
Convalida
Fai clic su Convalida o Ottieni schema.
Il plug-in convalida le proprietà e genera uno schema in base ai metadati di SAP. Mappa automaticamente i tipi di dati SAP ai tipi di dati Cloud Data Fusion corrispondenti.
Esegui una pipeline di dati
- Dopo aver eseguito il deployment della pipeline, fai clic su Configura.
- Seleziona Risorse.
- Se necessario, modifica CPU dell'executor e Memoria in base alle dimensioni complessive dei dati e al numero di trasformazioni utilizzate nella pipeline.
- Fai clic su Salva.
- Per avviare la pipeline di dati, fai clic su Esegui.
Ottimizzazione del rendimento
Configurazione del plug-in di Optimize
Utilizza le seguenti proprietà per un rendimento ottimale quando esegui la pipeline:
Numero di suddivisioni da generare nelle proprietà del plug-in Cloud Data Fusion: controlla direttamente il parallelismo lato Cloud Data Fusion. Il motore di runtime crea il numero specificato di partizioni e connessioni SAP durante l'estrazione dei record della tabella. Sono consigliati valori tra
8
e16
, ma puoi aumentare fino a32
o64
con la configurazione appropriata lato SAP, allocando risorse di memoria appropriate per i processi di lavoro in SAP.Se il valore è
0
o viene lasciato vuoto (opzione consigliata), il sistema sceglie automaticamente un valore appropriato in base al numero di procedure di lavoro SAP disponibili, ai record da estrarre e alle dimensioni del pacchetto.Dimensione pacchetto nelle proprietà del processo di trasferimento dati di BW: controlla il numero di record di dati presenti in un singolo pacchetto di dati. Il valore predefinito è
50,000
. L'aumento di questo valore potrebbe migliorare le prestazioni, ma comporta un maggiore carico delle risorse. Se utilizzi già valori più elevati, diminuiscili per consentire una migliore parallelizzazione dell'estrazione.
Impostazioni delle risorse Cloud Data Fusion
Consigliato: utilizza 1 CPU e 4 GB di memoria per executor. Questo valore si applica a ogni processo di esecuzione. Imposta questi valori nella dialoga Configura > Risorse.
Impostazioni del cluster Dataproc
Consigliato: alloca almeno un totale di CPU tra i worker superiore al numero previsto di suddivisioni. Consulta Configurazione dei plug-in.
Ad esempio, se hai 16 suddivisioni, definisci almeno 20 CPU in totale su tutti i worker. Esiste un overhead di 4 CPU utilizzate per la coordinazione.
Consigliato: utilizza un cluster Dataproc persistente per ridurre il tempo di esecuzione della pipeline di dati. In questo modo viene eliminato il passaggio di provisioning, che potrebbe richiedere alcuni minuti o più. Imposta questa opzione nella sezione di configurazione di Compute Engine.
Dettagli dell'assistenza
Prodotti e versioni SAP supportati
Origini supportate:
- SAP NW BW 7.5 e versioni successive
- SAP BW4HANA 2.0 SP9 (per includere l'API Open Hub Destination; le release precedenti di BW4HANA non supportano l'API Open Hub Destination)
Supporto della connessione SAP con bilanciamento del carico (server di messaggi)
La connessione SAP con bilanciamento del carico (server di messaggi) è supportata per l'estrazione basata sulla destinazione Open Hub, se non viene utilizzato un server RFC.
La connessione SAP con bilanciamento del carico (server di messaggi) non è supportata per l'estrazione basata su catene di processo. Il motivo è una limitazione di SAP quando fornisce la notifica data ready
al sistema client, che richiede la registrazione del server RFC (plugin listener) su ogni server SAP nel panorama BW, aumentando l'impronta del connettore e potenzialmente influendo sul rendimento di SAP e sull'utilizzo delle risorse. Per ulteriori informazioni, consulta la nota SAP 2572564 (è necessario accedere all'assistenza SAP per visualizzarla).
Modelli di deployment SAP supportati
Il plug-in è stato testato con i server SAP di cui è stato eseguito il deployment su Google Cloud.
Oggetti SAP supportati
Origini dati per la destinazione Open Hub: InfoProvider (InfoObject, InfoCube, Oggetto DataStore, Oggetto DataStore avanzato, Provider composito)
Catene di processo per eseguire automaticamente il processo di trasferimento dei dati nella destinazione Open Hub.
Licenza separata per utilizzare Oracle HTTP Server per estrarre i dati da SAP
Non è necessaria una licenza separata per utilizzare Oracle HTTP Server (OHS) per estrarre i dati da SAP. Tuttavia, rivolgiti al tuo rappresentante SAP per informazioni sul tuo contratto e caso d'uso specifici.
Velocità effettiva del plug-in prevista
Per un ambiente configurato in base alle linee guida riportate in Ottimizzare il rendimento, il plug-in può estrarre circa 38 GB all'ora. Le prestazioni effettive potrebbero variare in base al carico del sistema Cloud Data Fusion e SAP o al traffico di rete.
Passaggi successivi
- Scopri di più su Cloud Data Fusion.
- Scopri di più su SAP su Google Cloud.