Questa guida descrive come eseguire il deployment, configurare ed eseguire pipeline di dati che utilizzano il plug-in SAP BW Open Hub Batch Source. Puoi utilizzare SAP come origine per l'estrazione di dati basata su batch e delta in Cloud Data Fusion tramite Servizio Open Hub BW.
Questo plug-in consente l'integrazione collettiva dei dati da applicazioni SAP con Cloud Data Fusion. Puoi configurare ed eseguire trasferimenti di dati collettivi da DataSources SAP senza dover scrivere codice.
Per le applicazioni SAP supportate e gli oggetti per l'estrazione, consulta Dettagli sull'assistenza. Per ulteriori informazioni sull'esecuzione di SAP su Google Cloud, consulta Panoramica di SAP su Google Cloud.
Obiettivi
- Configura il sistema SAP BW.
- Esegui il deployment del plug-in nel tuo ambiente Cloud Data Fusion.
- Scarica il trasporto SAP da Cloud Data Fusion e installalo in SAP.
- Utilizza l'origine batch di Cloud Data Fusion e SAP BW Open Hub per creare pipeline di dati per l'integrazione di dati SAP.
Prima di iniziare
Per utilizzare questo plug-in, è necessaria una conoscenza del dominio nelle seguenti aree:
- Creazione di pipeline in Cloud Data Fusion
- Configurazione di sistemi SAP BW o BW4HANA
Ruoli utente
Le attività in questa pagina vengono eseguite dalle persone con i seguenti ruoli in Google Cloud o nel loro sistema SAP:
Tipo di utente | Descrizione |
---|---|
Amministratore Google Cloud | Gli utenti a cui è stato assegnato questo ruolo sono amministratori di account Google Cloud. |
Utente Cloud Data Fusion | Gli utenti a cui è stato assegnato questo ruolo sono autorizzati a progettare ed eseguire pipeline di dati. Viene concesso almeno il ruolo Visualizzatore Data Fusion (
roles/datafusion.viewer ). Se utilizzi il controllo dell'accesso basato sui ruoli, potrebbero essere necessari ruoli aggiuntivi.
|
Amministratore SAP | Gli utenti a cui è stato assegnato questo ruolo sono amministratori del sistema SAP. Hanno accesso per scaricare software dal sito del servizio SAP. Non è un ruolo IAM. |
Utente SAP | Gli utenti a cui è stato assegnato questo ruolo sono autorizzati a connettersi a un sistema SAP. Non è un ruolo IAM. |
Prerequisiti per SAP BW
Per creare e modificare le catene di processi e i processi di trasferimento dati, devi disporre di SAP HANA Studio.
Prerequisiti per Cloud Data Fusion
- Per la creazione di un'istanza Cloud Data Fusion è necessaria una rete VPC.
- Per un'istanza Cloud Data Fusion, versione 6.8.0 o successiva, qualsiasi versione, obbligatorio.
- I ruoli richiesti devono essere concessi all'account di servizio assegnato all'istanza Cloud Data Fusion. Per ulteriori informazioni, vedi Concessione dell'autorizzazione all'utente con l'account di servizio.
- Devi utilizzare una connessione in peering tra il tuo VPC rete VPC condivisa di Google.
Configura il sistema SAP BW
L'origine batch Open Hub SAP BW utilizza un Remote Function Module (RFM), che deve essere installato su ogni server SAP dove vengono estratti i dati. Questo RFM viene fornito come trasporto SAP.
Per configurare il sistema SAP:
- L'utente di Cloud Data Fusion deve scaricare il file ZIP contenente Trasporto SAP e fornirlo all'amministratore SAP. Per ulteriori informazioni, vedi Configurare Cloud Data Fusion.
- L'amministratore SAP deve importare il trasporto SAP nel sistema SAP e verificare gli oggetti creati. Per ulteriori informazioni, vedi Installa il trasporto SAP.
- (Facoltativo) L'utente SAP può modificare gli oggetti di autorizzazione standard SAP di
assegnato il ruolo
/GOOG/BWOH_CDF_AUTH
in base alla sicurezza della sua organizzazione criteri.
Installa i file di trasporto SAP
Per progettare ed eseguire pipeline di dati in Cloud Data Fusion, il SAP vengono forniti in file di trasporto SAP, archiviati in un file . Il download è disponibile quando esegui il deployment del plug-in in Cloud Data Fusion Hub.
Scarica il file ZIP del trasporto SAP BW OH
Gli ID richiesta di trasporto SAP e i file associati sono forniti nella tabella seguente:
Trasporto SAP
ID trasporto | Archivia | File di dati | Contenuti |
---|---|---|---|
BW1K900054 | K900054.BW1 | R900054.BW1 | Connettore BWOH Cloud Data Fusion versione 1.0 Moduli funzione: /GOOG/BWOH_GET_PC_LOG /GOOG/BWOH_GET_PRO_CHA_DETAILS /GOOG/BWOH_API_OHS_ETL_READ /GOOG/BWOH_GET_PC_RUNS /GOOG/BWOH_SET_LAST_RUN /GOOG/BWOH_GET_PC_OHD_LIST |
BW1K900055 | K900055.BW1 | R900055.BW1 | Ruolo di autorizzazione /GOOG/BWOH_CDF_AUTH |
Per installare il trasporto SAP, segui questi passaggi:
Passaggio 1: carica i file di richiesta di trasporto
- Accedi al sistema operativo dell'istanza SAP.
- Usa il codice transazione SAP
AL11
per ottenere il percorso della cartellaDIR_TRANS
. In genere il percorso è/usr/sap/trans/
. - Copia i cofile nella cartella
DIR_TRANS/cofiles
. - Copia i file di dati nella cartella
DIR_TRANS/data
. - Imposta il campo Utente e gruppo di dati e cofile su
<sid>adm
esapsys
.
Passaggio 2: importa i file di richiesta di trasporto
L'amministratore SAP può importare i file di richiesta di trasporto utilizzando una delle seguenti opzioni:
Opzione 1: importa i file delle richieste di trasporto utilizzando il sistema di gestione dei trasporti SAP
- Accedi al sistema SAP come amministratore SAP.
- Inserisci il codice STMS della transazione.
- Fai clic su Panoramica > Importazioni.
- Nella colonna Coda, fai doppio clic sul SID corrente.
- Fai clic su Extra > Altre richieste > Aggiungi.
- Seleziona l'ID richiesta di trasporto e fai clic su Continua.
- Seleziona la richiesta di trasporto nella coda di importazione, quindi fai clic su Richiedi > Importa.
- Inserisci il numero del cliente.
Nella scheda Opzioni, seleziona Sovrascrivi originali e Ignora versione del componente non valida.
(Facoltativo) Seleziona Lascia le richieste di trasporto in coda per un'importazione successiva. Questo fa sì che le richieste vengano importate di nuovo nell'ordine corretto con e l'importazione di tutte le richieste. Questa opzione è utile se devi eseguire importazioni preliminari per singole richieste.
Fai clic su Continua.
Verifica che il modulo di funzione e i ruoli di autorizzazione siano stati importati correttamente utilizzando le transazioni appropriate, ad esempio
SE80
ePFCG
.
Opzione 2: importa i file delle richieste di trasporto a livello di sistema operativo
- Accedi al sistema SAP come amministratore SAP.
Aggiungi le richieste appropriate al buffer di importazione:
tp addtobuffer TRANSPORT_REQUEST_ID SID
Ad esempio:
tp addtobuffer BW1K900054 DD1
Importa le richieste di trasporto:
tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
Sostituisci
NNN
con il numero del cliente. Ad esempio:tp import BW1K900054 DD1 client=100 U1238
Verificare che il modulo funzione e i ruoli di autorizzazione siano stati importati correttamente utilizzando eventuali transazioni appropriate, come
SE80
ePFCG
.
Autorizzazioni SAP richieste
Per eseguire una pipeline di dati in Cloud Data Fusion, è necessario un utente SAP. Il SAP
L'utente deve essere del tipo Communications
o Dialog
. Per evitare di utilizzare le risorse di dialogo SAP, è consigliato il tipo Communications
. Il SAP
L'amministratore può creare utenti utilizzando il codice transazione SAP SU01
.
Le autorizzazioni SAP sono necessarie per configurare il connettore per SAP. Gli oggetti di autorizzazione SAP specifici del connettore vengono inviati nell'ambito della richiesta di trasporto. Importa il trasporto del ruolo di autorizzazione come descritto in Installa il trasporto SAP per trasferire il ruolo nel tuo e generare il ruolo dal codice della transazione PFCG.
Per gli oggetti di autorizzazione SAP standard, la tua organizzazione gestisce le autorizzazioni con un proprio meccanismo di sicurezza. Puoi gestire gli oggetti di autorizzazione in base i criteri di sicurezza della tua organizzazione.
Creare una catena di processi (PC) e un processo di trasferimento di dati (DTP)
La creazione di una catena di processi e del processo di trasferimento di dati richiede alcune competenze e conoscenze pregresse.
Concetti di base
Per creare o modificare un PC e DTP, utilizza SAP HANA Studio.
Competenze prerequisiti
- Hai utilizzato le trasformazioni per definire il flusso di dati tra l'origine e l'oggetto target.
- Hai familiarità con i concetti di base di BW e HANA, come oggetti DataStore (DSO), trasformazioni dei dati, InfoCube, ottimizzazione delle query, modellazione HANA e funzionalità del database HANA utilizzando HANA Studio. Per ulteriori informazioni su questi concetti, consulta i tutorial SAP su BW e HANA.
Tipo di estrazione
Esistono due modalità di estrazione dei dati per un processo di trasferimento di dati: completo e Delta.
Completo: seleziona tutti i dati disponibili nell'origine in base al filtro condizioni menzionate nel DTP. Se l'origine dei dati è uno dei i seguenti InfoProvider, è disponibile solo la modalità Full Extraction:
- InfoObjects
- InfoSets
- Oggetti datastore per aggiornamento diretto
Delta: a differenza di InfoPackage, il trasferimento delta tramite DTP non richiede un un'inizializzazione esplicita. Quando un DTP viene eseguito con l'estrazione delta, per la prima volta, tutte le richieste esistenti fino all'ora dell'estrazione recuperato dall'origine, il valore delta viene automaticamente inizializzato.
Per un DTP con modalità di estrazione Delta, sono disponibili le seguenti opzioni:
- Ricevi Delta solo una volta
- Ricevere tutte le richieste di dati nuovi per richiesta
- Recupero fino al termine dei nuovi dati
Dimensione del pacchetto: il numero di record di dati presenti in un individuo.
pacchetto di dati. Il valore predefinito è 50,000
.
Crea una catena di processi
Per creare una catena di processi (PC), utilizza l'RSPC della transazione nella GUI di SAP. Definisci un , quindi aggiungi i passaggi del processo e il DTP. Per ulteriori informazioni, consulta la documentazione SAP per Creazione di catene di processi.
In HANA Studio sono disponibili varie opzioni per monitorare e amministrare i PC. Per ulteriori informazioni, vedi Operazioni della catena di processi SAP BW/4HANA.
Creare un processo di trasferimento di dati utilizzando una catena di processi
Vai alla visualizzazione Pianificazione della catena di processi che vuoi utilizzare per Procedura di trasferimento dei dati. Nella vista Pianificazione, puoi creare il DTP utilizzando HANA Studio. Per ulteriori informazioni, consulta la documentazione SAP per Creazione di una procedura di trasferimento dei dati.
Per saperne di più sulle opzioni di configurazione, consulta Tutto sul processo di trasferimento di dati (DTP) - SAP BW 7.
Connessione RFC
Per notificare il sistema di callback, ad esempio il plug-in SAP BW Open Hub Batch Source, la disponibilità dei dati, la catena di processi deve essere aggiornata in modo da utilizzare destinazione:
In SM59, crea una connessione RFC di tipo Connessioni TCP/IP per inviare una notifica al sistema di destinazione da BW al termine del caricamento dei dati in BI.
Assicurati che l'ID programma sia configurato nella connessione RFC facendo doppio clic sulla connessione RFC. L'ID programma deve essere univoco per ogni destinazione RFC per evitare conflitti tra listener di runtime.
Utilizza la connessione TCP/IP appena creata nella catena di processi per inviare notifica per il completamento di un job batch di Cloud Data Fusion. Il nome del la catena di processi non è sensibile alle maiuscole. Deve essere specificato correttamente in lettere maiuscole nel processo di integrazione end-to-end.
Visualizza i log delle catene di processi e dei processi di trasferimento di dati
Vai a Tcode : RSPC e fai clic su Process Chains.
Fai clic con il tasto destro del mouse sulla catena di processi per la quale desideri visualizzare i log, Fai clic su Visualizza log.
Configurare il cluster Dataproc quando si utilizza la catena di processi
Per abilitare la comunicazione tramite il server RFC, devi aggiungere le voci della porta SAP Gateway nel file /etc/services
nei nodi del cluster Dataproc.
Ti consigliamo di usare un init action
,
lo script da eseguire all'inizializzazione del cluster. Per ulteriori informazioni,
consulta la sezione Azioni di inizializzazione.
Creare un file di script e salvarlo in un bucket Cloud Storage. Le seguenti in questo esempio viene mostrato il contenuto del file di script:
gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services
Nell'esempio precedente, tieni presente quanto segue:
Le voci sono nel formato
sapgwxx 33xx/tcp
, doveXX
è il numero di istanza SAP.Vengono aggiunte le porte per le istanze SAP da
00
a04
.
Esegui i seguenti passaggi se utilizzi un ambiente temporaneo o un cluster Dataproc permanente esistente.
Cluster Dataproc temporaneo
Se utilizzi un cluster Dataproc temporaneo, aggiungi il percorso dello script init
a
proprietà del cluster:
- Nel monitoraggio del job, dalla pagina della pipeline in Cloud Data Fusion, fai clic su Configura.
- Seleziona il profilo di calcolo e fai clic su Personalizza.
- In Impostazioni avanzate, nel campo Azioni di inizializzazione,
inserisci il percorso dello script
init
.
Nuovo cluster Dataproc permanente
Se utilizzi un cluster Dataproc permanente appena creato, usa l'init
del comando gcloud per creare il cluster. Per
esempio:
gcloud dataproc clusters create cluster-name \
--region=${REGION} \
--initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
... other flags ...
Cluster Dataproc permanente esistente
Se utilizzi un cluster Dataproc permanente esistente, segui questi passaggi:
Se il cluster è già stato creato senza utilizzare lo script init
,
quindi aggiungi manualmente le voci nei nodi master e worker del
di un cluster Dataproc.
- SSH al nodo master e al nodo del cluster.
- Accedi all'ID utente root.
- Passa a
/etc/
e apri il file/etc/services
in un editor VI. - Aggiungi la voce
sapgwxx 33xx/tcp
. Sostituiscixx
con la tua istanza SAP numero. - Salva il file
/etc/services
.
Configura Cloud Data Fusion
Assicurati che la comunicazione tra Cloud Data Fusion sia abilitata e il server SAP. Per le istanze private, configura peering di rete. Una volta stabilito il peering di rete con il progetto in cui sono ospitati i sistemi SAP, non è richiesta alcuna configurazione aggiuntiva per connettersi all'istanza Cloud Data Fusion. Sia il sistema SAP che Cloud Data Fusion deve trovarsi all'interno dello stesso progetto.
Passaggi per gli utenti di Cloud Data Fusion
- Vai ai dettagli dell'istanza:
Nella console Google Cloud, vai alla pagina Cloud Data Fusion.
Fai clic su Istanze, quindi sul nome dell'istanza per andare alla pagina Dettagli istanza.
- Verifica che sia stato eseguito l'upgrade dell'istanza alla versione 6.8.0 o successiva. Se l'istanza è in una versione precedente, devi eseguirne l'upgrade.
- Apri l'istanza. All'apertura della UI di Cloud Data Fusion, fai clic su Hub.
- Seleziona la scheda SAP > SAP. Se la scheda SAP non è visibile, consulta Risoluzione dei problemi relativi alle integrazioni SAP
- Fai clic su Deploy SAP BW Plugin (Esegui il deployment del plug-in SAP BW). Il plug-in viene visualizzato nel menu Origine sulla pagina di Studio.
Passaggi per SAP Admin e Google Cloud Admin
L'amministratore SAP scarica i seguenti elementi JCo dal sito di assistenza SAP e li consegna all'amministratore Google Cloud.
- Indipendente dalla piattaforma (
sapjco3.jar
) - A seconda della piattaforma (
libsapjco3.so
su Unix)
Per scaricare i file, procedi nel seguente modo:
- Vai alla pagina Connettori SAP .
- Fai clic su Connettore Java SAP/Strumenti e servizi. Puoi selezionare link specifici per la piattaforma per il download.
Seleziona la piattaforma su cui viene eseguita l'istanza Cloud Data Fusion:
- Se utilizzi immagini Google Cloud standard per le VM nel tuo cluster, che è l'impostazione predefinita per Cloud Data Fusion, seleziona Linux per processori compatibili con Intel a 64 bit x86.
- Se utilizzi un'immagine personalizzata, seleziona la piattaforma corrispondente.
L'amministratore di Google Cloud deve copiare i file JCo in un file nel bucket Cloud Storage. Fornisci il percorso del bucket all'utente Cloud Data Fusion affinché lo inserisca nella proprietà del plug-in corrispondente in Cloud Data Fusion: Percorso GCS della libreria JCo di SAP. Vedi Configurare il plug-in.
L'amministratore di Google Cloud deve concedere l'accesso in lettura ai due file Account di servizio Cloud Data Fusion per l'ambiente di progettazione e Account di servizio Dataproc per l'ambiente di esecuzione. Per ulteriori informazioni, vedi Account di servizio Cloud Data Fusion.
Configura il plug-in
Il plug-in SAP BW Open Hub Batch Source legge il contenuto di un SAP DataSource.
Per filtrare i record, puoi configurare le seguenti proprietà per il parametro Origine batch Open Hub SAP BW.
Per definire i campi vengono utilizzati i seguenti indicatori:
- (M): indica che le macro sono supportate per il rispettivo campo
- (O): campo facoltativo
Etichetta: etichetta del plug-in sul canvas.
Di base
Nel seguente elenco di proprietà, (M) indica che l'opzione supporta le macro e possono essere utilizzate per gestire centralmente le connessioni SAP. Ad esempio, è possibile usare macro per le proprietà di connessione e impostare i valori in fase di runtime utilizzando i parametri di runtime o un plug-in Argument Setter.
- Nome di riferimento: nome utilizzato per identificare in modo univoco questa origine per la derivazione e annotare i metadati.
Usa connessione (opzione di attivazione/disattivazione): se utilizzare una connessione esistente. (vedi Gestire le connessioni). Se scegli di utilizzare una connessione esistente, non devi fornire dettagli sulla connessione SAP.
Connessione (sfoglia connessioni): scegli la connessione esistente da utilizzare. Puoi anche utilizzare la funzione macro
${conn(connection-name)}
.Client SAP (M): il client SAP da utilizzare. Ad esempio,
100
.SAP Language (M): lingua di accesso SAP. Ad esempio,
EN
.Tipo di connessione: tipo di connessione SAP, diretta o con bilanciamento del carico. Le connessioni con bilanciamento del carico non sono supportate per la catena di processi l'estrazione dei contenuti. Per ulteriori informazioni, vedi Dettagli sull'assistenza.
La selezione di un tipo di connessione modifica i campi disponibili.
Per una connessione diretta, sono disponibili i seguenti campi:
- Host server delle applicazioni SAP (M): il nome o l'indirizzo IP del server SAP.
- Numero di sistema SAP (M): il numero di sistema SAP. Ad esempio,
00
. - Router SAP (M, O): la stringa del router.
Per una connessione con bilanciamento del carico, sono disponibili i seguenti campi:
- SAP Message Server Host (M): il nome host o l'indirizzo IP del messaggio SAP.
- SAP Message Server Service or Port Number (M): il server di messaggi SAP
o un numero di porta. Ad esempio,
sapms02
. - SAP System ID (SID) (M): l'ID del sistema SAP. Ad esempio,
N75
. - SAP Logon Group Name (M): il nome del gruppo di accesso SAP. Ad esempio,
PUBLIC
.
Use Process Chain (M): questo campo contiene due opzioni.
Se abiliti Process Chain utilizzando l'opzione Sì, quanto segue: sono attivate:
Risolvi automaticamente gli errori di PC e DTP: controlla il comportamento quando viene identificata un'esecuzione precedentemente non riuscita. Se è disattivato, il plug-in non supera la pipeline con errori pertinenti. Se questa impostazione è attiva (impostazione predefinita), il plug-in controlla la catena dei processi e lo stato del processo di trasferimento di dati in SAP. Se viene rilevato uno dei seguenti errori, il plug-in tenta automaticamente di risolverlo:
Data Transfer Process in error state
: il plug-in elimina la richiesta precedenteProcess Chain in stato rosso con errore
previous request status has not been set
: Il plug-in elimina la richiesta di blocco dopo aver recuperato l'ID richiesta dal log di Process Chain e poi tenta di eseguire il PC.Tempo di attesa per la notifica dello stato della catena di processo (in minuti) (M, O): Attende il tempo specificato, in minuti, che la catena di processi completi la gestione temporanea dei dati e la notifica alla pipeline per l'avvio dell'estrazione. Se specifichi
0
o lascialo vuoto, il valore predefinito è 10 minuti.Catena di processi (M): il nome della catena di processi SAP. Ad esempio,
PC_RFC
.
Se disabiliti Process Chain utilizzando l'opzione No, vengono abilitate le seguenti proprietà:
- Apri destinazione hub (M): apri il nome della destinazione Hub da leggere.
- ID richiesta (M,O): ID richiesta per il processo di trasferimento di dati già eseguito.
Credenziali
- Nome utente di accesso SAP (M): nome utente SAP. Consigliato: se il nome utente di accesso SAP cambia periodicamente, utilizza un .
- SAP Logon Password (M) - Password dell'utente SAP. Consigliato: per i valori sensibili come la password utente, utilizza macro sicure
Dettagli JCo SAP
- ID progetto Google Cloud (M): l'ID progetto Google Cloud, che in modo univoco identifica un progetto. Puoi trovarlo nella dashboard della console Google Cloud.
- Percorso GCS della libreria JCo di SAP (M): il percorso di Cloud Storage contenente i file della libreria JCo di SAP caricati dall'utente.
- Ottieni schema: fai clic su questa opzione se vuoi che il plug-in generi uno schema. basata sui metadati di SAP, con la mappatura automatica dei tipi di dati SAP ai tipi di dati Cloud Data Fusion corrispondenti. La funzionalità è la stessa del pulsante Convalida.
Per ulteriori informazioni sui certificati client, consulta Utilizzo di certificati client X.509 su SAP NetWeaver Application Server per ABAP.
Avanzato
Numero di suddivisioni da generare (M, O): il numero di suddivisioni viene utilizzato per partizionare i dati di input. Più partizioni aumentano il livello di parallelismo, ma richiedono più risorse e overhead. Nel caso di un progetto SAP on-premise se il valore non è specificato nell'interfaccia utente, le suddivisioni corrispondono al 50% del i processi di lavoro delle finestre di dialogo disponibili in SAP. In caso contrario, le suddivisioni vengono ottimizzate tra l'utente e il 50% dei processi di lavoro disponibili.
Consigliato: lascia vuoto il campo della proprietà, a meno che tu non conosca il Impostazioni di sistema SAP.
Altre proprietà di connessione SAP (M, O): imposta JCo SAP aggiuntivi che eseguono l'override dei valori predefiniti di SAP JCo. Ad esempio, l'impostazione
jco.destination.pool_capacity = 10
sostituisce la capacità del pool di connessioni predefinita.La tabella seguente elenca le proprietà SAP JCo supportate:
Proprietà Descrizione jco.destination.peak_limit
Numero massimo di connessioni attive che è possibile creare contemporaneamente per una destinazione. jco.destination.pool_capacity
Numero massimo di connessioni inattive mantenute aperte dalla destinazione. Un valore di 0
impedisce il pool di connessioni, ovvero le connessioni vengono chiuse dopo ogni richiesta.jco.destination.expiration_time
Tempo (in ms
) successivo al periodo in cui le connessioni vengono trattenute dall'interno il pool può essere chiuso.jco.destination.expiration_check_period
Intervallo in ms
con cui il thread di controllo del timeout controlla il thread le connessioni nel pool per la scadenza.jco.destination.max_get_client_time
Tempo massimo di attesa in ms
di attesa di una connessione, se il valore massimo numero consentito di connessioni è assegnato dall'applicazione.
Comportamento delle modalità di estrazione dei dati
La modalità di estrazione dei dati è controllata tramite il processo di trasferimento dei dati impostazioni. Il comportamento è diverso quando si utilizza una catena di processi Apri destinazione hub.
Quando si utilizza una catena di processi
Le impostazioni a livello di Processo di trasferimento di dati consentono di controllare la disponibilità completa o delta viene eseguito automaticamente. L'ID richiesta arriva come notifica da SAP al . Il plug-in legge i dati dei pacchetti associati a questo singolo ID richiesta.
Quando utilizzi una destinazione hub aperto senza ID richiesta
A pieno carico: l'esecuzione della pipeline per la prima volta ottiene tutte le risorse disponibili ID richieste nella tabella Open Hub. Il plug-in legge i dati dei pacchetti associati con questi ID richiesta.
Carico delta: l'esecuzione della stessa pipeline per la prossima volta recupera tutti i ID richieste delta disponibili, dopo l'ultimo ID richiesta recuperato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.
Quando si utilizza destinazione Open Hub con ID richiesta
Caricamento completo: l'esecuzione della pipeline per la prima volta consente di ottenere tutte le successive ID richiesta superiori all'ID richiesta specificato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.
Carico delta: l'esecuzione della stessa pipeline per la prossima volta recupera tutti i ID richieste delta disponibili, dopo l'ultimo ID richiesta recuperato. Il plug-in legge di pacchetti associati a questi ID richiesta.
Mappatura dei tipi di dati
La tabella seguente mostra la mappatura tra i tipi di dati utilizzati in SAP BW e in Cloud Data Fusion.
Tipo di dati BW | Tipo di ABAP | Descrizione (SAP) | Tipo di dati di Cloud Data Fusion | |
---|---|---|---|---|
Numerico | ||||
INT1 | b |
Numero intero a 1 byte | integer |
|
INT2 | s |
Numero intero a 2 byte | integer |
|
INT4 | i |
Numero intero a 4 byte | integer |
|
INT8 | 8 |
Numero intero a 8 byte | long |
|
DIC | p |
Numero pacchettizzato in formato BCD (DEC) | decimal |
|
DF16_DEC DF16_RAW |
a |
Virgola mobile decimale 8 byte IEEE 754r | decimal |
|
DF34_DEC DF34_RAW |
e |
Virgola mobile decimale 16 byte IEEE 754r | decimal |
|
FLTP | f |
Numero con rappresentazione in virgola mobile binaria | double |
|
Carattere | ||||
CHAR CHR |
c |
Stringa di caratteri | string |
|
SEGNAPOSTO GEOM_EWKB |
string |
Stringa di caratteri | string |
|
STRING | string |
Stringa di caratteri CLOB | bytes |
|
NUMC ACCP |
n |
Testo numerico | string |
|
Byte | ||||
RAW LRAW |
x |
Dati binari | bytes |
|
SEGNALAZIONE | xstring |
Stringa byte BLOB | bytes |
|
Data/Ora | ||||
DATS | d |
Data | date |
|
TIMS | t |
Ora | time |
|
TIMESTAMP | utcl |
TimeStamp Utclong |
timestamp |
Convalida
Fai clic su Convalida o Ottieni schema.
Il plug-in convalida le proprietà e genera uno schema basato sui metadati. da SAP. Mappa automaticamente i tipi di dati SAP al corrispondente Tipi di dati di Cloud Data Fusion.
Esegui una pipeline di dati
- Dopo aver eseguito il deployment della pipeline, fai clic su Configura.
- Seleziona Risorse.
- Se necessario, modifica la CPU dell'esecutore e la memoria in base alla la dimensione complessiva dei dati e il numero di trasformazioni utilizzate nella pipeline.
- Fai clic su Salva.
- Per avviare la pipeline di dati, fai clic su Esegui.
Ottimizzazione del rendimento
Ottimizza la configurazione del plug-in
Utilizza le seguenti proprietà per un rendimento ottimale quando esegui la pipeline:
Numero di suddivisioni da generare nel plug-in di Cloud Data Fusion proprietà: controlla direttamente il parallelismo sulla Cloud Data Fusion. Il motore di runtime crea il numero specificato di partizioni e connessioni SAP durante l'estrazione dei record della tabella. Valori è consigliato un valore compreso tra
8
e16
, ma puoi aumentarlo fino a32
o64
con la configurazione appropriata sul lato SAP, allocando le di risorse di memoria per i processi di lavoro in SAP.Se il valore è
0
o viene lasciato vuoto (opzione consigliata), il sistema esegue automaticamente sceglie un valore appropriato in base al numero di lavori SAP disponibili i processi, i record da estrarre e le dimensioni del pacchetto.Dimensione pacchetto nelle proprietà Processo di trasferimento dati BW: questa opzione controlla il numero di record di dati presenti in un singolo pacchetto di dati. Il valore predefinito è
50,000
. L'aumento di questo valore potrebbe produrre un rendimento migliore, ma con un carico di risorse maggiore. Se utilizzi già valori più alti, diminuiscilo a per consentire una migliore parallelizzazione dell'estrazione.
Impostazioni delle risorse di Cloud Data Fusion
Consigliato: utilizza 1 CPU e 4 GB di memoria per executor. Questo valore si applica a ogni processo esecutore. Imposta questi valori nel Finestra di dialogo Configura > Risorse.
Impostazioni del cluster Dataproc
Consigliato: alloca almeno un totale di CPU tra i worker, più del numero previsto di suddivisioni. Consulta Configurazione dei plug-in.
Ad esempio, se hai 16 split, definisci almeno 20 CPU in totale, tra tutti i worker. L'overhead è di 4 CPU utilizzate per il coordinamento.
Consigliato: utilizza un cluster Dataproc permanente per ridurre le dal runtime della pipeline di dati. In questo modo si elimina il passaggio del provisioning, che potrebbe richiedere una più di qualche minuto. Imposta questa opzione nella sezione di configurazione di Compute Engine.
Dettagli dell'assistenza
Prodotti e versioni SAP supportati
Fonti supportate:
- SAP NW BW 7.5 e versioni successive
- SAP BW4HANA 2.0 SP9 (per includere l'API Open Hub destination; precedente le release di BW4HANA non supportano l'API Open Hub destination).
Supporto per la connessione con bilanciamento del carico (server di messaggi) SAP
La connessione al bilanciamento del carico (server di messaggi) SAP è supportata per Open Hub Estrazione basata sulla destinazione, quando non viene utilizzato un server RFC.
La connessione con bilanciamento del carico SAP (server di messaggi) non è supportata per il processo
un'estrazione basata su catene. Il motivo è una limitazione SAP quando si fornisce
Notifica data ready
al sistema client, che richiede la registrazione del
RFC Server (listener del plug-in) su ogni server SAP nel panorama BW, aumentando
l'impatto del connettore e un potenziale impatto sulle prestazioni SAP
e l'utilizzo delle risorse. Per ulteriori informazioni, vedi
Nota SAP 2572564
(Per visualizzare è necessario accedere all'assistenza SAP).
Modelli di deployment SAP supportati
Il plug-in viene testato con server SAP di cui è stato eseguito il deployment su Google Cloud.
Oggetti SAP supportati
Origini dati per la destinazione Open Hub: InfoProvider (InfoObject, InfoCube, oggetto datastore, oggetto datastore avanzato, fornitore composito)
Catene di processi per eseguire automaticamente il processo di trasferimento di dati nell’ambiente aperto Destinazione hub.
Licenza separata per utilizzare Oracle HTTP Server per estrarre i dati da SAP
Non è necessaria una licenza separata per utilizzare Server HTTP Oracle (OHS) per estrarre dati da SAP; ma consulta il tuo rappresentante SAP sulla tua contratto e caso d'uso specifici.
Velocità effettiva prevista del plug-in
Per un ambiente configurato in base alle linee guida in Ottimizza le prestazioni, il plug-in può estrarre intorno 38 GB all'ora. Il rendimento effettivo può variare con Carico di sistema o traffico di rete di Cloud Data Fusion e SAP.
Passaggi successivi
- Scopri di più su Cloud Data Fusion.
- Scopri di più su SAP su Google Cloud.