Origine batch SAP BW Open Hub

Questa guida descrive come eseguire il deployment, configurare ed eseguire pipeline di dati che utilizzano il plug-in SAP BW Open Hub Batch Source. Puoi utilizzare SAP come origine per l'estrazione di dati basata su batch e delta in Cloud Data Fusion tramite il servizio BW Open Hub.

Questo plug-in consente l'integrazione collettiva dei dati da applicazioni SAP con Cloud Data Fusion. Puoi configurare ed eseguire trasferimenti di dati in blocco da Origini dati SAP senza alcuna programmazione.

Per le applicazioni e gli oggetti SAP supportati per l'estrazione, consulta Dettagli sull'assistenza. Per ulteriori informazioni sull'esecuzione di SAP su Google Cloud, consulta la Panoramica di SAP su Google Cloud.

Obiettivi

  • Configura il sistema SAP BW.
  • Esegui il deployment del plug-in nell'ambiente Cloud Data Fusion.
  • Scarica il trasporto SAP da Cloud Data Fusion e installalo in SAP.
  • Utilizza Cloud Data Fusion e SAP BW Open Hub Batch Source per creare pipeline di dati per l'integrazione dei dati SAP.

Prima di iniziare

Per utilizzare questo plug-in, devi avere conoscenze di dominio nelle seguenti aree:

  • Creazione di pipeline in Cloud Data Fusion
  • Configurazione dei sistemi SAP BW o BW4HANA

Ruoli utente

Le attività in questa pagina vengono eseguite da persone con i seguenti ruoli in Google Cloud o nel sistema SAP:

Tipo di utente Descrizione
Amministratore Google Cloud Gli utenti a cui è assegnato questo ruolo sono amministratori degli account Google Cloud.
Utente Cloud Data Fusion Gli utenti a cui è assegnato questo ruolo sono autorizzati a progettare ed eseguire pipeline di dati. Devono disporre almeno del ruolo Visualizzatore Data Fusion ( roles/datafusion.viewer). Se utilizzi il controllo degli accessi basato sui ruoli, potresti avere bisogno di altri ruoli.
Amministratore SAP Gli utenti a cui è assegnato questo ruolo sono amministratori del sistema SAP. Hanno accesso per scaricare il software dal sito del servizio SAP. Non è un ruolo IAM.
Utente SAP Gli utenti a cui è assegnato questo ruolo sono autorizzati a connettersi a un sistema SAP. Non è un ruolo IAM.

Prerequisiti per SAP BW

Per creare e modificare le catene di processi e i processi di trasferimento dati, devi disporre di SAP HANA Studio.

Prerequisiti per Cloud Data Fusion

  • Per la creazione di un'istanza Cloud Data Fusion è necessaria una rete VPC.
  • È obbligatoria un'istanza Cloud Data Fusion, versione 6.8.0 o successive, di qualsiasi versione.
  • I ruoli richiesti devono essere concessi all'account di servizio assegnato all'istanza Cloud Data Fusion. Per ulteriori informazioni, consulta Concedere l'autorizzazione utente all'account di servizio.
  • Devi utilizzare una connessione di peering tra il tuo VPC e la rete VPC condivisa di Google.

Configura il sistema SAP BW

SAP BW Open Hub Batch Source utilizza un modulo di funzione remota (RFM), che deve essere installato su ogni server SAP dove vengono estratti i dati. Questo RFM viene inviato come trasporto SAP.

Per configurare il sistema SAP:

  1. L'utente di Cloud Data Fusion deve scaricare il file ZIP contenente il trasporto SAP e fornirlo all'amministratore SAP. Per saperne di più, consulta Configurare Cloud Data Fusion.
  2. L'amministratore SAP deve importare il trasporto SAP nel sistema SAP e verificare gli oggetti creati. Per ulteriori informazioni, consulta Installare il trasporto SAP.
  3. (Facoltativo) L'utente SAP può modificare gli oggetti di autorizzazione SAP standard del ruolo fornito /GOOG/BWOH_CDF_AUTH in base ai criteri di sicurezza della propria organizzazione.

Installa i file di trasporto SAP

Per progettare ed eseguire pipeline di dati in Cloud Data Fusion, i componenti SAP vengono caricati in file di trasporto SAP, che vengono archiviati in un file ZIP. Il download è disponibile quando esegui il deployment del plug-in in Cloud Data Fusion Hub.

Per installare il trasporto SAP:

Passaggio 1: carica i file delle richieste di trasporto

  1. Accedi al sistema operativo dell'istanza SAP.
  2. Utilizza il codice transazione SAP AL11 per ottenere il percorso della cartella DIR_TRANS. In genere, il percorso è /usr/sap/trans/.
  3. Copia i file co nella cartella DIR_TRANS/cofiles.
  4. Copia i file di dati nella cartella DIR_TRANS/data.
  5. Imposta l'utente e il gruppo di dati e del cofile su <sid>adm e sapsys.

Passaggio 2: importa i file delle richieste di trasporto

L'amministratore SAP può importare i file di richiesta di trasporto utilizzando una delle seguenti opzioni:

Opzione 1: importa i file di richiesta di trasporto utilizzando il sistema di gestione dei trasporti SAP
  1. Accedi al sistema SAP come amministratore SAP.
  2. Inserisci l'STMS della transazione.
  3. Fai clic su Panoramica > Importazioni.
  4. Nella colonna Coda, fai doppio clic sull'ID cliente corrente.
  5. Fai clic su Extra > Altre richieste > Aggiungi.
  6. Seleziona l'ID richiesta di trasporto e fai clic su Continua.
  7. Seleziona la richiesta di trasporto nella coda di importazione e poi fai clic su Richiedi > Importa.
  8. Inserisci il numero cliente.
  9. Nella scheda Opzioni, seleziona Sostituisci originali e Ignora versione del componente non valida.

    (Facoltativo) Seleziona Lascia le richieste di trasporto in coda per l'importazione successiva. Di conseguenza, le richieste vengono importate di nuovo nell'ordine corretto con la successiva importazione di tutte le richieste. Questa opzione è utile se devi eseguire importazioni preliminari per singole richieste.

  10. Fai clic su Continua.

  11. Verifica che il modulo della funzione e i ruoli di autorizzazione siano stati importati correttamente utilizzando le transazioni appropriate, ad esempio SE80 e PFCG.

Opzione 2: importa i file di richiesta di trasporto a livello di sistema operativo
  1. Accedi al sistema SAP come amministratore SAP.
  2. Aggiungi le richieste appropriate al buffer di importazione:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Ad esempio: tp addtobuffer BW1K900054 DD1

  3. Importa le richieste di trasporto:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Sostituisci NNN con il numero del cliente. Ad esempio:

    tp import BW1K900054 DD1 client=100 U1238
    
  4. Verifica che il modulo della funzione e i ruoli di autorizzazione siano stati importati correttamente utilizzando le transazioni appropriate, ad esempio SE80 e PFCG.

Autorizzazioni SAP richieste

Per eseguire una pipeline di dati in Cloud Data Fusion, devi disporre di un utente SAP. L'utente SAP deve essere di tipo Communications o Dialog. Per evitare di utilizzare le risorse di dialogo SAP, è consigliato il tipo Communications. L'amministratore SAP può creare utenti utilizzando il codice transazione SAP SU01.

Le autorizzazioni SAP sono necessarie per configurare il connettore per SAP. Gli oggetti di autorizzazione SAP specifici del connettore vengono inviati nell'ambito della richiesta di trasporto. Importa il trasporto del ruolo di autorizzazione come descritto in Installare il trasporto SAP per inserire il ruolo nel sistema e generare il ruolo dal codice transazione PFCG.

Per gli oggetti di autorizzazione SAP standard, la tua organizzazione gestisce le autorizzazioni con il proprio meccanismo di sicurezza. Puoi gestire gli oggetti di autorizzazione in base ai criteri di sicurezza della tua organizzazione.

Crea una catena di processi (PC) e un processo di trasferimento dati (DTP)

La creazione di una catena di processi e di un processo di trasferimento dei dati richiede alcune competenze e conoscenze aggiuntive.

Concetti di base

Per creare o modificare un PC e un DTP, utilizza SAP HANA Studio.

Competenze di base

  • Hai utilizzato le trasformazioni per definire il flusso di dati tra l'oggetto di origine e quello di destinazione.
  • Hai familiarità con i concetti di base di BW e HANA, come oggetti DataStore (DSO), trasformazioni dei dati, InfoCube, ottimizzazione delle query, modellazione HANA e funzionalità del database HANA utilizzando HANA Studio. Per ulteriori informazioni su questi concetti, consulta i tutorial SAP su BW e HANA.

Tipo di estrazione

Esistono due modalità di estrazione dei dati per un processo di trasferimento dati: completa e delta.

  • Completa: seleziona tutti i dati disponibili nell'origine in base alle condizioni di filtro indicate nel DTP. Se l'origine dei dati è uno dei seguenti InfoProvider, è disponibile solo la modalità di estrazione completa:

    • InfoObjects
    • InfoSet
    • Oggetti DataStore per l'aggiornamento diretto
  • Delta: a differenza di InfoPackage, il trasferimento Delta utilizzando un DTP non richiede un'inizializzazione esplicita. Quando un DTP viene eseguito con la modalità di estrazione Delta per la prima volta, tutte le richieste esistenti fino al momento dell'estrazione vengono recuperate dall'origine e il delta viene inizializzato automaticamente.

    Per un DTP con la modalità di estrazione Delta sono disponibili le seguenti opzioni:

    • Ricevi Delta una sola volta
    • Ottieni tutte le nuove richieste di dati per richiesta
    • Recupero fino al termine dei nuovi dati

Dimensioni del pacchetto: il numero di record di dati presenti in un singolo pacchetto di dati. Il valore predefinito è 50,000.

Creare una catena di processi

Per creare una catena di processo (PC), utilizza la transazione RSPC in SAP GUI. Definisci un procedura di avvio, quindi aggiungi i passaggi della procedura e il DTP. Per saperne di più, consulta la documentazione di SAP relativa alla creazione di catene di processo.

In HANA Studio sono disponibili varie opzioni per monitorare e amministrare i PC. Per ulteriori informazioni, consulta Operazioni della catena di processo SAP BW/4HANA.

Creare un processo di trasferimento dati utilizzando una catena di processi

Vai alla visualizzazione Pianificazione della catena di processo che vuoi utilizzare per il processo di trasferimento dei dati. Dalla visualizzazione Pianificazione, puoi creare il DTP utilizzando HANA Studio. Per saperne di più, consulta la documentazione di SAP relativa alla creazione di un processo di trasferimento dei dati.

Per ulteriori informazioni sulle opzioni di configurazione, consulta Tutto su Data Transfer Process (DTP) - SAP BW 7.

Connessione RFC

Per notificare al sistema di callback, ad esempio il plug-in SAP BW Open Hub Batch Source, che i dati sono disponibili, la catena di processo deve essere aggiornata per utilizzare una destinazione RFC:

  1. In SM59, crea una connessione RFC di tipo Connessioni TCP/IP per inviare una notifica al sistema di destinazione da BW al termine del caricamento dei dati in BI.

  2. Assicurati che l'ID programma sia configurato nella connessione RFC facendo clic due volte sulla connessione RFC. L'ID programma deve essere univoco per ogni destinazione RFC per evitare conflitti di listener di runtime.

  3. Utilizza la connessione TCP/IP appena creata nella catena di processo per inviare la notifica per il completamento di un job batch di Cloud Data Fusion. Il nome della catena di processo non è sensibile alle maiuscole. Deve essere specificato correttamente in lettere maiuscole nel processo di integrazione end-to-end.

Visualizza i log delle catene di processo e dei processi di trasferimento dati

  1. Vai al codice T : RSPC e fai clic su Process Chains (Catene di processo).

  2. Fai clic con il tasto destro del mouse sulla catena di processo per cui vuoi visualizzare i log e poi su Visualizza log.

Configura il cluster Dataproc quando utilizzi la catena di processi

Per abilitare la comunicazione tramite il server RFC, devi aggiungere le voci della porta SAP Gateway nel file /etc/services nei nodi del cluster Dataproc. Ti consigliamo di utilizzare un init action, lo script da eseguire quando viene inizializzato il cluster. Per ulteriori informazioni, consulta Azioni di inizializzazione.

Crea un file di script e salvalo in un bucket Cloud Storage. L'esempio seguente mostra i contenuti del file di script:

gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services

Nell'esempio precedente, tieni presente quanto segue:

  • Le voci sono nel formato sapgwxx 33xx/tcp, dove XX è il numero di istanza SAP.

  • Le porte per le istanze SAP da 00 a 04 vengono aggiunte.

Esegui i seguenti passaggi se utilizzi un cluster Dataproc temporaneo, uno appena creato o uno esistente.

Cluster Dataproc temporaneo

Se utilizzi un cluster Dataproc temporaneo, aggiungi il percorso dello script init alle proprietà del cluster:

  1. Nel monitoraggio dei job, dalla pagina della pipeline in Cloud Data Fusion, fai clic su Configura.
  2. Seleziona il profilo di calcolo e fai clic su Personalizza.
  3. In Impostazioni avanzate, inserisci il percorso dello script init nel campo Azioni di inizializzazione.

Nuovo cluster Dataproc persistente

Se utilizzi un cluster Dataproc permanente appena creato, utilizza lo script init nel comando gcloud per creare il cluster. Ad esempio:

gcloud dataproc clusters create cluster-name \
  --region=${REGION} \
  --initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
  ... other flags ...

Cluster Dataproc persistente esistente

Se utilizzi un cluster Dataproc persistente esistente, segui questi passaggi:

Se il cluster è già stato creato senza utilizzare lo script init, aggiungi le voci manualmente nei nodi Master e Worker del cluster Dataproc.

  1. Accedi tramite SSH al nodo master e al nodo del cluster.
  2. Accedi all'ID utente root.
  3. Vai a /etc/ e apri il file /etc/services in un editor VI.
  4. Aggiungi la voce sapgwxx 33xx/tcp. Sostituisci xx con il numero dell'istanza SAP.
  5. Salva il file /etc/services.

Configurare Cloud Data Fusion

Assicurati che la comunicazione sia abilitata tra l'istanza Cloud Data Fusion e il server SAP. Per le istanze private, configura il peering di rete. Una volta stabilito il peering di rete con il progetto in cui sono ospitati i sistemi SAP, non è richiesta alcuna configurazione aggiuntiva per connettersi all'istanza Cloud Data Fusion. Sia il sistema SAP sia l'istanza Cloud Data Fusion devono trovarsi nello stesso progetto.

Passaggi per gli utenti di Cloud Data Fusion

  1. Vai ai dettagli dell'istanza:
    1. Nella console Google Cloud, vai alla pagina Cloud Data Fusion.

    2. Fai clic su Istanze, quindi sul nome dell'istanza per andare alla pagina Dettagli istanza.

      Vai a Istanze

  2. Verifica che sia stato eseguito l'upgrade dell'istanza alla versione 6.8.0 o successiva. Se l'istanza è in una versione precedente, devi eseguirne l'upgrade.
  3. Apri l'istanza. Quando si apre l'interfaccia utente di Cloud Data Fusion, fai clic su Hub.
  4. Seleziona la scheda SAP > SAP BW. Se la scheda SAP non è visibile, consulta la sezione Risolvere i problemi di integrazione di SAP.
  5. Fai clic su Esegui il deployment del plug-in SAP BW. Il plug-in viene visualizzato nel menu Origine nella pagina di Studio.

Passaggi per SAP Admin e Google Cloud Admin

L'amministratore SAP scarica i seguenti elementi JCo dal sito di assistenza SAP e li consegna all' Google Cloud amministratore.

  • Uno indipendente dalla piattaforma (sapjco3.jar)
  • Uno dipendente dalla piattaforma (libsapjco3.so su Unix)

Per scaricare i file:

  1. Vai alla pagina Connettori SAP.
  2. Fai clic su SAP Java Connector/Strumenti e servizi. Puoi selezionare link specifici per la piattaforma per il download.
  3. Seleziona la piattaforma su cui viene eseguita l'istanza Cloud Data Fusion:

    1. Se utilizzi immagini Google Cloud standard per le VM nel tuo cluster, che è l'impostazione predefinita per Cloud Data Fusion, seleziona Linux per processori compatibili con Intel x86 a 64 bit.
    2. Se utilizzi un'immagine personalizzata, seleziona la piattaforma corrispondente.
  4. L' Google Cloud amministratore deve copiare i file JCo in un bucket Cloud Storage leggibile. Fornisci il percorso del bucket all'utente Cloud Data Fusion affinché lo inserisca nella proprietà del plug-in corrispondente in Cloud Data Fusion: Percorso GCS della libreria JCo di SAP. Vedi Configurare il plug-in.

  5. L' Google Cloud amministratore deve concedere l'accesso in lettura per i due file all'account di servizio Cloud Data Fusion per l'ambiente di progettazione e all'account di servizio Dataproc per l'ambiente di esecuzione. Per ulteriori informazioni, consulta Account di servizio di Cloud Data Fusion.

Configura il plug-in

Il plug-in SAP BW Open Hub Batch Source legge i contenuti di un'origine dati SAP.

Per filtrare i record, puoi configurare le seguenti proprietà per la fonte SAP BW Open Hub Batch.

Per definire i campi vengono utilizzati i seguenti indicatori:

  • (M): indica che le macro sono supportate per il rispettivo campo
  • (O): campo facoltativo

Etichetta: etichetta del plug-in sulla tela.

Di base

Nel seguente elenco di proprietà, (M) indica che l'opzione supporta le macro e possono essere utilizzate per gestire centralmente le connessioni SAP. Ad esempio, puoi utilizzare le macro per le proprietà di connessione e impostare i valori in fase di esecuzione utilizzando i parametri di runtime o un plug-in Argument Setter.

  • Nome di riferimento: nome utilizzato per identificare in modo univoco questa origine per la tracciabilità e l'annotazione dei metadati.
  • Usa connessione (pulsante di attivazione/disattivazione): indica se utilizzare una connessione esistente (vedi Gestire le connessioni). Se scegli di utilizzare una connessione esistente, non devi fornire dettagli sulla connessione SAP.

  • Connessione (sfoglia le connessioni): scegli la connessione esistente da utilizzare. Puoi anche utilizzare la funzione macro ${conn(connection-name)}.

  • Client SAP (M): il client SAP da utilizzare. Ad esempio, 100.

  • Lingua SAP (M): lingua di accesso a SAP. Ad esempio, EN.

  • Tipo di connessione: tipo di connessione SAP: diretta o bilanciata in base al carico. Le connessioni con bilanciamento del carico non sono supportate per l'estrazione basata sulla catena di processo. Per ulteriori informazioni, vedi Dettagli sull'assistenza.

    La selezione di un tipo di connessione modifica i campi disponibili.

    Per una connessione diretta, sono disponibili i seguenti campi:

    • Host del server di applicazioni SAP (M): il nome o l'indirizzo IP del server SAP.
    • Numero sistema SAP (M): il numero del sistema SAP. Ad esempio, 00.
    • Router SAP (M, O): la stringa del router.

    Per una connessione con bilanciamento del carico, sono disponibili i seguenti campi:

    • Host del server di messaggi SAP (M): il nome host o l'indirizzo IP del messaggio SAP.
    • Numero di porta o servizio del server di messaggi SAP (M): il numero di porta o il servizio del server di messaggi SAP. Ad esempio, sapms02.
    • ID sistema SAP (SID) (M): l'ID sistema SAP. Ad esempio, N75.
    • Nome gruppo di accesso SAP (M): il nome del gruppo di accesso SAP. Ad esempio, PUBLIC.
  • Utilizza la catena di processo (M): questo campo contiene due opzioni.

    Se attivi la catena di processo utilizzando l'opzione , vengono attivate le seguenti proprietà:

    • Risolvi automaticamente gli errori di PC e DTP: controlla il comportamento quando viene identificata un'esecuzione precedentemente non riuscita. Se è disattivato, il plug-in non supera la pipeline con errori pertinenti. Se abilitato (valore predefinito), il plug-in controlla la catena di processo e lo stato del processo di trasferimento dati in SAP. Se viene rilevato uno dei seguenti errori, il plug-in tenta automaticamente di risolverlo:

    • Data Transfer Process in error state: il plug-in elimina la richiesta precedente

    • Process Chain in stato rosso con errore previous request status has not been set: Il plug-in elimina la richiesta di blocco dopo aver recuperato l'ID richiesta dal log di Process Chain e poi tenta di eseguire il PC.

    • Tempo di attesa (in minuti) per la notifica dello stato della catena di processo (M, O): attende il tempo specificato, in minuti, per il completamento della preparazione dei dati da parte della catena di processo e invia una notifica alla pipeline per avviare l'estrazione. Se specifichi 0 o lasci vuoto il campo, il valore viene considerato pari a 10 minuti, che è il valore predefinito.

    • Process Chain (M): il nome della catena di processo SAP. Ad esempio, PC_RFC.

    Se disattivi la catena di processo utilizzando l'opzione No, vengono attivate le seguenti proprietà:

    • Destinazione hub aperta (M): il nome della destinazione hub aperta da leggere.
    • ID richiesta (M,O): ID richiesta per la procedura di trasferimento dei dati già eseguita.

Credenziali

  • Nome utente di accesso SAP (M): nome utente SAP. Consigliato: se il nome utente di accesso SAP cambia periodicamente, utilizza una macro.
  • SAP Logon Password (M): password utente SAP. Consigliato: per i valori sensibili come la password utente, utilizza macro sicure

Dettagli JCo SAP

  • ID progetto Google Cloud (M): l' Google Cloud ID progetto, che identifica in modo univoco un progetto. Puoi trovarlo nella dashboard della console Google Cloud.
  • Percorso GCS della libreria JCo di SAP (M): il percorso di Cloud Storage contenente i file della libreria JCo di SAP caricati dall'utente.
  • Genera schema: fai clic qui se vuoi che il plug-in generi uno schema basato sui metadati di SAP, con mappatura automatica dei tipi di dati SAP ai tipi di dati Cloud Data Fusion corrispondenti. La funzionalità è la stessa del pulsante Convalida.

Per ulteriori informazioni sui certificati client, consulta Utilizzare i certificati client X.509 su SAP NetWeaver Application Server per ABAP.

Avanzate

  • Numero di suddivisioni da generare (M, O): il numero di suddivisioni viene utilizzato per partizionare i dati di input. Un maggior numero di partizioni aumenta il livello di parallelismo, ma richiede più risorse e overhead. Nel caso di un sistema SAP on-premise, se il valore non è specificato nell'interfaccia utente, le suddivisioni corrispondono al 50% dei flussi di lavoro di dialogo disponibili in SAP. In caso contrario, le suddivisioni vengono ottimizzate tra il valore specificato dall'utente e il 50% dei processi di lavoro disponibili.

    Consigliato: lascia la proprietà vuota, a meno che tu non abbia dimestichezza con le impostazioni del sistema SAP.

  • Proprietà di connessione SAP aggiuntive (M, O): imposta proprietà JCo SAP aggiuntive che sostituiscono i valori predefiniti di JCo SAP. Ad esempio, l'impostazione jco.destination.pool_capacity = 10 sostituisce la capacità del pool di connessioni predefinita.

    La tabella seguente elenca le proprietà JCo di SAP supportate:

Proprietà Descrizione
jco.destination.peak_limit Numero massimo di connessioni attive che è possibile creare contemporaneamente per una destinazione.
jco.destination.pool_capacity Numero massimo di connessioni inattive mantenute aperte dalla destinazione. Un valore di 0 comporta l'assenza di pooling delle connessioni, ovvero le connessioni verranno chiuse dopo ogni richiesta.
jco.destination.expiration_time Tempo in ms dopo il quale le connessioni in attesa del pool interno possono essere chiuse.
jco.destination.expiration_check_period Intervallo in ms con cui il thread di controllo del timeout controlla la scadenza delle connessioni nel pool.
jco.destination.max_get_client_time Tempo massimo in ms di attesa per una connessione, se il numero massimo di connessioni consentito è allocato dall'applicazione.

Comportamento delle modalità di estrazione dei dati

La modalità di estrazione dei dati è controllata tramite le impostazioni del processo di trasferimento dei dati. Il comportamento è diverso se utilizzi una catena di processo rispetto a una destinazione hub aperta.

Quando utilizzi una catena di processi

Le impostazioni a livello di processo di trasferimento dati controllano se viene eseguito un caricamento completo o delta. L'ID richiesta arriva come notifica da SAP al plug-in. Il plug-in legge i dati dei pacchetti associati a questo singolo ID richiesta.

Quando utilizzi la destinazione Open Hub senza ID richiesta

Caricamento completo: l'esecuzione della pipeline per la prima volta recupera tutti gli ID richiesta disponibili nella tabella Open Hub. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Caricamento delta: l'esecuzione della stessa pipeline la volta successiva recupera tutti gli ID richiesta delta disponibili dopo l'ultimo ID richiesta recuperato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Quando utilizzi la destinazione Open Hub con l'ID richiesta

Caricamento completo: l'esecuzione della pipeline per la prima volta recupera tutti gli ID richiesta disponibili successivi maggiori dell'ID richiesta specificato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Caricamento delta: l'esecuzione della stessa pipeline la volta successiva recupera tutti gli ID richiesta delta disponibili dopo l'ultimo ID richiesta recuperato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Mappatura dei tipi di dati

La seguente tabella mostra la mappatura tra i tipi di dati utilizzati in SAP BW e Cloud Data Fusion.

Tipo di dati BW Tipo ABAP Descrizione (SAP) Tipo di dati di Cloud Data Fusion
Numerico
INT1 b Numero intero di 1 byte integer
INT2 s Numero intero a 2 byte integer
INT4 i Numero intero a 4 byte integer
INT8 8 Intero a 8 byte long
DIC p Numero pacchettizzato in formato BCD (DEC) decimal
DF16_DEC
DF16_RAW
a Virgola mobile decimale 8 byte IEEE 754r decimal
DF34_DEC
DF34_RAW
e Virgola mobile decimale 16 byte IEEE 754r decimal
FLTP f Numero in virgola mobile binario double
Carattere
CHAR
LCHR
c Stringa di caratteri string
SSTRING
GEOM_EWKB
string Stringa di caratteri string
STRING string Stringa di caratteri CLOB bytes
NUMC
ACCP
n Testo numerico string
Byte
RAW
LRAW
x Dati binari bytes
RAWSTRING xstring BLOB di stringhe di byte bytes
Data/ora
DATS d Data date
TIMS t Ora time
TIMESTAMP utcl TimeStamp
Utclong
timestamp

Convalida

Fai clic su Convalida o Ottieni schema.

Il plug-in convalida le proprietà e genera uno schema in base ai metadati di SAP. Mappa automaticamente i tipi di dati SAP ai tipi di dati Cloud Data Fusion corrispondenti.

Esegui una pipeline di dati

  1. Dopo aver eseguito il deployment della pipeline, fai clic su Configura.
  2. Seleziona Risorse.
  3. Se necessario, modifica CPU dell'executor e Memoria in base alle dimensioni complessive dei dati e al numero di trasformazioni utilizzate nella pipeline.
  4. Fai clic su Salva.
  5. Per avviare la pipeline di dati, fai clic su Esegui.

Ottimizzazione del rendimento

Configurazione del plug-in di Optimize

Utilizza le seguenti proprietà per un rendimento ottimale quando esegui la pipeline:

  • Numero di suddivisioni da generare nelle proprietà del plug-in Cloud Data Fusion: controlla direttamente il parallelismo lato Cloud Data Fusion. Il motore di runtime crea il numero specificato di partizioni e connessioni SAP durante l'estrazione dei record della tabella. Sono consigliati valori tra 8 e 16, ma puoi aumentare fino a 32 o 64 con la configurazione appropriata lato SAP, allocando risorse di memoria appropriate per i processi di lavoro in SAP.

    Se il valore è 0 o viene lasciato vuoto (opzione consigliata), il sistema sceglie automaticamente un valore appropriato in base al numero di procedure di lavoro SAP disponibili, ai record da estrarre e alle dimensioni del pacchetto.

  • Dimensione pacchetto nelle proprietà del processo di trasferimento dati di BW: controlla il numero di record di dati presenti in un singolo pacchetto di dati. Il valore predefinito è 50,000. L'aumento di questo valore potrebbe migliorare le prestazioni, ma comporta un maggiore carico delle risorse. Se utilizzi già valori più elevati, diminuiscili per consentire una migliore parallelizzazione dell'estrazione.

Impostazioni delle risorse Cloud Data Fusion

Consigliato: utilizza 1 CPU e 4 GB di memoria per executor. Questo valore si applica a ogni processo di esecuzione. Imposta questi valori nella dialoga Configura > Risorse.

Impostazioni del cluster Dataproc

Consigliato: alloca almeno un totale di CPU tra i worker superiore al numero previsto di suddivisioni. Consulta Configurazione dei plug-in.

Ad esempio, se hai 16 suddivisioni, definisci almeno 20 CPU in totale su tutti i worker. Esiste un overhead di 4 CPU utilizzate per la coordinazione.

Consigliato: utilizza un cluster Dataproc persistente per ridurre il tempo di esecuzione della pipeline di dati. In questo modo viene eliminato il passaggio di provisioning, che potrebbe richiedere alcuni minuti o più. Imposta questa opzione nella sezione di configurazione di Compute Engine.

Dettagli dell'assistenza

Prodotti e versioni SAP supportati

Origini supportate:

  • SAP NW BW 7.5 e versioni successive
  • SAP BW4HANA 2.0 SP9 (per includere l'API Open Hub Destination; le release precedenti di BW4HANA non supportano l'API Open Hub Destination)

Supporto della connessione SAP con bilanciamento del carico (server di messaggi)

La connessione SAP con bilanciamento del carico (server di messaggi) è supportata per l'estrazione basata sulla destinazione Open Hub, se non viene utilizzato un server RFC.

La connessione SAP con bilanciamento del carico (server di messaggi) non è supportata per l'estrazione basata su catene di processo. Il motivo è una limitazione di SAP quando fornisce la notifica data ready al sistema client, che richiede la registrazione del server RFC (plugin listener) su ogni server SAP nel panorama BW, aumentando l'impronta del connettore e potenzialmente influendo sul rendimento di SAP e sull'utilizzo delle risorse. Per ulteriori informazioni, consulta la nota SAP 2572564 (è necessario accedere all'assistenza SAP per visualizzarla).

Modelli di deployment SAP supportati

Il plug-in è stato testato con i server SAP di cui è stato eseguito il deployment su Google Cloud.

Oggetti SAP supportati

Origini dati per la destinazione Open Hub: InfoProvider (InfoObject, InfoCube, Oggetto DataStore, Oggetto DataStore avanzato, Provider composito)

Catene di processo per eseguire automaticamente il processo di trasferimento dei dati nella destinazione Open Hub.

Licenza separata per utilizzare Oracle HTTP Server per estrarre i dati da SAP

Non è necessaria una licenza separata per utilizzare Oracle HTTP Server (OHS) per estrarre i dati da SAP. Tuttavia, rivolgiti al tuo rappresentante SAP per informazioni sul tuo contratto e caso d'uso specifici.

Velocità effettiva del plug-in prevista

Per un ambiente configurato in base alle linee guida riportate in Ottimizzare il rendimento, il plug-in può estrarre circa 38 GB all'ora. Le prestazioni effettive potrebbero variare in base al carico del sistema Cloud Data Fusion e SAP o al traffico di rete.

Passaggi successivi