Origine batch SAP BW Open Hub

Questa guida descrive come eseguire il deployment, configurare ed eseguire pipeline di dati che utilizzano il plug-in SAP BW Open Hub Batch Source. Puoi utilizzare SAP come origine per l'estrazione di dati basata su batch e delta in Cloud Data Fusion tramite il servizio Open Hub di BW.

Questo plug-in consente l'integrazione collettiva dei dati da applicazioni SAP con Cloud Data Fusion. Puoi configurare ed eseguire trasferimenti collettivi di dati da DataSources SAP senza dover scrivere codice.

Per le applicazioni SAP supportate e gli oggetti per l'estrazione, consulta Dettagli sull'assistenza. Per ulteriori informazioni sull'esecuzione di SAP su Google Cloud, consulta Panoramica di SAP su Google Cloud.

Obiettivi

  • Configurare il sistema SAP BW.
  • Esegui il deployment del plug-in nel tuo ambiente Cloud Data Fusion.
  • Scarica il trasporto SAP da Cloud Data Fusion e installalo in SAP.
  • Usa Cloud Data Fusion e SAP BW Open Hub Batch Source per creare pipeline di dati per l'integrazione dei dati SAP.

Prima di iniziare

Per utilizzare questo plug-in, è necessaria la conoscenza del dominio nelle seguenti aree:

Ruoli utente

Le attività in questa pagina vengono eseguite dalle persone con i seguenti ruoli in Google Cloud o nel loro sistema SAP:

Tipo di utente Descrizione
Amministratore Google Cloud Gli utenti a cui è stato assegnato questo ruolo sono amministratori di account Google Cloud.
Utente Cloud Data Fusion Gli utenti a cui è stato assegnato questo ruolo sono autorizzati a progettare ed eseguire pipeline di dati. Viene concesso almeno il ruolo Visualizzatore Data Fusion ( roles/datafusion.viewer). Se utilizzi il controllo dell'accesso basato sui ruoli, potrebbero essere necessari ruoli aggiuntivi.
Amministratore SAP Gli utenti a cui è stato assegnato questo ruolo sono amministratori del sistema SAP. Hanno accesso per scaricare software dal sito del servizio SAP. Non è un ruolo IAM.
Utente SAP Gli utenti a cui è stato assegnato questo ruolo sono autorizzati a connettersi a un sistema SAP. Non è un ruolo IAM.

Prerequisiti per SAP BW

Per creare e modificare processi di trasferimento di dati e catene di elaborazione, è necessario SAP HANA Studio.

Prerequisiti per Cloud Data Fusion

  • Per creare un'istanza di Cloud Data Fusion è necessaria una rete VPC.
  • È richiesta un'istanza di Cloud Data Fusion, versione 6.8.0 o successiva, qualsiasi versione.
  • I ruoli obbligatori devono essere concessi all'account di servizio assegnato all'istanza di Cloud Data Fusion. Per maggiori informazioni, consulta Concessione dell'autorizzazione utente all'account di servizio.
  • Devi utilizzare una connessione in peering tra il tuo VPC e la rete VPC condivisa di Google.

Configura il sistema SAP BW

L'origine batch SAP BW Open Hub utilizza un Remote Function Module (RFM), che deve essere installato su ogni server SAP in cui vengono estratti i dati. Questa RFM viene fornita come trasporto SAP.

Per configurare il sistema SAP:

  1. L'utente di Cloud Data Fusion deve scaricare il file ZIP contenente il trasporto SAP e fornirlo all'amministratore SAP. Per maggiori informazioni, consulta Configurare Cloud Data Fusion.
  2. L'amministratore SAP deve importare il trasporto SAP nel sistema SAP e verificare gli oggetti creati. Per maggiori informazioni, consulta Installare il trasporto SAP.
  3. (Facoltativo) L'utente SAP può modificare gli oggetti di autorizzazione standard SAP del ruolo /GOOG/BWOH_CDF_AUTH consegnato in base ai criteri di sicurezza della propria organizzazione.

Installa i file di trasporto SAP

Per progettare ed eseguire pipeline di dati in Cloud Data Fusion, i componenti SAP vengono forniti in file di trasporto SAP, archiviati in un file ZIP. Il download è disponibile quando distribuisci il plug-in nell'hub di Cloud Data Fusion.

Scarica il file ZIP di trasporto SAP BW OH

Gli ID richiesta di trasporto SAP e i file associati sono forniti nella seguente tabella:

Trasporto SAP

ID trasporto Cofile File di dati Contenuti
BW1K900054 K900054.BW1 R900054.BW1 BWOH Cloud Data Fusion Connector versione 1.0
Moduli funzione:
/GOOG/BWOH_GET_PC_LOG
/GOOG/BWOH_GET_PRO_CHA_DETAILS
/GOOG/BWOH_API_OHS_ETL_READ
/GOOG/BWOH_GET_PC_RUNS
/GOOG/BWOH_SET_LAST_RUN
/GOOG/BWOH_GET_PC_OHD_LIST
BW1K900055 K900055.BW1 R900055.BW1 Ruolo di autorizzazione /GOOG/BWOH_CDF_AUTH

Per installare il trasporto SAP:

Passaggio 1: carica i file di richiesta di trasporto

  1. Accedi al sistema operativo dell'istanza SAP.
  2. Usa il codice transazione SAP AL11 per ottenere il percorso della cartella DIR_TRANS. In genere il percorso è /usr/sap/trans/.
  3. Copia i cofile nella cartella DIR_TRANS/cofiles.
  4. Copia i file di dati nella cartella DIR_TRANS/data.
  5. Imposta il campo Utente e gruppo di dati e cofile su <sid>adm e sapsys.

Passaggio 2: importa i file di richiesta di trasporto

L'amministratore SAP può importare i file di richiesta di trasporto utilizzando una delle seguenti opzioni:

Opzione 1: importa i file di richiesta di trasporto utilizzando il sistema di gestione del trasporto SAP
  1. Accedi al sistema SAP come amministratore SAP.
  2. Inserisci il codice STMS della transazione.
  3. Fai clic su Panoramica > Importazioni.
  4. Nella colonna Coda, fai doppio clic sul SID corrente.
  5. Fai clic su Extra > Altre richieste > Aggiungi.
  6. Seleziona l'ID richiesta di trasporto e fai clic su Continua.
  7. Seleziona la richiesta di trasporto nella coda di importazione e fai clic su Richiedi > Importa.
  8. Inserisci il Numero cliente.
  9. Nella scheda Opzioni, seleziona Sovrascrivi originali e Ignora versione componente non valida.

    (Facoltativo) Seleziona Lascia le richieste di trasporto in coda per essere importate in un secondo momento. In questo modo, le richieste vengono importate di nuovo nell'ordine corretto con l'importazione successiva di tutte le richieste. Questa opzione è utile se devi effettuare importazioni preliminari per singole richieste.

  10. Fai clic su Continua.

  11. Verifica che il modulo delle funzioni e i ruoli di autorizzazione siano stati importati correttamente utilizzando le transazioni appropriate, come SE80 e PFCG.

Opzione 2: importa i file di richiesta di trasporto a livello di sistema operativo
  1. Accedi al sistema SAP come amministratore SAP.
  2. Aggiungi le richieste appropriate al buffer di importazione:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Ad esempio: tp addtobuffer BW1K900054 DD1

  3. Importa le richieste di trasporto:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Sostituisci NNN con il numero del cliente. Ad esempio:

    tp import BW1K900054 DD1 client=100 U1238
    
  4. Verifica che il modulo delle funzioni e i ruoli di autorizzazione siano stati importati correttamente utilizzando le transazioni appropriate, come SE80 e PFCG.

Autorizzazioni SAP richieste

Per eseguire una pipeline di dati in Cloud Data Fusion, devi avere un utente SAP. L'utente SAP deve essere di tipo Communications o Dialog. Per evitare di utilizzare risorse per la finestra di dialogo SAP, consigliamo il tipo Communications. L'amministratore SAP può creare utenti utilizzando il codice di transazione SAP SU01.

Le autorizzazioni SAP sono necessarie per configurare il connettore per SAP. Gli oggetti di autorizzazione SAP specifici del connettore vengono spediti come parte della richiesta di trasporto. Importa il trasporto dei ruoli di autorizzazione come descritto in Installare il trasporto SAP per importare il ruolo nel sistema e generare il ruolo dal codice transazione PFCG.

Per gli oggetti di autorizzazione SAP standard, l'organizzazione gestisce le autorizzazioni con il proprio meccanismo di sicurezza. Puoi gestire gli oggetti di autorizzazione in base ai criteri di sicurezza della tua organizzazione.

Creazione di una catena di processi (PC) e di un processo di trasferimento dati (DTP)

La creazione di una catena di processi e di un processo di trasferimento dei dati richiede competenze e conoscenze di base aggiuntive.

Concetti di base

Per creare o modificare un PC e un DTP, utilizza SAP HANA Studio.

Competenze preliminari

  • Hai utilizzato le trasformazioni per definire il flusso di dati tra l'oggetto di origine e l'oggetto di destinazione.
  • Conosci bene i concetti di base di BW e HANA, come DataStore Objects (DSO), trasformazioni dei dati, infoCube, ottimizzazione delle query, modellazione HANA e funzionalità di HANA DB utilizzando HANA Studio. Per ulteriori informazioni su questi concetti, consulta i tutorial SAP su BW e HANA.

Tipo di estrazione

Esistono due modalità di estrazione dati per i processi di trasferimento dati: Completa e Delta.

  • Completo: seleziona tutti i dati disponibili nell'origine in base alle condizioni di filtro indicate nel file DTP. Se l'origine dei dati è una delle seguenti InfoProvider, è disponibile solo la modalità di estrazione completa:

    • InfoObjects
    • InfoSets
    • Oggetti DataStore per aggiornamento diretto
  • Delta: a differenza di InfoPackage, il trasferimento delta utilizzando un DTP non richiede un'inizializzazione esplicita. Quando un DTP viene eseguito per la prima volta con la modalità di estrazione delta, tutte le richieste esistenti fino al momento dell'estrazione vengono recuperate dall'origine e poi il delta viene inizializzato automaticamente.

    Per un DTP con modalità di estrazione delta sono disponibili le seguenti opzioni:

    • Ottieni il Delta una sola volta
    • Ottieni tutte le nuove richieste di dati su richiesta
    • Recupera fino a quando non saranno più disponibili nuovi dati

Dimensioni pacchetto: il numero di record di dati presenti in un singolo pacchetto di dati. Il valore predefinito è 50,000.

Crea una catena di processi

Per creare una catena di processi (PC), utilizza l'RSPC delle transazioni nella GUI di SAP. Definisci un processo di avvio, quindi aggiungi i passaggi del processo e il DTP. Per ulteriori informazioni, consulta la documentazione SAP per la creazione di catene di processi.

In HANA Studio sono disponibili varie opzioni per il monitoraggio e l'amministrazione dei PC. Per ulteriori informazioni, consulta Operazioni della catena di processi di SAP BW/4HANA.

Crea un processo di trasferimento di dati utilizzando una catena di processi

Vai alla visualizzazione Planning della catena di processi che vuoi utilizzare per il processo di trasferimento di dati. Nella vista Planning, puoi creare il DTP utilizzando HANA Studio. Per ulteriori informazioni, consulta la documentazione SAP per la creazione di un processo di trasferimento di dati.

Per ulteriori informazioni sulle opzioni di configurazione, consulta l'articolo Tutto sul processo di trasferimento di dati (DTP) - SAP BW 7.

Connessione RFC

Per notificare al sistema di callback, ad esempio il plug-in SAP BW Open Hub Batch Source, che i dati sono disponibili, la catena di processi deve essere aggiornata in modo da utilizzare una destinazione RFC:

  1. In SM59, crea una connessione RFC di tipo Connessioni TCP/IP per avvisare il sistema di destinazione da BW una volta completato il caricamento dei dati in BI.

  2. Assicurati che l'ID programma sia configurato nella connessione RFC facendo doppio clic sulla connessione RFC. L'ID programma deve essere univoco per ogni destinazione RFC per evitare conflitti di listener di runtime.

  3. Utilizza la connessione TCP/IP appena creata nella catena di processi per inviare una notifica di completamento di un job batch di Cloud Data Fusion. Il nome della catena di processi non è sensibile alle maiuscole. Deve essere specificato correttamente in maiuscolo nel processo di integrazione end-to-end.

Visualizza i log delle catene di processi e dei processi di trasferimento di dati

  1. Vai a Tcode : RSPC e fai clic su Process Chains (Elabora catene).

  2. Fai clic con il pulsante destro del mouse sulla catena di processi per cui vuoi visualizzare i log, quindi fai clic su Visualizza log.

Configura il cluster Dataproc quando utilizzi Process Chain

Per abilitare la comunicazione tramite il server RFC, devi aggiungere le voci relative alla porta del gateway SAP nel file /etc/services nei nodi del cluster Dataproc. Si consiglia di utilizzare un init action, lo script da eseguire all'inizializzazione del cluster. Per ulteriori informazioni, consulta la sezione Azioni di inizializzazione.

Creare un file di script e salvarlo in un bucket Cloud Storage. Il seguente esempio mostra i contenuti del file di script:

gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services

Nell'esempio precedente, tieni presente quanto segue:

  • Le voci sono nel formato sapgwxx 33xx/tcp, dove XX è il numero di istanza SAP.

  • Vengono aggiunte le porte per le istanze SAP da 00 a 04.

Esegui i passaggi seguenti se utilizzi un cluster Dataproc permanente, temporaneo, appena creato o permanente.

Cluster Dataproc temporaneo

Se utilizzi un cluster Dataproc temporaneo, aggiungi il percorso dello script init alle proprietà del cluster:

  1. Nel monitoraggio del job, fai clic su Configura nella pagina della pipeline in Cloud Data Fusion.
  2. Seleziona il profilo Compute e fai clic su Personalizza.
  3. In Impostazioni avanzate, nel campo Azioni di inizializzazione, inserisci il percorso dello script init.

Nuovo cluster Dataproc permanente

Se utilizzi un cluster Dataproc permanente appena creato, utilizza lo script init nel comando gcloud per creare il cluster. Ad esempio:

gcloud dataproc clusters create cluster-name \
  --region=${REGION} \
  --initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
  ... other flags ...

Cluster Dataproc permanente esistente

Se utilizzi un cluster Dataproc permanente esistente, segui questi passaggi:

Se il cluster è già stato creato senza utilizzare lo script init, aggiungi manualmente le voci nei nodi master e worker del cluster Dataproc.

  1. SSH al nodo master e al nodo cluster.
  2. Accedi all'ID utente root.
  3. Vai a /etc/ e apri il file /etc/services in un editor VI.
  4. Aggiungi la voce sapgwxx 33xx/tcp. Sostituisci xx con il numero di istanza SAP.
  5. Salva il file /etc/services.

Configura Cloud Data Fusion

Assicurati che la comunicazione sia abilitata tra l'istanza di Cloud Data Fusion e il server SAP. Per le istanze private, configura il peering di rete. Dopo aver stabilito il peering di rete con il progetto in cui sono ospitati i sistemi SAP, non è necessaria alcuna configurazione aggiuntiva per connettersi all'istanza di Cloud Data Fusion. Sia il sistema SAP che l'istanza di Cloud Data Fusion devono trovarsi all'interno dello stesso progetto.

Passaggi per gli utenti di Cloud Data Fusion

  1. Vai ai dettagli dell'istanza:
    1. Nella console Google Cloud, vai alla pagina Cloud Data Fusion.

    2. Fai clic su Istanze, quindi sul nome dell'istanza per andare alla pagina Dettagli istanza.

      Vai a Istanze

  2. Verifica che sia stato eseguito l'upgrade dell'istanza alla versione 6.8.0 o successiva. Se l'istanza è in una versione precedente, devi eseguirne l'upgrade.
  3. Apri l'istanza. Quando si apre l'interfaccia utente di Cloud Data Fusion, fai clic su Hub.
  4. Seleziona la scheda SAP > SAP BW. Se la scheda SAP non è visibile, consulta Risoluzione dei problemi relativi alle integrazioni SAP.
  5. Fai clic su Deploy SAP BW Plugin. Il plug-in viene visualizzato nel menu Origine della pagina di Studio.

Passaggi per amministratore SAP e amministratore Google Cloud

L'amministratore SAP scarica i seguenti artefatti JCo dal sito dell'assistenza SAP e li invia al team di amministrazione di Google Cloud.

  • Un'unica piattaforma indipendente (sapjco3.jar)
  • Un dipendente dalla piattaforma (libsapjco3.so su Unix)

Per scaricare i file:

  1. Vai alla pagina Connettori SAP.
  2. Fai clic su Connettore Java SAP/Strumenti e servizi. Puoi selezionare link specifici della piattaforma per il download.
  3. Seleziona la piattaforma su cui viene eseguita l'istanza di Cloud Data Fusion:

    1. Se utilizzi immagini Google Cloud standard per le VM nel cluster, l'impostazione predefinita per Cloud Data Fusion, seleziona Linux per processori compatibili con Intel a 64 bit x86.
    2. Se utilizzi un'immagine personalizzata, seleziona la piattaforma corrispondente.
  4. L'amministratore di Google Cloud deve copiare i file JCo in un bucket Cloud Storage leggibile. Fornisci all'utente di Cloud Data Fusion il percorso del bucket per inserirlo nella proprietà plug-in corrispondente in Cloud Data Fusion: Percorso GCS della libreria JCo SAP. Consulta la pagina Configurare il plug-in.

  5. L'amministratore di Google Cloud deve concedere l'accesso in lettura ai due file all'account di servizio Cloud Data Fusion per l'ambiente di progettazione e all'account di servizio Dataproc per l'ambiente di esecuzione. Per maggiori informazioni, consulta Account di servizio Cloud Data Fusion.

Configura il plug-in

Il plug-in SAP BW Open Hub Batch Source legge il contenuto di un SAP DataSource.

Per filtrare i record, puoi configurare le seguenti proprietà per l'origine batch SAP BW Open Hub.

Per definire i campi vengono utilizzati i seguenti indicatori:

  • (M): indica che le macro sono supportate per il rispettivo campo
  • (O): campo facoltativo

Etichetta: etichetta del plug-in sul canvas.

Base

Nel seguente elenco di proprietà, (M) indica che l'opzione supporta le macro e che possono essere utilizzate per gestire centralmente le connessioni SAP. Ad esempio, puoi utilizzare le macro per le proprietà di connessione e impostare i valori in fase di runtime utilizzando i parametri di runtime o un plug-in Argument Setter.

  • Nome di riferimento: nome utilizzato per identificare in modo univoco questa origine per i metadati di derivazione e di annotazione.
  • Utilizza connessione (opzione di attivazione/disattivazione): se utilizzare una connessione esistente (vedi Gestire le connessioni). Se scegli di utilizzare una connessione esistente, non devi fornire i dettagli della connessione SAP.

  • Connessione (esplorazione delle connessioni): scegli la connessione esistente da utilizzare. Puoi anche utilizzare la funzione macro ${conn(connection-name)}.

  • Client SAP (M): il client SAP da utilizzare. Ad esempio, 100.

  • SAP Language (M): linguaggio di accesso SAP. Ad esempio, EN.

  • Tipo di connessione: tipo di connessione SAP, diretta o con bilanciamento del carico. Le connessioni con bilanciamento del carico non sono supportate per l'estrazione basata sulla catena di processi. Per ulteriori informazioni, vedi Dettagli dell'assistenza.

    La selezione di un tipo di connessione modifica i campi disponibili.

    Per una connessione diretta, sono disponibili i seguenti campi:

    • SAP Application Server Host (M): il nome o l'indirizzo IP del server SAP.
    • SAP System Number (M): il numero di sistema SAP. Ad esempio, 00.
    • Router SAP (M, O): la stringa del router.

    Per una connessione con bilanciamento del carico, sono disponibili i seguenti campi:

    • SAP Message Server Host (M): il nome host o l'indirizzo IP del messaggio SAP.
    • Numero di porta o servizio del server di messaggi SAP (M): il numero di porta o il servizio del server di messaggi SAP. Ad esempio, sapms02.
    • ID sistema SAP (SID) (M): l'ID sistema SAP. Ad esempio, N75.
    • Nome gruppo di accesso SAP (M): il nome del gruppo di accesso SAP. Ad esempio, PUBLIC.
  • Utilizza catena di processi (M): questo campo contiene due opzioni.

    Se abiliti la catena di processi utilizzando l'opzione , vengono abilitate le seguenti proprietà:

    • Risolvi automaticamente gli errori PC e DTP: controlla il comportamento quando viene identificata un'esecuzione precedentemente non riuscita. Quando disattivato, il plug-in supera la pipeline con errori pertinenti. Quando abilitato (impostazione predefinita), il plug-in controlla la catena dei processi e lo stato del processo di trasferimento dati in SAP. Se viene identificato uno qualsiasi dei seguenti errori, il plug-in tenta automaticamente di risolverlo:

    • Data Transfer Process in error state: il plug-in elimina la richiesta precedente

    • Catena di processi in rosso con errore previous request status has not been set: il plug-in elimina la richiesta di blocco dopo aver ottenuto l'ID richiesta dal log della catena di processi e poi tenta di eseguire il PC.

    • Tempo di attesa per la notifica dello stato della catena del processo (in minuti) (M, O): attende il tempo specificato, in minuti, affinché la catena di processi completi la gestione temporanea dei dati e invii una notifica alla pipeline per avviare l'estrazione. Se specifichi 0 o lasci vuoto il campo, il valore predefinito viene considerato pari a 10 minuti.

    • Process Chain (M): il nome della catena di processi SAP. Ad esempio, PC_RFC.

    Se disattivi la catena di processi utilizzando l'opzione No, vengono abilitate le seguenti proprietà:

    • Apri destinazione hub (M): apri il nome della destinazione hub da leggere.
    • ID richiesta (M,O): l'ID richiesta del processo di trasferimento di dati già eseguito.

Credenziali

  • Nome utente di accesso SAP (M): nome utente SAP. Consigliato: se il nome utente di accesso SAP cambia periodicamente, utilizza una macro.
  • Password di accesso SAP (M): password utente SAP. Consigliato: per i valori sensibili come Password utente, utilizza le macro sicure

Dettagli SAP JCo

  • ID progetto Google Cloud (M): l'ID progetto Google Cloud, che identifica in modo univoco un progetto. Puoi trovarlo nella dashboard della console Google Cloud.
  • Percorso GCS della libreria JCo SAP (M): il percorso Cloud Storage che contiene i file della libreria SAP JCo caricati dall'utente.
  • Ottieni schema: fai clic su questa opzione se vuoi che il plug-in generi uno schema basato sui metadati di SAP, con la mappatura automatica dei tipi di dati SAP ai tipi di dati corrispondenti di Cloud Data Fusion. La funzionalità è uguale a quella del pulsante Convalida.

Per ulteriori informazioni sui certificati client, consulta la pagina relativa all'utilizzo di certificati client X.509 su SAP NetWeaver Application Server per ABAP.

Avanzato

  • Numero di suddivisioni da generare (M, O): il numero di suddivisioni viene utilizzato per partizionare i dati di input. Un maggior numero di partizioni aumenta il livello di parallelismo, ma richiede più risorse e overhead. Nel caso di un sistema SAP on-premise, se il valore non è specificato nell'interfaccia utente, le suddivisioni corrispondono al 50% dei processi di lavoro delle finestre di dialogo disponibili in SAP. In caso contrario, le suddivisioni vengono ottimizzate tra i processi di lavoro specificati dall'utente e il 50% dei processi di lavoro disponibili.

    Consigliato: lascia vuota la proprietà, a meno che tu non abbia familiarità con le impostazioni di sistema SAP.

  • Proprietà di connessione SAP aggiuntive (M, O): imposta proprietà aggiuntive SAP JCo che sostituiscono i valori predefiniti di SAP JCo. Ad esempio, l'impostazione di jco.destination.pool_capacity = 10 sostituisce la capacità predefinita del pool di connessioni.

    Nella tabella seguente sono elencate le proprietà SAP JCo supportate:

    Proprietà Descrizione
    jco.destination.peak_limit Numero massimo di connessioni attive che è possibile creare contemporaneamente per una destinazione.
    jco.destination.pool_capacity Numero massimo di connessioni inattive mantenute aperte dalla destinazione. Il valore 0 determina l'assenza di pool di connessioni, ovvero le connessioni vengono chiuse dopo ogni richiesta.
    jco.destination.expiration_time L'ora in ms successiva alla chiusura delle connessioni da parte del pool interno può essere chiusa.
    jco.destination.expiration_check_period Intervallo in ms con cui il thread del controllo del timeout verifica la scadenza delle connessioni nel pool.
    jco.destination.max_get_client_time Tempo massimo di attesa in ms per una connessione, se il numero massimo consentito di connessioni è allocato dall'applicazione.

Comportamento delle modalità di estrazione dati

La modalità di estrazione dei dati è controllata tramite le impostazioni del processo di trasferimento dei dati. Il comportamento è diverso quando si utilizza una catena di processi rispetto all'utilizzo di una destinazione hub aperta.

Quando si utilizza una catena di processi

Le impostazioni a livello di processo di trasferimento dei dati controllano se viene eseguito un caricamento completo o delta. L'ID richiesta arriva come notifica da SAP al plug-in. Il plug-in legge i dati del pacchetto associati a questo ID richiesta singola.

Quando utilizzi una destinazione Open Hub senza ID richiesta

Pieno carico: la prima esecuzione della pipeline ottiene tutti gli ID richiesta disponibili nella tabella Open Hub. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Carico delta: l'esecuzione della stessa pipeline per la prossima volta recupera tutti gli ID richieste delta disponibili, dopo l'ultimo ID richiesta recuperata. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Quando utilizzi una destinazione Open Hub con l'ID richiesta

Pieno carico: la prima esecuzione della pipeline ottiene tutti i successivi ID richiesta disponibili maggiori dell'ID richiesta specificato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Carico delta: l'esecuzione della stessa pipeline per la prossima volta recupera tutti gli ID richieste delta disponibili, dopo l'ultimo ID richiesta recuperato. Il plug-in legge i dati del pacchetto associati a questi ID richiesta.

Mappatura dei tipi di dati

La seguente tabella mostra la mappatura tra i tipi di dati utilizzati in SAP BW e Cloud Data Fusion.

Tipo di dati BW Tipo ABAP Descrizione (SAP) Tipo di dati di Cloud Data Fusion
Numerico
INT1 b Numero intero a 1 byte integer
INT2 s Numero intero a 2 byte integer
INT4 i Numero intero a 4 byte integer
INT8 8 Numero intero a 8 byte long
DIC p Numero pacchettizzato in formato BCD (DEC) decimal
DF16_DEC
DF16_RAW
a Virgola mobile decimale 8 byte IEEE 754r decimal
DF34_DEC
DF34_RAW
e Virgola mobile decimale 16 byte IEEE 754r decimal
FLTP f Numero in virgola mobile binario double
Carattere
CHAR
LCHR
c Stringa di caratteri string
SSTRING
GEOM_EWKB
string Stringa di caratteri string
STRING string Stringa di caratteri CLOB bytes
NUMC
ACCP
n Testo numerico string
Byte
GREZZ
LRAW
x Dati binari bytes
CARTELLA GREZZA xstring Byte stringa BLOB bytes
Data/Ora
DATS d Data date
Tempo di esecuzione t Tempo time
TIMESTAMP utcl TimeStamp
Utclong
timestamp

Convalida

Fai clic su Convalida o Ottieni schema.

Il plug-in convalida le proprietà e genera uno schema basato sui metadati di SAP. Mappa automaticamente i tipi di dati SAP ai tipi di dati corrispondenti di Cloud Data Fusion.

Esegui una pipeline di dati

  1. Dopo aver eseguito il deployment della pipeline, fai clic su Configura.
  2. Seleziona Risorse.
  3. Se necessario, modifica la CPU dell'esecutore e la memoria in base alla dimensione complessiva dei dati e al numero di trasformazioni utilizzate nella pipeline.
  4. Fai clic su Salva.
  5. Per avviare la pipeline di dati, fai clic su Esegui.

Ottimizzazione del rendimento

Ottimizza la configurazione del plug-in

Utilizza le seguenti proprietà per prestazioni ottimali quando esegui la pipeline:

  • Numero di suddivisioni da generare nelle proprietà del plug-in di Cloud Data Fusion: questa opzione controlla direttamente il parallelismo sul lato Cloud Data Fusion. Il motore di runtime crea il numero specificato di partizioni e connessioni SAP durante l'estrazione dei record della tabella. Sono consigliati valori compresi tra 8 e 16, ma puoi aumentarli fino a 32 o 64 con la configurazione appropriata sul lato SAP, allocando le risorse di memoria appropriate per i processi di lavoro in SAP.

    Se il valore è 0 o viene lasciato vuoto (consigliato), il sistema sceglie automaticamente un valore appropriato in base al numero di processi di lavoro SAP disponibili, ai record da estrarre e alle dimensioni del pacchetto.

  • Dimensioni pacchetto nelle proprietà del processo di trasferimento di dati BW: questa opzione controlla il numero di record di dati presenti in un singolo pacchetto di dati. Il valore predefinito è 50,000. Aumentando questo valore, le prestazioni potrebbero essere migliori, ma il carico delle risorse potrebbe aumentare. Se utilizzi già valori più alti, diminuiscili per consentire una migliore caricamento in contemporanea dell'estrazione.

Impostazioni delle risorse di Cloud Data Fusion

Consigliato: utilizza 1 CPU e 4 GB di memoria per esecutore. Questo valore si applica a ogni processo di esecutore. Imposta questi valori nella finestra di dialogo Configura > Risorse.

Impostazioni del cluster Dataproc

Consigliato: come minimo, alloca un totale di CPU tra i worker, maggiore del numero di suddivisioni previsto. Vedi Configurazione plug-in.

Ad esempio, se hai 16 split, definisci almeno 20 CPU in totale, per tutti i worker. C'è un overhead di 4 CPU utilizzate per il coordinamento.

Consigliato: utilizza un cluster Dataproc permanente per ridurre il runtime della pipeline di dati. In questo modo viene eliminata la fase di provisioning, che potrebbe richiedere alcuni minuti o più. Imposta questa opzione nella sezione relativa alla configurazione di Compute Engine.

Dettagli dell'assistenza

Prodotti e versioni SAP supportati

Fonti supportate:

  • SAP NW BW 7.5 e versioni successive
  • SAP BW4HANA 2.0 SP9 (per includere l'API Open Hub destination; le release precedenti di BW4HANA non supportano l'API Open Hub destination)

Supporto per la connessione SAP con bilanciamento del carico (server di messaggi)

La connessione SAP con bilanciamento del carico (server di messaggi) è supportata per l'estrazione basata su destinazione Open Hub, in cui non viene utilizzato un server RFC.

La connessione SAP con bilanciamento del carico (server di messaggi) non è supportata per l'estrazione basata su catena di processi. Il motivo è una limitazione SAP quando si fornisce una notifica data ready al sistema client, che richiede la registrazione del server RFC (Listener di plug-in) su ogni server SAP nel panorama BW, aumentando l'utilizzo del connettore e potenzialmente con un potenziale impatto sulle prestazioni e sull'utilizzo delle risorse SAP. Per ulteriori informazioni, consulta la nota SAP 2572564 (per la visualizzazione è necessario l'accesso all'assistenza SAP).

Modelli di deployment SAP supportati

Il plug-in viene testato con server SAP di cui è stato eseguito il deployment su Google Cloud.

Oggetti SAP supportati

Origini dati per destinazione Open Hub: InfoProvider (InfoObject, InfoCube, Oggetto DataStore, Oggetto Advanced Data Store, Provider composito)

Elabora le catene per eseguire automaticamente il processo di trasferimento dei dati nella destinazione Open Hub.

Licenza separata per utilizzare Oracle HTTP Server per estrarre dati da SAP

Non è necessaria una licenza separata per utilizzare Oracle HTTP Server (OHS) al fine di estrarre i dati da SAP. Tuttavia, verifica con il tuo rappresentante SAP il contratto e il caso d'uso specifici.

Velocità effettiva plug-in prevista

Per un ambiente configurato in base alle linee guida riportate in Ottimizza le prestazioni, il plug-in può estrarre circa 38 GB all'ora. Le prestazioni effettive possono variare in base al carico di sistema o al traffico di rete di Cloud Data Fusion e SAP.

Passaggi successivi