Panoramica del plug-in di origine batch SAP BW Open Hub

Questa guida descrive come eseguire il deployment, configurare ed eseguire pipeline di dati che utilizzano il plug-in di origine batch SAP BW Open Hub. Puoi utilizzare SAP come origine per l'estrazione di dati basata su batch e delta in Cloud Data Fusion tramite il servizio BW Open Hub.

Questo plug-in consente l'integrazione collettiva dei dati dalle applicazioni SAP con Cloud Data Fusion. Puoi configurare ed eseguire trasferimenti in blocco dei dati dalle origini dati SAP senza dover scrivere codice.

Per le applicazioni e gli oggetti SAP supportati per l'estrazione, consulta Dettagli dell'assistenza. Per ulteriori informazioni sull'esecuzione di SAP su Google Cloud, consulta la Panoramica di SAP su Google Cloud.

Obiettivi

  • Configurare il sistema SAP BW.
  • Esegui il deployment del plug-in nel tuo ambiente Cloud Data Fusion.
  • Scarica il trasporto SAP da Cloud Data Fusion e installalo in SAP.
  • Utilizza Cloud Data Fusion e l'origine batch SAP BW Open Hub per creare pipeline di dati per l'integrazione dei dati SAP.

Prima di iniziare

Per utilizzare questo plug-in, è necessario disporre di una conoscenza del dominio nelle seguenti aree:

  • Creazione di pipeline in Cloud Data Fusion
  • Configurazione di sistemi SAP BW o BW4HANA

Ruoli utente

Le attività in questa pagina vengono eseguite dalle persone con i seguenti ruoli in Google Cloud o nel loro sistema SAP:

Tipo di utente Descrizione
Amministratore Google Cloud Gli utenti a cui è stato assegnato questo ruolo sono amministratori di account Google Cloud.
Utente Cloud Data Fusion Gli utenti a cui è stato assegnato questo ruolo sono autorizzati a progettare ed eseguire pipeline di dati. Viene concesso almeno il ruolo Visualizzatore Data Fusion ( roles/datafusion.viewer). Se utilizzi il controllo dell'accesso basato sui ruoli, potrebbero essere necessari ruoli aggiuntivi.
Amministratore SAP Gli utenti a cui è stato assegnato questo ruolo sono amministratori del sistema SAP. Hanno accesso per scaricare software dal sito del servizio SAP. Non è un ruolo IAM.
Utente SAP Gli utenti a cui è stato assegnato questo ruolo sono autorizzati a connettersi a un sistema SAP. Non è un ruolo IAM.

Prerequisiti per SAP BW

Per creare e modificare i processi e le catene di processo di Data Transfer, è necessario SAP HANA Studio.

Prerequisiti per Cloud Data Fusion

  • Per la creazione di istanze di Cloud Data Fusion è necessaria una rete VPC.
  • È richiesta un'istanza di Cloud Data Fusion, versione 6.8.0 o successiva, qualsiasi versione.
  • È necessario concedere i ruoli obbligatori all'account di servizio assegnato all'istanza di Cloud Data Fusion. Per saperne di più, consulta Concessione dell'autorizzazione utente per un account di servizio.
  • Devi utilizzare una connessione in peering tra il tuo VPC e la rete VPC condivisa di Google.

Configurare il sistema SAP BW

L'origine batch SAP BW Open Hub utilizza un Remote Function Module (RFM), che deve essere installato su ogni SAP Server in cui vengono estratti i dati. Questo RFM viene fornito come trasporto SAP.

Per configurare il sistema SAP, segui questi passaggi:

  1. L'utente di Cloud Data Fusion deve scaricare il file ZIP contenente il trasporto SAP e fornirlo all'amministratore SAP. Per ulteriori informazioni, vedi Configurare Cloud Data Fusion.
  2. L'amministratore SAP deve importare il trasporto SAP nel sistema SAP e verificare gli oggetti creati. Per ulteriori informazioni, consulta Installare il trasporto SAP.
  3. Facoltativo: l'utente SAP può modificare gli oggetti di autorizzazione standard SAP del ruolo /GOOG/BWOH_CDF_AUTH consegnato in base ai criteri di sicurezza dell'organizzazione.

Installa i file di trasporto SAP

Per progettare ed eseguire pipeline di dati in Cloud Data Fusion, i componenti SAP vengono forniti in file di trasporto SAP, archiviati in un file ZIP. Il download è disponibile quando esegui il deployment del plug-in nell'hub di Cloud Data Fusion.

Scarica il file ZIP di trasporto SAP BW OH

Gli ID richiesta di trasporto SAP e i file associati sono forniti nella seguente tabella:

Trasporto SAP

ID trasporto Cofile File di dati Contenuti
BW1K900054 K900054.BW1 R900054.BW1 BWOH Cloud Data Fusion Connector versione 1.0
Moduli funzione:
/GOOG/BWOH_GET_PC_LOG
/GOOG/BWOH_GET_PRO_CHA_DETAILS
/GOOG/BWOH_API_OHS_ETL_READ
/GOOG/BWOH_GET_PC_RUNS
/GOOG/BWOH_SET_LAST_RUN
/GOOG/BWOH_GET_PC_OHD_LIST
BW1K900055 K900055.BW1 R900055.BW1 Ruolo di autorizzazione /GOOG/BWOH_CDF_AUTH

Per installare il trasporto SAP, segui questi passaggi:

Passaggio 1: carica i file di richiesta di trasporto

  1. Accedi al sistema operativo dell'istanza SAP.
  2. Usa il codice transazione SAP AL11 per ottenere il percorso della cartella DIR_TRANS. In genere il percorso è /usr/sap/trans/.
  3. Copia i cofile nella cartella DIR_TRANS/cofiles.
  4. Copia i file di dati nella cartella DIR_TRANS/data.
  5. Imposta il campo Utente e gruppo di dati e cofile su <sid>adm e sapsys.

Passaggio 2: importa i file di richiesta di trasporto

L'amministratore SAP può importare i file di richiesta di trasporto utilizzando una delle seguenti opzioni:

Opzione 1: importa i file di richiesta di trasporto utilizzando il sistema di gestione dei trasporti SAP
  1. Accedi al sistema SAP come amministratore SAP.
  2. Inserisci il codice STMS della transazione.
  3. Fai clic su Panoramica > Importazioni.
  4. Nella colonna Coda, fai doppio clic sul SID corrente.
  5. Fai clic su Extra > Altre richieste > Aggiungi.
  6. Seleziona l'ID richiesta di trasporto e fai clic su Continua.
  7. Seleziona la richiesta di trasporto nella coda di importazione, quindi fai clic su Richiedi > Importa.
  8. Inserisci il Numero cliente.
  9. Nella scheda Opzioni, seleziona Sovrascrivi gli originali e Ignora versione componente non valida.

    (Facoltativo) Seleziona Lascia le richieste di trasporto in coda per un'importazione successiva. In questo modo, le richieste vengono importate di nuovo nell'ordine corretto con l'importazione successiva di tutte le richieste. Questa opzione è utile se devi effettuare importazioni preliminari per singole richieste.

  10. Fai clic su Continua.

  11. Verifica che il modulo funzione e i ruoli di autorizzazione siano stati importati utilizzando eventuali transazioni appropriate, ad esempio SE80 e PFCG.

Opzione 2: importa i file di richiesta di trasporto a livello di sistema operativo
  1. Accedi al sistema SAP come amministratore SAP.
  2. Aggiungi le richieste appropriate al buffer di importazione:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Ad esempio: tp addtobuffer BW1K900054 DD1

  3. Importa le richieste di trasporto:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Sostituisci NNN con il numero del cliente. Ecco alcuni esempi:

    tp import BW1K900054 DD1 client=100 U1238
    
  4. Verifica che il modulo funzione e i ruoli di autorizzazione siano stati importati utilizzando eventuali transazioni appropriate, ad esempio SE80 e PFCG.

Autorizzazioni SAP richieste

Per eseguire una pipeline di dati in Cloud Data Fusion, devi avere un utente SAP. L'utente SAP deve essere di tipo Communications o Dialog. Per evitare di utilizzare le risorse di dialogo SAP, si consiglia il tipo Communications. L'amministratore SAP può creare utenti utilizzando il codice transazione SAP SU01.

Le autorizzazioni SAP sono necessarie per configurare il connettore per SAP. Gli oggetti di autorizzazione SAP specifici per il connettore vengono spediti come parte della richiesta di trasporto. Importa il trasporto dei ruoli di autorizzazione come descritto in Installare il trasporto SAP per trasferire il ruolo nel sistema e genera il ruolo dal codice transazione PFCG.

Per gli oggetti di autorizzazione SAP standard, la tua organizzazione gestisce le autorizzazioni con il proprio meccanismo di sicurezza. Puoi mantenere gli oggetti autorizzazione in base ai criteri di sicurezza della tua organizzazione.

Crea una catena di processi (PC) e un processo di trasferimento dati (DTP)

La creazione di una catena di processi e di un processo di trasferimento dei dati richiede alcune competenze aggiuntive e conoscenze di base.

Concetti di base

Per creare o modificare un PC e un DTP, utilizza SAP HANA Studio.

Competenze preliminari

  • Hai utilizzato le trasformazioni per definire il flusso di dati tra l'oggetto di origine e l'oggetto di destinazione.
  • Conosci bene i concetti di base di BW e HANA, come gli oggetti DataStore (DSO), le trasformazioni dei dati, gli infoCube, l'ottimizzazione delle query, la modellazione HANA e le funzionalità di database HANA utilizzando HANA Studio. Per ulteriori informazioni su questi concetti, consulta i tutorial su SAP su BW e HANA.

Tipo di estrazione

Esistono due modalità di estrazione dei dati per un processo di trasferimento dati: completa e delta.

  • Completo: seleziona tutti i dati disponibili nell'origine in base alle condizioni di filtro menzionate nel DTP. Se l'origine dei dati è uno dei seguenti InfoProvider, è disponibile solo la modalità di estrazione completa:

    • InfoObject
    • InfoSet
    • Oggetti del datastore per l'aggiornamento diretto
  • Delta: a differenza di InfoPackage, il trasferimento delta tramite DTP non richiede un'inizializzazione esplicita. Quando un DTP viene eseguito per la prima volta con la modalità di estrazione delta, tutte le richieste esistenti fino al momento dell'estrazione vengono recuperate dall'origine e poi inizializzato automaticamente.

    Per un DTP con il delta in modalità di estrazione sono disponibili le seguenti opzioni:

    • Ottieni Delta una sola volta
    • Scarica tutte le nuove richieste di dati su richiesta
    • Recupera fino a esaurimento dei nuovi dati

Dimensioni del pacchetto: il numero di record di dati presenti in un singolo pacchetto di dati. Il valore predefinito è 50,000.

Crea una catena di processi

Per creare una catena di processi (PC), utilizza l'RSPC delle transazioni nella GUI di SAP. Definisci un processo di avvio, quindi aggiungi i passaggi del processo e il DTP. Per ulteriori informazioni, consulta la documentazione di SAP per la creazione di catene di processi.

In HANA Studio sono disponibili varie opzioni per monitorare e amministrare i PC. Per saperne di più, consulta SAP BW/4HANA Process Chain Operations.

Crea un processo di trasferimento di dati utilizzando una catena di processi

Vai alla visualizzazione Pianificazione della catena di processi che vuoi utilizzare per il processo di trasferimento dei dati. Nella visualizzazione Planning puoi creare il DTP utilizzando HANA Studio. Per ulteriori informazioni, consulta la documentazione di SAP relativa alla creazione di un processo Data Transfer.

Per saperne di più sulle opzioni di configurazione, vedi All about Data Transfer Process (DTP) – SAP BW 7.

Connessione RFC

Per notificare al sistema di callback, ad esempio il plug-in SAP BW Open Hub Batch Source, che i dati sono disponibili, la catena di processi deve essere aggiornata in modo da utilizzare una destinazione RFC:

  1. In SM59, crea una connessione RFC di tipo Connessioni TCP/IP per notificare il sistema di destinazione da BW al termine del caricamento dei dati in BI.

  2. Assicurati che l'ID programma sia configurato nella connessione RFC facendo doppio clic sulla connessione RFC. L'ID programma deve essere univoco per ogni destinazione RFC per evitare conflitti di listener di runtime.

  3. Utilizza la connessione TCP/IP appena creata nella catena di processi per inviare una notifica di completamento di un job batch di Cloud Data Fusion. Il nome della catena di processi non è sensibile alle maiuscole. Deve essere specificato correttamente in maiuscole nel processo di integrazione end-to-end.

Visualizza i log di catene di processo e processi di trasferimento dati

  1. Vai a Tcode : RSPC e fai clic su Process Chains (Elabora catene).

  2. Fai clic con il pulsante destro del mouse sulla catena di processi per cui vuoi visualizzare i log, quindi fai clic su Visualizza log.

Configura il cluster Dataproc quando utilizzi la catena di processi

Per abilitare la comunicazione tramite server RFC, devi aggiungere le voci di porta del gateway SAP nel file /etc/services nei nodi del cluster Dataproc. Si consiglia di utilizzare un init action, lo script da eseguire all'inizializzazione del cluster. Per ulteriori informazioni, consulta la sezione Azioni di inizializzazione.

Crea un file di script e salvalo in un bucket Cloud Storage. L'esempio seguente mostra i contenuti del file di script:

gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services

Nell'esempio precedente, tieni presente quanto segue:

  • Le voci sono nel formato sapgwxx 33xx/tcp, dove XX è il numero di istanza SAP.

  • Sono state aggiunte le porte per le istanze SAP da 00 a 04.

Se utilizzi un cluster Dataproc temporaneo, permanente, permanente o esistente, esegui la procedura riportata di seguito.

Cluster Dataproc temporaneo

Se utilizzi un cluster Dataproc temporaneo, aggiungi il percorso dello script init alle proprietà del cluster:

  1. Nel monitoraggio dei job, fai clic su Configura dalla pagina della pipeline in Cloud Data Fusion.
  2. Seleziona il profilo Compute e fai clic su Personalizza.
  3. In Impostazioni avanzate, nel campo Azioni di inizializzazione, inserisci il percorso dello script init.

Nuovo cluster Dataproc permanente

Se utilizzi un cluster Dataproc permanente appena creato, usa lo script init nel comando gcloud per creare il cluster. Ad esempio:

gcloud dataproc clusters create cluster-name \
  --region=${REGION} \
  --initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
  ... other flags ...

Cluster Dataproc permanente esistente

Se utilizzi un cluster Dataproc permanente esistente, segui questi passaggi:

Se il cluster è già stato creato senza utilizzare lo script init, aggiungi manualmente le voci nei nodi master e worker del cluster Dataproc.

  1. SSH al nodo master e al nodo cluster.
  2. Accedi all'ID utente root.
  3. Vai a /etc/ e apri il file /etc/services in un editor di VI.
  4. Aggiungi la voce sapgwxx 33xx/tcp. Sostituisci xx con il numero di istanza SAP.
  5. Salva il file /etc/services.

Configura Cloud Data Fusion

Assicurati che la comunicazione sia abilitata tra l'istanza Cloud Data Fusion e il server SAP. Per le istanze private, configura il peering di rete. Dopo aver stabilito il peering di rete con il progetto in cui sono ospitati i sistemi SAP, non è necessaria alcuna configurazione aggiuntiva per connettersi alla tua istanza Cloud Data Fusion. Sia il sistema SAP che l'istanza Cloud Data Fusion devono essere all'interno dello stesso progetto.

Passaggi per gli utenti di Cloud Data Fusion

  1. Vai ai dettagli dell'istanza:
    1. Nella console Google Cloud, vai alla pagina Cloud Data Fusion.

    2. Fai clic su Istanze, quindi sul nome dell'istanza per andare alla pagina Dettagli istanza.

      Vai a Istanze

  2. Verifica che sia stato eseguito l'upgrade dell'istanza alla versione 6.8.0 o successiva. Se l'istanza è in una versione precedente, devi eseguirne l'upgrade.
  3. Apri l'istanza. Quando si apre l'interfaccia utente di Cloud Data Fusion, fai clic su Hub.
  4. Seleziona la scheda SAP > SAP BW. Se la scheda SAP non è visibile, consulta Risoluzione dei problemi relativi alle integrazioni SAP.
  5. Fai clic su Esegui il deployment del plug-in SAP BW. Il plug-in viene visualizzato nel menu Sorgente della pagina di Studio.

Passaggi per amministratori SAP e Google Cloud Admin

L'amministratore SAP scarica i seguenti artefatti JCo dal sito di assistenza SAP e li fornisce all'amministratore di Google Cloud.

  • Un'unica piattaforma indipendente (sapjco3.jar)
  • Un elemento che dipende dalla piattaforma (libsapjco3.so su Unix)

Per scaricare i file, procedi nel seguente modo:

  1. Vai alla pagina Connettori SAP.
  2. Fai clic su Connettore Java SAP/Strumenti e servizi. Puoi selezionare link specifici della piattaforma per il download.
  3. Seleziona la piattaforma su cui viene eseguita l'istanza di Cloud Data Fusion:

    1. Se utilizzi immagini Google Cloud standard per le VM nel tuo cluster, che è l'impostazione predefinita per Cloud Data Fusion, seleziona Linux per processori compatibili con Intel, 64-bit x86.
    2. Se utilizzi un'immagine personalizzata, seleziona la piattaforma corrispondente.
  4. L'amministratore di Google Cloud deve copiare i file JCo in un bucket Cloud Storage leggibile. Fornisci il percorso del bucket all'utente di Cloud Data Fusion per inserirlo nella proprietà del plug-in corrispondente in Cloud Data Fusion: Percorso GCS della libreria JCo SAP. Consulta la sezione Configurazione del plug-in.

  5. L'amministratore di Google Cloud deve concedere l'accesso in lettura ai due file all'account di servizio Cloud Data Fusion per l'ambiente di progettazione e all'account di servizio Dataproc per l'ambiente di esecuzione. Per ulteriori informazioni, consulta Account di servizio Cloud Data Fusion.

Configurare il plug-in

Il plug-in di origine batch SAP BW Open Hub legge i contenuti di un'origine dati SAP.

Per filtrare i record, puoi configurare le seguenti proprietà per l'origine batch SAP BW Open Hub.

Per definire i campi vengono utilizzati i seguenti indicatori:

  • (M): indica che le macro sono supportate per il rispettivo campo
  • (O): campo facoltativo

Label: etichetta del plug-in sul canvas.

Basic

Nel seguente elenco di proprietà, (M) indica che l'opzione supporta le macro e che possono essere utilizzate per gestire centralmente le connessioni SAP. Ad esempio, puoi utilizzare le macro per le proprietà di connessione e impostare i valori in fase di runtime utilizzando i parametri di runtime o un plug-in Argument Setter.

  • Nome riferimento: nome utilizzato per identificare in modo univoco la fonte per la derivazione e i metadati di annotazione.
  • Usa connessione (opzione di attivazione/disattivazione): indica se utilizzare una connessione esistente (vedi Gestione delle connessioni). Se scegli di utilizzare una connessione esistente, non è necessario fornire i dettagli della connessione SAP.

  • Connessione (Sfoglia connessioni): scegli la connessione esistente da utilizzare. Puoi anche utilizzare la funzione macro ${conn(connection-name)}.

  • Client SAP (M): il client SAP da utilizzare. Ad esempio, 100.

  • SAP Language (M): linguaggio di accesso SAP. Ad esempio, EN.

  • Tipo di connessione: tipo di connessione SAP, diretta o con bilanciamento del carico. Le connessioni con bilanciamento del carico non sono supportate per l'estrazione basata sulla catena di processi. Per ulteriori informazioni, vedi Dettagli dell'assistenza.

    La selezione di un tipo di connessione modifica i campi disponibili.

    Per una connessione diretta, sono disponibili i seguenti campi:

    • Host server applicazioni SAP (M): il nome o l'indirizzo IP del server SAP.
    • SAP System Number (M): il numero di sistema SAP. Ad esempio, 00.
    • Router SAP (M, O): la stringa del router.

    Per una connessione con bilanciamento del carico sono disponibili i seguenti campi:

    • Host server messaggi SAP (M): il nome host o l'indirizzo IP del messaggio SAP.
    • Numero porta o servizio server messaggi SAP (M): il numero di porta o di servizio del server di messaggi SAP. Ad esempio, sapms02.
    • SAP (ID sistema) (M): l'ID del sistema SAP. Ad esempio, N75.
    • Nome gruppo di accesso SAP (M): il nome del gruppo di accesso SAP. Ad esempio, PUBLIC.
  • Utilizza catena di processi (M): questo campo contiene due opzioni.

    Se attivi la catena di processi utilizzando l'opzione , vengono abilitate le seguenti proprietà:

    • Risolvi automaticamente errori PC e DTP: controlla il comportamento quando viene identificata un'esecuzione precedentemente non riuscita. Quando è disabilitato, il plug-in non supera la pipeline con errori pertinenti. Quando è abilitato (impostazione predefinita), il plug-in controlla la catena di processi e lo stato del processo di Data Transfer in SAP. Se viene identificato uno dei seguenti errori, il plug-in tenta automaticamente di risolverlo:

    • Data Transfer Process in error state: il plug-in elimina la richiesta precedente

    • Catena di processi in stato rosso con errore previous request status has not been set: il plug-in elimina la richiesta di blocco dopo aver ottenuto l'ID richiesta dal log della catena di processi e tenta di eseguire il PC.

    • Tempo di attesa per la notifica dello stato della catena di processo (in minuti) (M, O): attende il tempo specificato, in minuti, che la catena di processi completi la gestione temporanea dei dati e comunichi alla pipeline di avviare l'estrazione. Se specifichi 0 o lasci vuoto il relativo campo, il valore viene considerato pari a 10 minuti, che è il valore predefinito.

    • Process Chain (M): il nome della catena di processi SAP. Ad esempio, PC_RFC.

    Se disattivi la catena di processi utilizzando l'opzione No, vengono abilitate le seguenti proprietà:

    • Apri destinazione hub (M): apri il nome della destinazione hub da leggere.
    • ID richiesta (M,O): ID richiesta per il processo di trasferimento dei dati già eseguito.

Credenziali

  • Nome utente di accesso SAP (M): nome utente SAP. Consigliato: se il nome utente di accesso SAP cambia periodicamente, utilizza una macro.
  • Password di accesso SAP (M): la password dell'utente SAP. Consigliato: per valori sensibili come Password utente, utilizza le macro sicure

Dettagli su SAP JCo

  • ID progetto Google Cloud (M): l'ID progetto Google Cloud, che identifica in modo univoco un progetto. Puoi trovarlo nella dashboard nella console Google Cloud.
  • Percorso GCS della libreria JCo SAP (M): il percorso Cloud Storage che contiene i file della libreria SAP JCo caricati dall'utente.
  • Ottieni schema: fai clic se vuoi che il plug-in generi uno schema in base ai metadati di SAP, con la mappatura automatica dei tipi di dati SAP ai tipi di dati Cloud Data Fusion corrispondenti. La funzionalità è uguale a quella del pulsante Convalida.

Per ulteriori informazioni sui certificati client, consulta Utilizzo di certificati client X.509 su SAP NetWeaver Application Server per ABAP.

Avanzato

  • Numero di suddivisioni da generare (M, O): il numero di suddivisioni viene utilizzato per partizionare i dati di input. Più partizioni aumentano il livello di parallelismo, ma richiedono più risorse e overhead. Nel caso di un sistema SAP on-premise, se il valore non è specificato nella UI, le suddivisioni rappresentano il 50% dei processi di lavoro delle finestre di dialogo disponibili in SAP. In caso contrario, le suddivisioni vengono ottimizzate tra quelli specificati dall'utente e il 50% dei processi di lavoro disponibili.

    Consigliato: lascia vuota la proprietà, a meno che tu non conosca le impostazioni di sistema SAP.

  • Ulteriori proprietà di connessione SAP (M, O): imposta proprietà aggiuntive JCo di SAP che sostituiscono i valori predefiniti di SAP JCo. Ad esempio, l'impostazione di jco.destination.pool_capacity = 10 esegue l'override della capacità predefinita del pool di connessioni.

    Nella tabella seguente sono elencate le proprietà SAP JCo supportate:

    Proprietà Descrizione
    jco.destination.peak_limit Numero massimo di connessioni attive che è possibile creare contemporaneamente per una destinazione.
    jco.destination.pool_capacity Numero massimo di connessioni inattive mantenute aperte dalla destinazione. Il valore 0 determina l'assenza di pool di connessioni, ovvero le connessioni verranno chiuse dopo ogni richiesta.
    jco.destination.expiration_time Tempo trascorso in ms dopo la chiusura delle connessioni bloccate dal pool interno.
    jco.destination.expiration_check_period Intervallo in ms con cui il thread di controllo del timeout verifica la scadenza delle connessioni nel pool.
    jco.destination.max_get_client_time Tempo massimo in ms di attesa per una connessione, se il numero massimo consentito di connessioni è allocato dall'applicazione.

Comportamento delle modalità di estrazione dei dati

La modalità di estrazione dei dati è controllata tramite le impostazioni del processo di Data Transfer. Il comportamento è diverso quando si utilizza una catena di processi rispetto a una destinazione hub aperto.

Quando si utilizza una catena di processi

Le impostazioni a livello di processo Data Transfer controllano se viene eseguito un caricamento completo o delta. L'ID richiesta arriva come una notifica da SAP al plug-in. Il plug-in legge i dati dei pacchetti associati a questo singolo ID richiesta.

Quando utilizzi una destinazione Open Hub senza ID richiesta

Pieno carico: la prima esecuzione della pipeline ottiene tutti gli ID richiesta disponibili nella tabella Open Hub. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Carico delta: l'esecuzione della stessa pipeline per la prossima volta recupera tutti gli ID richiesta delta disponibili, dopo l'ultimo ID richiesta recuperato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Quando utilizzi la destinazione Open Hub con l'ID richiesta

Pieno carico: la prima esecuzione della pipeline ottiene tutti i successivi ID richiesta disponibili maggiori dell'ID richiesta specificato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Carico delta: l'esecuzione della stessa pipeline per la prossima volta recupera tutti gli ID richiesta delta disponibili, dopo l'ultimo ID richiesta recuperato. Il plug-in legge i dati dei pacchetti associati a questi ID richiesta.

Mappatura dei tipi di dati

La tabella seguente mostra la mappatura tra i tipi di dati utilizzati in SAP BW e Cloud Data Fusion.

Tipo di dati BW Tipo ABAP Descrizione (SAP) Tipo di dati di Cloud Data Fusion
Numerico
INT1 b Numero intero a 1 byte integer
INT2 s Numero intero a 2 byte integer
INT4 i Numero intero a 4 byte integer
INT8 8 Numero intero a 8 byte long
DIC p Numero compresso in formato BCD (DEC) decimal
DF16_DEC
DF16_RAW
a Virgola in virgola mobile 8 byte IEEE 754r decimal
DF34_DEC
DF34_RAW
e Virgola in virgola mobile 16 byte IEEE 754r decimal
FLTP f Numero binario in virgola mobile double
Carattere
CHAR
LCHR
c Stringa di caratteri string
SSTRING
GEOM_EWKB
string Stringa di caratteri string
STRINGA string Stringa di caratteri CLOB bytes
NUMC
ACCP
n Testo numerico string
Byte
LEGGE
RAW
x Dati binari bytes
STRING GREZZO xstring Stringa di byte BLOB bytes
Data/Ora
DATS d Data date
TEMPI t Ora time
TIMESTAMP utcl TimeStamp
Utclong
timestamp

Convalida

Fai clic su Convalida o Ottieni schema.

Il plug-in convalida le proprietà e genera uno schema basato sui metadati di SAP. Esegue automaticamente la mappatura dei tipi di dati SAP ai tipi di dati Cloud Data Fusion corrispondenti.

Esegui una pipeline di dati

  1. Dopo aver eseguito il deployment della pipeline, fai clic su Configura.
  2. Seleziona Risorse.
  3. Se necessario, modifica la CPU e la memoria dell'esecutore in base alla dimensione complessiva dei dati e al numero di trasformazioni utilizzate nella pipeline.
  4. Fai clic su Salva.
  5. Per avviare la pipeline di dati, fai clic su Esegui.

Ottimizzazione del rendimento

Ottimizza la configurazione del plug-in

Utilizza le seguenti proprietà per prestazioni ottimali quando esegui la pipeline:

  • Numero di suddivisioni da generare nelle proprietà del plug-in di Cloud Data Fusion: questa opzione controlla direttamente il parallelismo sul lato Cloud Data Fusion. Il motore di runtime crea il numero specificato di partizioni e connessioni SAP durante l'estrazione dei record della tabella. Sono consigliati valori compresi tra 8 e 16, ma puoi aumentarli fino a 32 o 64 con la configurazione appropriata sul lato SAP, allocando le risorse di memoria appropriate per i processi di lavoro in SAP.

    Se il valore è 0 o se viene lasciato vuoto (opzione consigliata), il sistema sceglie automaticamente un valore appropriato in base al numero di processi di lavoro SAP disponibili, ai record da estrarre e alle dimensioni del pacchetto.

  • Dimensioni pacchetto nelle proprietà del processo BW Data Transfer: questa opzione controlla il numero di set di dati presenti in un singolo pacchetto di dati. Il valore predefinito è 50,000. L'aumento di questo valore potrebbe generare prestazioni migliori, ma un carico di risorse maggiore. Se stai già utilizzando valori più alti, diminuiscili per consentire un migliore caricamento in contemporanea dell'estrazione.

Impostazioni delle risorse di Cloud Data Fusion

Consigliato: utilizza 1 CPU e 4 GB di memoria per esecutore. Questo valore si applica a ogni processo esecutore. Imposta questi valori nella finestra di dialogo Configura > Risorse.

Impostazioni cluster Dataproc

Consigliato: come minimo, assegna tra i worker un totale di CPU, maggiore del numero previsto di suddivisioni. Vedi Configurazione plug-in.

Ad esempio, se hai 16 split, definisci 20 o più CPU in totale, per tutti i worker. Per il coordinamento è previsto un overhead di 4 CPU.

Consigliato: utilizza un cluster Dataproc permanente per ridurre il runtime della pipeline di dati. In questo modo viene eliminato il passaggio di provisioning, che potrebbe richiedere alcuni minuti o più. Impostalo nella sezione di configurazione di Compute Engine.

Dettagli dell'assistenza

Prodotti e versioni SAP supportati

Origini supportate:

  • SAP NW BW 7.5 e versioni successive
  • SAP BW4HANA 2.0 SP9 (per includere l'API di destinazione Open Hub; le release precedenti di BW4HANA non supportano l'API di destinazione Open Hub)

Supporto per la connessione SAP con bilanciamento del carico (server dei messaggi)

La connessione SAP con bilanciamento del carico (server di messaggi) è supportata per l'estrazione basata sulla destinazione Open Hub, in cui non viene utilizzato un server RFC.

La connessione SAP con bilanciamento del carico (server di messaggi) non è supportata per l'estrazione basata su catena di processi. Il motivo è una limitazione SAP quando si fornisce una notifica data ready al sistema client, che richiede la registrazione del server RFC (Listener di plug-in) su ogni server SAP nell'ambiente BW, aumentando l'impatto del connettore e con un potenziale impatto sulle prestazioni e sull'utilizzo delle risorse SAP. Per ulteriori informazioni, consulta la nota SAP 2572564 (per la visualizzazione è necessario accedere all'assistenza SAP).

Modelli di deployment SAP supportati

Il plug-in viene testato con server SAP di cui è stato eseguito il deployment su Google Cloud.

Oggetti SAP supportati

Origini dati per la destinazione Open Hub: InfoProviders (InfoObject, InfoCube, Oggetto Datastore, oggetto Advanced Data Store, provider composito)

Elabora le catene per eseguire automaticamente il processo di Data Transfer nella destinazione Open Hub.

Licenza separata per utilizzare Oracle HTTP Server per estrarre dati da SAP

Non è necessaria una licenza separata per utilizzare Oracle HTTP Server (OHS) per estrarre dati da SAP. Tuttavia, contatta il tuo rappresentante SAP per informazioni sul contratto specifico e sul caso d'uso.

Velocità effettiva del plug-in prevista

Per un ambiente configurato secondo le linee guida in Ottimizza prestazioni, il plug-in può estrarre circa 38 GB all'ora. Le prestazioni effettive potrebbero variare in base al carico di sistema o al traffico di rete di Cloud Data Fusion e SAP.

Passaggi successivi