Versione 2.0: guida alla pianificazione di BigQuery Connector per SAP

Questa guida alla pianificazione fornisce agli amministratori di SAP e Google Cloud le informazioni necessarie per pianificare la replica dei dati SAP in BigQuery utilizzando la versione 2.0 o 2.1 di BigQuery Connector per SAP con SAP LT Replication Server.

BigQuery Connector per SAP si installa in SAP Landscape Transformation Replication Server (SAP LT Replication Server) e consente la replica quasi in tempo reale dei dati SAP direttamente in BigQuery.

Con i tuoi dati in BigQuery puoi eseguire analisi in tempo reale con intelligenza artificiale o machine learning su dati di applicazioni SAP in tempo reale. In BigQuery puoi anche integrare i tuoi dati SAP con dati di altre origini.

Questa guida tratta i seguenti argomenti:

Per istruzioni dettagliate sull'installazione e la configurazione delle repliche del server di replica SAP LT con BigQuery Connector per SAP, consulta la Guida all'installazione e alla configurazione di BigQuery Connector for SAP.

Per informazioni su BigQuery, vedi Che cos'è BigQuery?.

Per informazioni sugli acceleratori di soluzioni per la modellazione dei dati SAP in BigQuery, consulta Google Cloud Cortex Framework.

Panoramica di BigQuery Connector per SAP

BigQuery Connector per SAP utilizza le interfacce e le funzionalità standard di SAP Landscape Transformation Replication Server e supporta tutte le origini dati supportate da SAP LT Replication Server.

BigQuery Connector per SAP è fornito da Google Cloud sotto forma di file di trasporto che installi in SAP LT Replication Server.

Scarica il pacchetto di installazione che contiene i file di trasporto prima di installare BigQuery Connector per SAP. Sebbene BigQuery Connector per SAP sia attualmente offerto senza costi, devi avere un account di fatturazione Cloud per ricevere il pacchetto di installazione. Per maggiori informazioni, vedi Scaricare il pacchetto di installazione.

BigQuery Connector per SAP è un'implementazione Google Cloud di un Business Add In (BAdI) per SAP LT Replication Server. BigQuery Connector per SAP è sviluppato da Google Cloud seguendo il processo dell'SDK SAP LT Replication Server.

BigQuery Connector per SAP sfrutta la funzionalità Change Data Capture (CDC) di SAP LT Replication Server.

Trattamento dati

BigQuery Connector per SAP invia i record SAP direttamente a BigQuery da SAP LT Replication Server senza alcun livello o strumento di integrazione dei dati intermedi.

Alla ricezione dei record, BigQuery li aggiunge alla tabella in modalità di solo inserimento. Se BigQuery riceve un aggiornamento di un record già esistente nella tabella BigQuery, inserisce una nuova istanza del record nella tabella senza modificare l'istanza esistente. L'istanza del record inserita più di recente riflette lo stato attuale del record nella tabella di origine.

BigQuery Connector per SAP consente solo una trasformazione minima dei dati, conforme a un modello ELT (estrazione, caricamento, trasformazione) anziché estrazione, trasformazione e caricamento (ETL). Per ulteriori informazioni su questi modelli, consulta Procedure e pattern per le pipeline di dati.

BigQuery Connector per SAP suggerisce automaticamente i campi, i nomi dei campi e i tipi di dati per la tabella di destinazione in base ai dati di origine. Prima di creare la tabella BigQuery di destinazione, puoi modificare i valori suggeriti in base alle tue esigenze.

I nomi suggeriti per i campi di destinazione si basano sulle descrizioni dei campi nella tabella di origine. Per ulteriori informazioni, consulta Opzioni di denominazione predefinite per i campi.

Sebbene BigQuery Connector per SAP suggerisca automaticamente i tipi di dati BigQuery per la maggior parte dei campi, i valori booleani, timestamp ed esadecimali non possono essere interpretati automaticamente, quindi devi mapparli manualmente. Per ulteriori informazioni, consulta la sezione Mappatura dei tipi di dati.

BigQuery Connector per SAP offre diversi punti di miglioramento in cui puoi inserire i tuoi miglioramenti personalizzati nel codice BigQuery Connector per SAP. Per ulteriori informazioni, consulta Uscite dal miglioramento.

Se non esiste già una tabella di destinazione in BigQuery, BigQuery Connector per SAP ne crea una.

Una volta avviata la replica, i record SAP vengono aggiunti a BigQuery in modalità di solo inserimento.

Sicurezza

Puoi controllare l'accesso a BigQuery Connector per SAP in SAP LT Replication Server utilizzando il sistema di autorizzazione basato sui ruoli di SAP LT Replication Server. Quando installi BigQuery Connector per SAP, i file di trasporto includono ruoli personalizzati per BigQuery Connector per SAP. Per ulteriori informazioni sui ruoli personalizzati, consulta Sicurezza SAP.

Puoi controllare l'accesso a Google Cloud e BigQuery utilizzando l'autenticazione e l'autorizzazione di Identity and Access Management e l'autenticazione dell'API BigQuery. Per ulteriori informazioni, vedi Sicurezza di Google Cloud.

Per la comunicazione tra BigQuery Connector per SAP e BigQuery, BigQuery Connector per SAP utilizza la comunicazione HTTPS end-to-end e SSL.

Per informazioni da SAP sull'autorizzazione, consulta la guida alla sicurezza per la tua versione di SAP LT Replication Server nel Portale di assistenza SAP.

Scalabilità

Per volumi molto grandi, come miliardi di record di dati con milioni di delta, BigQuery Connector per SAP utilizza le funzioni di scalabilità e partizionamento del server di replica SAP LT per caricare in contemporanea l'estrazione dei dati su larga scala. Per ulteriori informazioni, consulta la Guida alle dimensioni per la tua versione di SAP LT Replication Server nel Portale di assistenza SAP.

Per quanto riguarda BigQuery, BigQuery Connector per SAP utilizza l'API BigQuery per i flussi di dati per scalare il caricamento dei dati.

Architettura di installazione

BigQuery Connector per SAP viene installato come componente aggiuntivo aziendale (BAdI) all'interno di un'istanza SAP LT Replication Server.

L'istanza di SAP LT Replication Server può essere su Google Cloud, on-premise o su un altro cloud provider. Ovunque sia in esecuzione SAP LT Replication Server, deve essere il più vicino possibile al sistema di origine. Collabora con il tuo team di rete per garantire una bassa latenza e una velocità effettiva elevata tra il sistema SAP di origine, SAP LT Replication Server e il tuo set di dati BigQuery.

Le seguenti sezioni descrivono le architetture comuni e consigliate per BigQuery Connector per SAP.

Architettura per origini dati SAP su Google Cloud

Il seguente diagramma mostra due esempi di installazioni di SAP LT Replication Server su Google Cloud con l'origine dati SAP su Google Cloud.

Per mostrare un esempio di ogni architettura, un'installazione utilizza un'architettura autonoma di SAP LT Replication Server, in cui SAP LT Replication Server è installato su un server separato, mentre l'altra utilizza un'architettura SAP LT Replication Server incorporata, in cui SAP LT Replication Server è installato nel server del sistema di origine SAP.

Poiché le istanze SAP LT Replication Server sono installate su Google Cloud, BigQuery Connector per SAP si connette direttamente all'endpoint API BigQuery, senza richiedere una connessione Cloud Interconnect o Cloud VPN.

Nel diagramma, i sistemi SAP e BigQuery sono mostrati in diversi progetti Google Cloud, ma puoi utilizzare lo stesso progetto per entrambi, se necessario.

Il diagramma è descritto nel testo precedente

Architettura per origini dati SAP on-premise o su un altro cloud provider

Il seguente diagramma mostra due esempi di installazioni di SAP LT Replication Server in esecuzione on-premise o su un altro cloud provider.

Per mostrare un esempio di ogni architettura, un'installazione utilizza un'architettura autonoma di SAP LT Replication Server, mentre l'altra utilizza un'architettura incorporata di SAP LT Replication Server.

In entrambi gli esempi, SAP LT Replication Server è installato nello stesso ambiente dell'origine dati SAP.

La connessione da BigQuery Connector per SAP in SAP LT Replication Server a BigQuery viene fornita tramite una connessione Cloud Interconnect o una connessione Cloud VPN.

Il diagramma è descritto nel testo precedente

Visualizzazione dettagliata dell'architettura del flusso di dati

Il seguente diagramma mostra dove si inserisce BigQuery Connector per SAP nel flusso di dati di SAP LT Replication Server.

I numeri del diagramma vengono spiegati seguendo il diagramma.

Il diagramma è descritto nel testo precedente

Le seguenti spiegazioni numerate corrispondono ai numeri nel diagramma:

  1. Dopo l'inizializzazione di SAP LT Replication Server, quando i record nelle tabelle di origine vengono inseriti, aggiornati o eliminati, il trigger di database registra le modifiche nelle tabelle di logging.
  2. SAP LT Replication Server controlla continuamente le tabelle di logging per trovare nuove voci tramite chiamate RFC.
  3. Se SAP LT Replication Server trova nuove voci, il motore di lettura legge i record e chiama il motore di mappatura e trasformazione.
  4. Il motore di mappatura e trasformazione chiama il motore di scrittura, che richiama BigQuery Connector per SAP.
  5. BigQuery Connector per SAP esegue le seguenti azioni:
    1. Mappa i dati SAP al nome della tabella, ai nomi dei campi e ai tipi di dati BigQuery di destinazione.
    2. Crea la tabella BigQuery, se necessario.
    3. Invia i record a BigQuery in blocchi tramite l'API BigQuery per i flussi di dati.
  6. Alla ricezione dei dati, BigQuery intraprende le seguenti azioni:
    1. Esegue controlli di convalida.
    2. Inserisce i record nella tabella di destinazione.
    3. Invia un codice di stato HTTP 200 (OK) a BigQuery Connector per SAP.
  7. BigQuery Connector per SAP restituisce il codice di stato HTTP OK al server di replica SAP LT, che elimina le voci replicate dalla tabella di logging e libera risorse nel sistema di origine SAP.

Requisiti software

BigQuery Connector per SAP supporta le principali versioni delle applicazioni aziendali in manutenzione come origini dati, oltre che come applicazioni legacy meno recenti. Alcune delle applicazioni SAP supportate includono:

  • SAP Business Suite 7
  • S/4HANA
  • Applicazioni SAP in esecuzione su SAP NetWeaver

Puoi installare BigQuery Connector per SAP in SAP LT Replication Server su Google Cloud, on-premise o su cloud pubblici come AWS, Azure e così via.

Licenze

Il BigQuery Connector per SAP è reso disponibile come "Software" ai sensi del contratto che regola l'utilizzo della Google Cloud Platform da parte dell'utente, inclusi i Termini specifici di servizio disponibili all'indirizzo https://cloud.google.com/terms/service-terms. Senza alcuna limitazione alla generalità dei termini riportati sopra, non è possibile modificare o distribuire BigQuery Connector per SAP senza l'espressa autorizzazione scritta di Google.

BigQuery Connector per il software SAP è attualmente offerto senza costi. Per maggiore chiarezza, l'utilizzo di altri "Software" e "Servizi" ai sensi del contratto che regola l'utilizzo della Google Cloud Platform, ad esempio BigQuery e l'API per i flussi di dati BigQuery, potrebbe comportare un costo.

BigQuery Connector per SAP non include alcuna licenza per il software SAP, incluso, senza alcuna limitazione, SAP LT Replication Server. Acquista separatamente una licenza appropriata per il software SAP.

Requisiti di versione del software SAP

Le versioni richieste di SAP LT Replication Server e dei sistemi di origine SAP variano a seconda che si installi SAP LT Replication Server sul proprio server in un'architettura autonoma o all'interno del sistema applicativo ABAP di origine in un'architettura incorporata.

I requisiti software SAP sono diversi anche a seconda del sistema SAP che stai utilizzando come origine dati: SAP S/4HANA o SAPECC.

Per vedere le versioni del software SAP con cui Google Cloud supporta BigQuery Connector per SAP, seleziona la scheda corrispondente al tuo sistema di origine SAP:

S/4HANA

Architettura di installazione Sistema Versioni supportate Componente aggiuntivo per l'interfaccia utente (UI)
Autonoma Sistema di origine
  • NetWeaver 7.5 o versioni successive o qualsiasi versione della piattaforma ABAP.

    Per assicurarti che le versioni DMIS sui sistemi di origine e di destinazione siano compatibili, consulta la nota SAP 2577774.

  • Componente aggiuntivo SLT: DMIS 2011 SP15, DMIS 2018 SP00, DMIS 2020 o qualsiasi versione di S4CORE.

Il componente SAP_UI deve essere compatibile con la tua versione di SAP Netweaver.

/UI2/CL_JSON: PL12 o versioni successive.

Per informazioni sulla compatibilità dei componenti aggiuntivi SAP, vedi:

Sistema server di replica SAP LT
  • NetWeaver 7.0 (con EHP2) o versioni successive o qualsiasi versione della piattaforma ABAP.
  • Componente aggiuntivo SLT: DMIS 2011 SP15 o versioni successive, DMIS 2018 SP00 o versioni successive o DMIS 2020 SP00 o versioni successive.
Incorporati Sistema di origine
  • NetWeaver 7.5 o versioni successive o qualsiasi versione della piattaforma ABAP.
  • Componente aggiuntivo SLT: DMIS 2011 SP15 o versioni successive, DMIS 2018 SP00 o versioni successive, DMIS 2020 o versioni successive o qualsiasi versione di S4CORE.

ECC

Architettura di installazione Sistema Versioni supportate Componente aggiuntivo per l'interfaccia utente (UI)
Autonoma Sistema di origine
  • NetWeaver 7.0 (con EHP2) o versioni successive.

    Per assicurarti che le versioni DMIS sui sistemi di origine e di destinazione siano compatibili, consulta la nota SAP 2577774.

    Se le versioni di DMIS sono compatibili, puoi utilizzare le versioni precedenti di ECC.

  • Componente aggiuntivo SLT: DMIS 2011 SP15 o versioni successive o DMIS 2018 SP00 o versioni successive.

Il componente SAP_UI deve essere compatibile con la tua versione di SAP Netweaver.

/UI2/CL_JSON: PL12 o versioni successive.

Per informazioni sulla compatibilità dei componenti aggiuntivi SAP, vedi:

Sistema server di replica SAP LT
  • NetWeaver 7.0 (con EHP2) o versioni successive.
  • Componente aggiuntivo SLT: DMIS 2011 SP15 o versioni successive o DMIS 2018 SP00 o versioni successive.
Incorporati Sistema di origine
  • NetWeaver 7.0 (con EHP2) o versioni successive.
  • Componente aggiuntivo SLT: DMIS 2011 SP15 o versioni successive o DMIS 2018 SP00 o versioni successive.

Requisiti del sistema operativo

BigQuery Connector per SAP supporta qualsiasi sistema operativo supportato da SAP LT Replication Server.

Per informazioni su quali sistemi operativi sono supportati da SAP LT Replication Server, consulta la matrice di disponibilità dei prodotti SAP.

Requisito per gcloud CLI

BigQuery Connector per SAP richiede che Google Cloud CLI sia installato sull'host SAP LT Replication Server.

Se SAP LT Replication Server è in esecuzione su Google Cloud e stai utilizzando un'immagine del sistema operativo fornita da Compute Engine, gcloud CLI potrebbe essere preinstallato.

Per verificare quali immagini del sistema operativo includono gcloud CLI, consulta la tabella relativa al tuo sistema operativo in Dettagli del sistema operativo.

Per verificare se gcloud CLI è installato su un host del server di replica SAP LT esistente, accedi al server ed esegui un comando gcloud. Ad esempio:

gcloud version

Se gcloud CLI non è già installato sull'host del server di replica SAP LT, può essere installato dall'amministratore SAP. Per ulteriori informazioni sull'installazione di gcloud CLI, consulta Installare gcloud CLI.

Origini di replica supportate

BigQuery Connector per SAP supporta la maggior parte dei sistemi di origine di database e applicazioni di uso comune supportati da SAP LT Replication Server.

Origini di applicazioni SAP supportate

Puoi replicare i dati dalle origini delle applicazioni SAP supportate da SAP LT Replication Server.

Tuttavia, SAP consiglia di non replicare i dati da SAP Business Warehouse utilizzando SAP LT Replication Server. Per ulteriori informazioni da SAP, consulta la nota SAP 2525755.

Le applicazioni SAP Cloud, come S/4HANA Cloud, SAP Ariba, SAP SuccessFactors e altre, non sono supportate.

Origini dati supportate

Puoi replicare solo tabelle trasparenti o cluster.

BigQuery Connector per SAP non supporta la replica delle viste SAP Core Data Services (CDS).

Sicurezza

Durante l'implementazione della sicurezza per la replica dei dati da SAP LT Replication Server a BigQuery, è necessario implementare controlli di sicurezza in SAP LT Replication Server, nel sistema operativo host di SAP LT Replication Server e in Google Cloud.

Sicurezza SAP

Per controllare chi può configurare e utilizzare BigQuery Connector per SAP in SAP LT Replication Server, utilizza l'autorizzazione SAP standard basata sui ruoli.

BigQuery Connector per SAP fornisce l'oggetto di autorizzazione ZGOOG_MTID come parte dell'installazione del trasporto.

Per configurare ed eseguire job di replica dei dati che utilizzano BigQuery Connector per SAP, puoi definire un ruolo con accesso amministrativo all'interno di SAP LT Replication Server, come descritto in Creare ruoli e autorizzazioni SAP per BigQuery Connector for SAP.

Ad esempio, puoi definire un ruolo chiamato ZGOOGLE_BIGQUERY_ADMIN che disponga di tutte le autorizzazioni SAP e ZGOOG_MTID necessarie per configurare e gestire la replica dei dati in BigQuery utilizzando BigQuery Connector per SAP.

Per ulteriori informazioni da SAP sui ruoli e sull'autorizzazione, consulta la Guida alla sicurezza per la tua versione di SAP LT Replication Server nel Portale di assistenza SAP.

Sicurezza di Google Cloud

L'implementazione della sicurezza sul connettore Google Cloud per BigQuery per SAP può prevedere i seguenti controlli di sicurezza:

  • Autorizzazioni, ruoli, account di servizio e chiavi di Identity and Access Management (IAM).
  • Controlli BigQuery impostati a livello di set di dati o tabella.
  • Controlli di servizio Virtual Private Cloud (VPC) per i servizi basati su API come BigQuery.

Google Cloud Identity and Access Management

Per l'autenticazione e l'autorizzazione di BigQuery Connector per SAP, è necessario un account di servizio IAM nel progetto Google Cloud che contiene il set di dati BigQuery.

Per l'autorizzazione all'interazione con le risorse BigQuery, devi concedere i ruoli all'account di servizio che contiene le autorizzazioni per interagire con BigQuery nel progetto BigQuery.

Se crei l'account di servizio nel progetto BigQuery, puoi concedere i ruoli richiesti al momento della creazione dell'account di servizio, che diventerà automaticamente un'entità nel progetto BigQuery.

Le autorizzazioni necessarie a BigQuery Connector per SAP per accedere a BigQuery sono contenute nei seguenti ruoli IAM:

  • Editor dati BigQuery
  • Utente job BigQuery

Se SAP LT Replication Server è in esecuzione su una VM Compute Engine, devi anche concedere il ruolo Creatore token account di servizio all'account di servizio della VM host.

Se SAP LT Replication Server è in esecuzione on-premise o su un'altra piattaforma cloud, oltre a creare un account di servizio, devi anche creare una chiave dell'account di servizio per il BigQuery Connector per SAP. L'amministratore SAP installa la chiave sull'host del server di replica SAP LT. Quando BigQuery Connector per SAP si connette a BigQuery, il server di replica SAP LT utilizza la chiave dell'account di servizio per l'autenticazione con Google Cloud.

Una chiave dell'account di servizio non è necessaria quando SAP LT Replication Server è in esecuzione su Google Cloud.

Per ulteriori informazioni su IAM, account di servizio, ruoli e autorizzazioni, vedi:

Controlli di accesso a set di dati e tabelle BigQuery

Oltre ai controlli IAM, puoi controllare l'accesso anche utilizzando BigQuery. Per BigQuery Connector per SAP, puoi impostare i controlli di accesso su set di dati e tabelle.

Per ulteriori informazioni, vedi:

Controlli di servizio VPC

Su Google Cloud, le regole firewall VPC non sono applicabili alle interazioni basate su API con BigQuery. Puoi utilizzare i controlli di servizio VPC (Virtual Private Cloud) per limitare il traffico.

Se il tuo carico di lavoro SAP è in esecuzione su Google Cloud, puoi implementare i controlli di servizio VPC definendo i perimetri di servizio. Per ulteriori informazioni, consulta Perimetri di servizio.

Se il tuo carico di lavoro SAP non è in esecuzione su Google Cloud, puoi implementare i controlli di servizio VPC come parte della configurazione dell'accesso privato Google per gli host on-premise.

Per ulteriori informazioni sulla sicurezza della rete per BigQuery, consulta Sicurezza della rete.

Ulteriori informazioni sulla sicurezza di Google Cloud

Per ulteriori informazioni su account, ruoli e autorizzazioni di sicurezza, vedi:

Networking

Quando pianifichi il percorso di rete per la replica in BigQuery, tieni presente quanto segue:

  • Larghezza di banda
  • La latenza e il suo impatto sul consumo di risorse nell'host del server di replica SAP LT
  • Volume di dati e relativo impatto su qualsiasi carico di rete esistente
  • Se il carico di lavoro SAP non è in esecuzione su Google Cloud, quale tipo di connessione utilizzare: Cloud Interconnect o Cloud VPN

Connessione a Google Cloud

Se i tuoi sistemi SAP non sono in esecuzione su Google Cloud e non hai già una connessione dai tuoi sistemi SAP a Google Cloud, devi stabilire una connessione e configurare l'accesso privato alle API Google Cloud.

Puoi stabilire una connessione a Google Cloud utilizzando Cloud Interconnect o Cloud VPN.

Cloud Interconnect in genere offre una larghezza di banda superiore, una minore latenza e una contesa di rete minore rispetto a Cloud VPN. Per job di replica sensibili alle prestazioni e volumi elevati, Google Cloud consiglia Cloud Interconnect for BigQuery Connector per SAP.

Con Cloud VPN, i dati di replica viaggiano sulla rete internet pubblica, quindi i conflitti di rete sono meno prevedibili e le latenze sono in genere più elevate.

Indipendentemente dall'opzione di connessione scelta, devi esaminare tutto il traffico che prevedi verrà supportato dalla connessione. Determina se la connessione dispone di larghezza di banda e velocità di rete sufficienti per supportare i job di replica e qualsiasi altro carico di lavoro senza influire negativamente su nessuno dei due.

Le connessioni lente possono aumentare il consumo di risorse sia sul server di origine SAP sia sull'host del server di replica SAP LT estendendo il tempo necessario per il completamento dei job delle risorse, mantenendo vincolate le risorse necessarie per la replica per periodi di tempo più lunghi.

Per ulteriori informazioni sulle opzioni di connessione:

Se utilizzi un server proxy per inviare le richieste HTTP a Google Cloud, configura il server proxy nella transazione SAP SICF. Per i passaggi di configurazione, consulta la documentazione di SAP sulla configurazione di un proxy.

Larghezza di banda

Assicurati che la connessione di rete tra SAP LT Replication Server e BigQuery disponga di una larghezza di banda sufficiente per supportare il tuo volume di dati alla velocità richiesta.

Le connessioni di rete più lente aumentano la latenza della replica dei dati, di conseguenza anche le risorse utilizzate dalla replica nel sistema SAP di origine.

Per le installazioni produttive, Google Cloud consiglia una connessione Cloud Interconnect. Puoi anche utilizzare Cloud VPN.

Latenza

Per ridurre la latenza sulla connessione di rete, crea il tuo set di dati BigQuery di destinazione il più vicino possibile al sistema SAP LT Replication Server e al sistema di origine SAP. Se il sistema SAP di origine è in esecuzione su Google Cloud, crea il set di dati BigQuery nella stessa regione Google Cloud del sistema SAP di origine.

Testa la latenza prima di eseguire la migrazione dell'installazione a un ambiente di produzione.

Per ulteriori informazioni sulle prestazioni della rete, consulta Prestazioni della connessione di rete.

Controlli dell'accesso alla rete

Puoi implementare controlli dell'accesso di rete su entrambi i lati della connessione tra SAP LT Replication Server e Google Cloud.

Controlli dell'accesso alla rete di Google Cloud

BigQuery Connector per SAP comunica con BigQuery tramite un endpoint API, che non è soggetto alle regole firewall VPC di Google Cloud.

Utilizza invece Controlli di servizio VPC per limitare il traffico.

Per ulteriori informazioni sulla sicurezza della rete per BigQuery, consulta Sicurezza della rete.

Controlli dell'accesso alla rete host del server di replica SAP LT

Nell'host del server di replica SAP LT, devi assicurarti che eventuali firewall o proxy consentano il traffico in uscita dal server all'endpoint API BigQuery. In particolare, SAP LT Replication Server deve essere in grado di accedere alle seguenti API Google Cloud:

  • https://bigquery.googleapis.com
  • https://iamcredentials.googleapis.com

Pianificazione del rendimento

Le prestazioni dei caricamenti iniziali e dei job di replica tra il server di replica SAP LT e BigQuery sono influenzate da più fattori in punti diversi del percorso di replica.

Tuttavia, alcuni fattori di base, come la distanza tra il server di replica SAP LT e il set di dati BigQuery o la larghezza di banda della connessione a Google Cloud, hanno un impatto maggiore sulle prestazioni rispetto alla maggior parte degli altri fattori.

Best practice generali per le prestazioni

Per ottenere le migliori prestazioni, incorpora i seguenti suggerimenti nella configurazione del server di replica SAP LT:

  • Esegui il tuo carico di lavoro SAP, inclusi il sistema di origine SAP e il server di replica SAP LT, su Google Cloud.
  • Se il tuo carico di lavoro SAP si trova su Google Cloud, crea il tuo set di dati BigQuery nella stessa regione del carico di lavoro SAP.
  • Se non riesci a eseguire il tuo carico di lavoro SAP su Google Cloud:
    • Crea il set di dati BigQuery nell'area geografica Google Cloud più vicina al tuo carico di lavoro SAP.
    • Connettiti a Google Cloud utilizzando Cloud Interconnect.
  • Per evitare contese per le risorse, utilizza host dedicati separati sia per il sistema di origine SAP che per SAP LT Replication Server.
  • Dimensiona il tuo sistema SAP LT Replication Server in modo ottimale per il tuo carico di lavoro in base alla guida alle dimensioni per la tua versione di SAP LT Replication Server nel Portale di assistenza SAP.
  • Utilizza le seguenti impostazioni di replica del server di replica SAP LT:
  • Configura BigQuery Connector per SAP con:
    • Compressione record predefinita.
    • La dimensione massima del blocco.
  • Quando mappi i campi alla tabella BigQuery, evita nomi personalizzati, se possibile.

Per ulteriori informazioni, vedi:

Ulteriori caratteristiche che possono influire sulle prestazioni

Molte caratteristiche della configurazione e dei dati possono influire sulle prestazioni. Alcune di queste caratteristiche potrebbero non essere modificabili. tra cui:

  • Sul server di origine:
    • Il numero di CPU.
    • La quantità di memoria.
    • Il database utilizzato, ad esempio SAP HANA, SAP ASE, IBM Db2 o altri.
    • Il numero di colonne nella tabella di origine.
    • La quantità di dati contenuti in ogni record.
    • I metadati della tabella, ad esempio la lunghezza dei nomi dei campi.
    • Il numero di processi di lavoro delle finestre di dialogo.
  • Sul server di replica SAP LT:
    • Il numero di CPU.
    • La quantità di memoria.
    • Altri carichi di lavoro che potrebbero essere in esecuzione dall'host.
    • Finestra di dialogo SAP e processi di lavoro in background.
    • Il tipo di architettura di installazione di SAP LT Replication Server. Per ulteriori informazioni, consulta Installazione autonoma (consigliata) o incorporata di SAP LT Replication Server.
    • Il numero di job in background in esecuzione sul sistema SAP LT Replication Server.
    • Il numero di job in background assegnati al trasferimento di massa nella scheda Amministrazione della transazione LTRC.
    • Le impostazioni delle prestazioni delle transazioni LTRS, tra cui Tipo di lettura e Dimensione porzione.
  • Nella configurazione della replica di BigQuery (transazione /GOOG/SLT_SETTINGS):
    • Indica se sono stati specificati o meno nomi personalizzati per i campi di destinazione. L'elaborazione dei nomi dei campi BigQuery di destinazione può avere un leggero impatto sulle prestazioni.
    • Indica se la compressione dei record è attivata.
    • Connettore BigQuery per SAP Chunk size, che può influire sul numero totale di richieste HTTP inviate.

Considerazioni sulle prestazioni del server di replica SAP LT

Le seguenti sezioni discutono le opzioni di prestazioni correlate alla configurazione di SAP LT Replication Server.

Prestazioni e architettura di installazione di SAP LT Replication Server

Un'architettura autonoma, in cui SAP LT Replication Server è installato sul proprio server dedicato, di solito offre prestazioni migliori rispetto a un'architettura incorporata, in cui SAP LT Replication Server è installato sullo stesso server del sistema di origine.

In un'architettura incorporata, SAP LT Replication Server deve condividere le risorse server con il sistema di origine SAP.

Anche con un'architettura autonoma, la CPU e la memoria dell'host, nonché qualsiasi altro carico di lavoro che potrebbe essere in esecuzione sul server, possono influire sulle prestazioni di un'istanza SAP LT Replication Server.

Prestazioni e impostazioni di replica avanzate di LTRS

Le prestazioni dei caricamenti e della replica iniziali sono influenzate dalle impostazioni specificate per la tabella di origine nella transazione LTRS in Impostazioni di replica avanzate.

Per indicazioni sull'ottimizzazione delle prestazioni, in particolare per ottimizzare i caricamenti iniziali o la replica di volumi elevati, consulta la guida all'ottimizzazione delle prestazioni per i server di replica SAP LT nel portale di assistenza SAP.

Google Cloud consiglia le seguenti specifiche nella sezione Impostazioni di replica avanzate > Prestazioni generali della transazione LTRS:

Per i caricamenti iniziali della maggior parte dei tipi di tabella, specifica Calcolo intervallo 1 come Tipo di lettura. Per le tabelle troppo grandi per il calcolo di un intervallo, specifica Tipo di lettura 5.

Per le repliche, in Impostazioni attive:

  • Per le repliche più veloci, specifica Intervalli automatici.
  • Per repliche più affidabili, specifica Nessun intervallo.

La tabella seguente suggerisce le impostazioni per alcuni scenari comuni.

Tipo di tabella Tipo di lettura consigliato
Trasparente (piccolo-medio) Tipo di lettura 1 - Calcolo intervallo
Trasparente (grande) Solo se il tipo di lettura 1 non funziona, Tipo di lettura 5 - Calcolo intervallo
Tabella cluster Tipo di lettura 4 - Coda mittente

Prestazioni della connessione di rete

La larghezza di banda e la latenza della connessione tra il sistema SAP LT Replication Server e BigQuery possono influire sulle prestazioni complessive della replica in BigQuery.

L'impatto influisce non solo sulla velocità di replica, ma anche sulla quantità di risorse utilizzate da SAP LT Replication Server e dal sistema di origine, in quanto maggiore è il tempo necessario per ricevere la conferma della replica da BigQuery, più le risorse host di SAP LT Replication Server e del sistema di origine vengono conservate.

Se il carico di lavoro SAP è in esecuzione on-premise o su un altro cloud provider, Google Cloud consiglia di utilizzare una connessione Cloud Interconnect, che offre larghezza di banda elevata e bassa latenza senza dover competere con il traffico sulla rete internet pubblica.

Puoi utilizzare Cloud VPN per connetterti a Google Cloud e BigQuery. Tuttavia, con una connessione VPN, le repliche devono competere con il traffico internet generale.

Se il tuo carico di lavoro SAP è in esecuzione su Google Cloud, Google Cloud consiglia di localizzare SAP LT Replication Server e il tuo set di dati BigQuery nella stessa regione. Se SAP LT Replication Server e BigQuery si trovano in regioni diverse, la latenza è in genere più elevata e le prestazioni sono generalmente inferiori. Per saperne di più sulla scelta di un'area geografica, consulta Scegliere una regione e una zona.

Trasmissione dati

In genere, vuoi inviare il maggior numero possibile di dati in ogni richiesta HTTP in modo da ridurre il numero complessivo di richieste HTTP e il relativo overhead di elaborazione.

Tuttavia, in alcuni casi potrebbe essere necessario ridurre la quantità di dati inviati a causa delle dimensioni dei record in una determinata tabella oppure perché hai raggiunto un limite di quota o un altro limite in BigQuery.

Puoi controllare la quantità di dati inviati in ogni richiesta nei seguenti modi:

  • Modifica la quantità di dati (la dimensione della porzione) che SAP LT Replication Server invia a BigQuery Connector per SAP.
  • Modifica la quantità di dati (la dimensione del blocco) che BigQuery Connector per SAP invia a BigQuery.
  • Modifica le quote per l'inserimento di flussi di dati nel progetto BigQuery.

Regolazione della quantità di dati inviati da SAP LT Replication Server

SAP LT Replication Server invia record dal sistema di origine a BigQuery Connector per SAP in porzioni. Ogni parte viene gestita come un job di caricamento o replica separato che consuma risorse del server fino al completamento.

In genere, se aumenti la dimensione della porzione del server di replica SAP LT, diminuisci il numero di processi del server di replica SAP LT e l'overhead associato.

Dimensioni della porzione e del blocco

Le parti del server di replica SAP LT vengono dimensionate in byte o come prodotto di byte e record. Le dimensioni del connettore BigQuery per i blocchi SAP dipendono dal numero di record che possono contenere. Le dimensioni in byte di un blocco variano in base a diversi fattori, tra cui il numero di campi nei record e la quantità di dati contenuti in ogni record.

Se la dimensione della parte del server di replica SAP LT è maggiore della dimensione dei blocchi BigQuery Connector per SAP, BigQuery Connector per SAP invia più blocchi per ogni parte, finché non vengono inviati tutti i record della parte.

Se la dimensione della parte è inferiore a quella del blocco, il connettore BigQuery per SAP invia un solo blocco per parte. Ogni blocco contiene solo il numero di record inviati in ogni parte, indipendentemente dalle dimensioni del blocco impostate in BigQuery Connector per SAP.

Idealmente, imposta una dimensione della porzione in SAP LT Replication Server che consenta BigQuery Connector per SAP di creare i blocchi più grandi possibili senza superare il limite di BigQuery sul numero di byte in ogni richiesta HTTP.

Per ulteriori indicazioni su come specificare una dimensione del blocco, consulta Dimensioni del blocco in BigQuery Connector for SAP.

Dimensione della porzione nel server di replica SAP LT

Per modificare la dimensione delle porzioni predefinita utilizzata dal server di replica SAP LT, esegui la transazione LTRS e modifica il valore nel campo Dimensioni pacchetto in Impostazioni di replica avanzate in Opzioni prestazioni.

Per ulteriori informazioni, consulta la guida all'ottimizzazione delle prestazioni di SAP LT Replication Server nel Portale di assistenza SAP.

Dimensione del blocco in BigQuery Connector per SAP

BigQuery Connector per SAP invia i dati a BigQuery come blocchi di record. Ti consigliamo di utilizzare la dimensione massima dei blocchi consentita da BigQuery Connector per SAP, ovvero 10.000 record. 10.000 record è anche la dimensione predefinita del blocco utilizzata da BigQuery Connector per SAP.

Se il numero di record in un determinato blocco si risolve a una dimensione di byte che supera il limite di BigQuery per le dimensioni in byte per le richieste HTTP, potresti ricevere un errore quotaExceeded o un errore invalid.

Questo può accadere se i record in una tabella di origine contengono molti campi o molti dati.

Se viene visualizzato un errore relativo alla dimensione del blocco, prova a ridurre la dimensione del blocco specificata nella configurazione del trasferimento di massa per quella tabella.

Per le tabelle di origine SAP come MSEG, ACDOCA e MATDOC, che possono avere record di grandi dimensioni con molti campi, potrebbe essere necessario specificare una dimensione del blocco a partire da 2000.

Puoi specificare le dimensioni del blocco eseguendo la transazione /GOOG/SLT_SETTINGS. Le dimensioni del blocco sono specificate nel campo Dimensione blocco nella schermata degli attributi della tabella.

Per ulteriori indicazioni su come specificare le dimensioni di un blocco, vedi:

Per ulteriori informazioni sui messaggi di errore di BigQuery, vedi Messaggi di errore.

Overhead di elaborazione associato all'invio di porzioni

Ogni parte inviata attiva le seguenti azioni, ognuna delle quali comporta un overhead di elaborazione o il consumo di risorse:

  1. Una raccolta di record modificati nella tabella di logging nel sistema di origine viene inviata a SAP LT Replication Server in un'unica parte. I record modificati non sono ancora stati eliminati dalla tabella di logging.
  2. SAP LT Replication Server richiede un nuovo token di accesso a Google Cloud.
  3. BigQuery Connector per SAP invia una richiesta HTTP a BigQuery per verificare la struttura della tabella di destinazione.
  4. BigQuery Connector per SAP invia i record a BigQuery nel numero di blocchi necessari per inviare tutti i record ricevuti nella singola parte. Ogni blocco viene inviato in una richiesta HTTP separata.
  5. BigQuery elabora ogni blocco che riceve.
  6. Per ogni blocco viene restituito un codice di stato HTTP OK a SAP LT Replication Server.
  7. Dopo che BigQuery ha ricevuto tutti i record, il server di replica SAP LT elimina i record inviati dalla tabella di logging, liberando risorse nel sistema di origine.

Per ulteriori informazioni sulle parti e sulla configurazione di SAP LT Replication Server per le prestazioni, consulta la Guida all'ottimizzazione delle prestazioni per SAP LT Replication Server nel Portale di assistenza SAP.

Quote di BigQuery

Le quote dell'API BigQuery per i flussi di dati in vigore per il tuo progetto limitano la quantità di dati che puoi trasmettere in BigQuery nel tempo e in qualsiasi richiesta HTTP.

Ad esempio, BigQuery imposta dei limiti per metriche come:

  • I byte al secondo per progetto che puoi inviare.
  • Il numero massimo di record o righe che puoi inviare in una singola richiesta HTTP.
  • La dimensione massima di una richiesta HTTP che puoi inviare.

Per l'inserimento di flussi di dati, BigQuery fissa a 10 MB le dimensioni delle richieste HTTP e a 50.000 il numero di record che è possibile inviare in una singola richiesta HTTP.

Nella maggior parte dei casi, puoi modificare le quote, ma non i limiti.

Puoi visualizzare e modificare le quote in vigore per il tuo progetto nella console Google Cloud nella pagina Quote.

Per ulteriori informazioni sulle quote e sui limiti di BigQuery per l'inserimento di flussi di dati, vedi:

Registra compressione

Per impostazione predefinita, BigQuery Connector per SAP migliora le prestazioni di replica comprimendo i record che invia a BigQuery.

Quando la compressione dei record è abilitata (impostazione predefinita), BigQuery Connector per SAP omette dai record inviati a BigQuery i campi vuoti nel record di origine. Quando il record viene inserito in BigQuery, i campi omessi dai dati inviati vengono inizializzati con null nella tabella di destinazione.

Puoi disabilitare la compressione dei record specificando Invia flag non compresso nella configurazione della tabella BigQuery, ma questa operazione può avere un impatto negativo sulle prestazioni di replica.

Quando è selezionata l'opzione Invia flag non compresso, BigQuery Connector per SAP invia i record a BigQuery con tutti i campi, inclusi quelli vuoti. Ad eccezione dei campi della data e del timestamp, i campi vuoti conservano il valore con cui sono stati inizializzati nella tabella di origine. Il valore inizializzato per i campi di data e timestamp riceve i seguenti valori:

  • Valore di inizializzazione campo data: DATE 1970-01-01
  • Valore di inizializzazione del campo timestamp: TIMESTAMP 1970-01-01 00:00:00 UTC

Configurazioni di replica BigQuery

Quando configuri la replica con BigQuery Connector per SAP, utilizzi diverse transazioni SAP, tra cui una transazione personalizzata fornita da Google Cloud:

  • SM30: definisce le proprietà per la connessione a Google Cloud, che vengono archiviate come record nella tabella di configurazione personalizzata /GOOG/CLIENT_KEY.
  • LTRC - Definisce il connettore BigQuery per l'applicazione di replica SAP e l'ID trasferimento di massa, tra le altre proprietà
  • /GOOG/SLT_SETTINGS: definisce le proprietà per il set di dati, la tabella e i campi BigQuery di destinazione. Quando inserisci /GOOG/SLT_SETTINGS in SAP LT Replication Server, devi aggiungere /n per eseguire l'escape della barra iniziale iniziale nel nome della transazione.

Supporto dei linguaggi

BigQuery Connector per SAP versione 2.1 supporta solo configurazioni di replica in inglese. Quando configuri la replica utilizzando le transazioni SAP e la transazione personalizzata fornita da Google Cloud, utilizza Inglese come lingua di accesso nella schermata di accesso di SAP.

Tuttavia, BigQuery Connector per SAP supporta l'esecuzione di job in background in esecuzione su SAP LT Replication Server in tutti i linguaggi supportati da SAP SLT.

Tutti i messaggi di errore che potresti visualizzare quando utilizzi BigQuery Connector per SAP vengono generati in inglese indipendentemente dal linguaggio di esecuzione del job in background.

Proprietà tabella di destinazione

Quando configuri la replica in SAP LT Replication Server eseguendo la transazione /GOOG/SLT_SETTINGS, puoi specificare le impostazioni da applicare quando BigQuery Connector per SAP crea la tabella di destinazione in BigQuery.

Ad esempio, puoi specificare le seguenti proprietà per una tabella BigQuery di destinazione:

  • Nome tabella
  • L'opzione di denominazione predefinita per i campi
  • Campi aggiuntivi per acquisire le modifiche ai record e abilitare le query sul conteggio dei record
  • Partizionamento della tabella

Opzioni di denominazione predefinite per i campi

Puoi configurare BigQuery Connector per SAP in modo da creare i nomi dei campi nella tabella BigQuery di destinazione dai nomi dei campi di origine o dalle etichette e dalle descrizioni dei campi di origine. Le etichette e le descrizioni di solito sono più informative sui contenuti del campo.

Per impostazione predefinita, BigQuery Connector per SAP utilizza i nomi dei campi di origine. Puoi modificare il valore predefinito specificando il flag Custom Names quando specifichi gli attributi di creazione della tabella nella configurazione del trasferimento di massa della transazione /GOOG/SLT_SETTINGS. Questa specifica è archiviata nella tabella di configurazione /GOOG/BQ_MASTR.

Quando crei i nomi, BigQuery Connector per SAP li modifica per renderli conformi alla convenzione di denominazione BigQuery.

Prima di creare una tabella, puoi modificare i nomi dei campi nella schermata di mappatura dei campi della transazione /GOOG/SLT_SETTINGS.

Quando viene specificato il flag Custom Names, i nomi che il connettore BigQuery per SAP utilizzerà durante la creazione della tabella di destinazione vengono visualizzati nella colonna External Field Name (Nome campo esterno) della schermata di mappatura dei campi.

BigQuery Connector per SAP crea i nomi nella colonna Nome campo esterno dall'etichetta del campo Mezzo di ciascun campo di origine. Se nella definizione del campo di origine non è specificata un'etichetta del campo del mezzo, viene utilizzata la descrizione breve del campo. Se non è specificata nessuna descrizione breve, viene utilizzata l'etichetta specificata più breve. Se non viene specificato nulla, viene utilizzato il nome del campo di origine.

Per ulteriori informazioni sulla personalizzazione dei nomi dei campi di destinazione, consulta Personalizzazione dei nomi dei campi di destinazione.

Acquisizione delle modifiche ai record e attivazione dei conteggi dei record

Per acquisire il tipo di modifica nella tabella di origine che ha attivato la replica ed eseguire query sui conteggi dei record nella tabella BigQuery per il confronto con il server di replica SAP LT o con i conteggi dei record nella tabella di origine, specifica l'opzione Flag campi aggiuntivi nella transazione /GOOG/SLT_SETTINGS quando configuri la replica.

Quando viene specificata l'opzione Flag campi aggiuntivi, allo schema della tabella BigQuery di destinazione vengono aggiunte le seguenti colonne:

Nome campo Tipo di dati Descrizione
operation_flag STRING

Identifica il tipo di modifica nella tabella di origine che ha attivato il caricamento o la replica del record in BigQuery.

Per conteggiare i record inseriti in modalità di replica, esegui una query sui record che hanno un valore I, U o D nel campo operation_flag. Per una query di esempio, vedi Eseguire una query sul numero di record inseriti in modalità di replica.

Per conteggiare i record inseriti nella modalità di caricamento iniziale, esegui query sui record che hanno un valore L nel campo operation_flag. Per una query di esempio, vedi Eseguire una query sul conteggio dei record inseriti nella modalità di caricamento iniziale.

is_deleted BOOLEAN Quando true, indica che il record di origine è stato eliminato dalla tabella di origine.

Per conteggiare solo i record in una tabella BigQuery che non sono stati eliminati dalla tabella di origine, utilizza il campo is_deleted per escludere i record di origine eliminati. Per una query di esempio, vedi Eseguire una query sul conteggio totale dei record in una tabella BigQuery.

recordstamp TIMESTAMP

L'ora in cui SAP LT Replication Server ha inviato il record a BigQuery.

Per conteggiare il numero di record univoci in una tabella BigQuery, esegui una query solo sull'istanza inserita più di recente di ciascun record. Per una query di esempio, vedi Eseguire una query sul conteggio totale dei record in una tabella BigQuery.

L'impostazione corrente dell'opzione Flag campi aggiuntivi è archiviata nella tabella di configurazione /GOOG/BQ_MASTR.

Per ulteriori informazioni su come specificare il Flag campi aggiuntivi, vedi:

Partizionamento della tabella

Puoi creare tabelle BigQuery partizionate in base a un campo timestamp nella tabella di origine, che crea una tabella partizionata in unità di tempo nelle colonne, o in base al momento in cui i record vengono inseriti in BigQuery, creando così una tabella partizionata in base all'ora di importazione.

Per abilitare il partizionamento, specifica un tipo di partizione nel campo Tipo di partizione nella sezione /GOOG/BQ_TABLE quando configuri le proprietà di replica.

I tipi di partizione che puoi specificare regolano la granularità del partizionamento per ora, giorno, mese o anno.

Per utilizzare un timestamp dalla tabella di origine per il partizionamento delle colonne in unità di tempo, specifica il nome del campo di origine nel campo Partition Field (Campo partizione).

Per utilizzare l'ora di inserimento BigQuery per il partizionamento in fase di importazione, puoi lasciare vuoto il campo Partition Field (Campo partizione). BigQuery Connector per SAP crea un campo nella tabella di destinazione per archiviare l'ora di inserimento.

Proprietà del campo di destinazione

Per impostazione predefinita, BigQuery Connector per SAP utilizza i nomi dei campi e i tipi di dati nella tabella di origine SAP come nomi dei campi e tipi di dati nella BigQuery di destinazione.

Facoltativamente, prima di creare la tabella di destinazione, puoi personalizzare i nomi dei campi o modificare il tipo di dati BigQuery.

Personalizzazione dei nomi dei campi di destinazione

Prima di creare una tabella, puoi personalizzare i nomi dei campi di destinazione.

Se necessario, BigQuery Connector per SAP modifica i nomi personalizzati specificati per renderli conformi alla convenzione di denominazione BigQuery.

Quando configuri la replica, puoi visualizzare i nomi dei campi nella schermata di mappatura dei campi della transazione /GOOG/SLT_SETTINGS. BigQuery Connector per SAP archivia le tue impostazioni nella tabella di configurazione /GOOG/BQ_FIELD.

Prima di creare una tabella, puoi specificare il nome di un campo personalizzato modificando il nome generato nella colonna Nome campo temporaneo della schermata di mappatura dei campi. Se elimini un valore e lasci vuoto il campo Nome campo temporaneo, BigQuery Connector per SAP utilizza il nome del campo di origine per il nome di quel campo di destinazione.

Dopo aver apportato eventuali modifiche al Nome campo temporaneo, quando fai clic su Salva, BigQuery Connector per SAP convalida il valore, applica le convenzioni di denominazione di BigQuery se necessario e salva le modifiche. Puoi convalidare un valore senza salvarlo premendo Invio.

Per informazioni sull'impostazione del metodo di denominazione predefinito per i campi di destinazione, vedi Opzioni di denominazione predefinite per i campi.

Utilizza un foglio di lavoro o un file di testo per modificare la mappa dei campi di BigQuery

Prima di creare una tabella BigQuery di destinazione, puoi scegliere di salvare i tipi di dati, i nomi e le descrizioni predefiniti dei campi di destinazione in un foglio di lavoro o in un file di testo, in modo che i data engineer o gli amministratori di BigQuery possano modificare facilmente i valori senza richiedere l'accesso a SAP LT Replication Server.

Dopo aver modificato i valori, devi convertire il file e i relativi contenuti nel formato CSV (valori separati da virgole). Puoi quindi applicare gli aggiornamenti alle impostazioni del trasferimento di massa caricando il file CSV utilizzando la transazione personalizzata /GOOG/SLT_SETTINGS.

La procedura per modificare la mappa dei campi BigQuery mediante un file CSV prevede i seguenti passaggi:

  1. Crea un foglio di lavoro o un file di testo con le mappature predefinite dei campi.
  2. Modifica i valori.
  3. Converti il foglio di lavoro o il file di testo in formato CSV.
  4. Carica il file CSV.

Per istruzioni dettagliate per ciascuno di questi passaggi, consulta Modificare la mappa dei campi BigQuery in un file CSV.

Convenzione di denominazione BigQuery per i campi

La convenzione di denominazione di BigQuery utilizza solo lettere minuscole, numeri e trattini bassi.

BigQuery Connector per SAP applica le convenzioni di denominazione di BigQuery a qualsiasi valore di input da utilizzare per il nome di un campo di destinazione.

Ad esempio, se inserisci FIELD-@#!*123 come nome del campo personalizzato, BigQuery Connector per SAP cambia il nome in field_123.

Per ulteriori informazioni sulla convenzione di denominazione BigQuery per i campi, vedi Nomi delle colonne.

Mappatura dei tipi di dati

Per impostazione predefinita, BigQuery Connector per SAP assegna tipi di dati ai campi BigQuery di destinazione in base al tipo di tipo SAP o al tipo di dati SAP del campo SAP di origine.

Quando configuri la replica, puoi visualizzare i tipi di dati nella schermata di mappatura dei campi della transazione /GOOG/SLT_SETTINGS. BigQuery Connector per SAP archivia le tue impostazioni nella tabella di configurazione /GOOG/BQ_FIELD.

Prima di creare una tabella, puoi modificare la specifica del tipo di dati predefinito con un tipo di dati BigQuery diverso nella colonna Elemento di dati esterni della schermata di mappatura dei campi.

Tipi di dati che richiedono una gestione speciale

Diversi tipi di dati SAP richiedono una gestione speciale in modo da essere rappresentati in modo accurato nella tabella BigQuery di destinazione.

Alcuni di questi tipi di dati devono essere gestiti autonomamente. BigQuery Connector per SAP si prende cura degli altri al posto tuo.

Operatori booleani

Per i valori booleani, SAP utilizza il tipo di dati CHAR che, per impostazione predefinita, BigQuery Connector per SAP viene mappato al tipo di dati STRING nella tabella BigQuery di destinazione.

Di conseguenza, per quanto riguarda i valori booleani, quando configuri la replica utilizzando la transazione /GOOG/SLT_SETTINGS, devi modificare l'assegnazione predefinita del tipo di dati per i campi booleani da STRING a BOOLEAN nella schermata di mappatura dei campi.

Timestamp

Per i timestamp, SAP utilizza i tipi di dati P (decimale pacchettizzato) o DEC (decimale), che per impostazione predefinita, BigQuery Connector per SAP mappa a NUMERIC nella tabella BigQuery di destinazione.

Di conseguenza, per quanto riguarda i timestamp, quando configuri la replica utilizzando la transazione /GOOG/SLT_SETTINGS, devi modificare l'assegnazione predefinita del tipo di dati per i campi timestamp da NUMERIC a TIMESTAMP o TIMESTAMP (LONG) nella schermata di mappatura dei campi.

X tipo di tipo SAP

Il tipo di tipo SAP X è esadecimale ed è rappresentato dai tipi di dati SAP RAW, RAWSTRING o LRAW. Per impostazione predefinita, BigQuery Connector per SAP mappa questi tipi di dati a STRING nella tabella BigQuery di origine.

Se hai bisogno di un campo di origine con il tipo SAP X da mappare a BYTES, devi modificare l'assegnazione predefinita del tipo di dati per il campo nella schermata di mappatura dei campi della transazione /GOOG/SLT_SETTINGS.

Il tipo di tipo SAP X viene talvolta utilizzato in SAP per rappresentare numeri interi. In questo caso, BigQuery Connector per SAP controlla il tipo di dati nel campo di origine per uno dei tipi di dati SAP per i numeri interi, INT1, INT2, INT4, INT8 e assegna il tipo di dati INTEGER nella tabella BigQuery di destinazione.

y tipo di tipo SAP

Il tipo di tipo SAP y è una stringa di byte ed è rappresentato dai tipi di dati SAP RAW, RAWSTRING o LRAW. Per impostazione predefinita, BigQuery Connector per SAP mappa questi tipi di dati a STRING nella tabella BigQuery di origine.

Se hai bisogno di un campo di origine con il tipo SAP y da mappare a BYTES, devi modificare l'assegnazione predefinita del tipo di dati per il campo nella schermata di mappatura dei campi della transazione /GOOG/SLT_SETTINGS.

Mappatura dei tipi di dati predefinita

La seguente tabella mostra la conversione predefinita del tipo di dati di BigQuery Connector per SAP:

Tipo di tipo SAP Tipo di dati SAP Tipo di dati BigQuery Note
b (numero intero di 1 byte)
s (numero intero di 2 byte)
I (numero intero di 4 byte)
8 (numero intero di 8 byte)
INT1
INT2
INT4
INT8
INTEGER
F (numero in virgola mobile) FLTP FLOAT
P (confezionato) CURR
DEC
QUAN
NUMERIC Per impostazione predefinita, il tipo di tipo SAP P è mappato al tipo di dati BigQuery NUMERIC e convertito in un numero nel formato esterno.
N (numerico) NUMC STRING
X (esadecimale)
y (stringa di byte)
RAW
RAWSTRING
LRAW
STRING Se il tipo di tipo SAP è X, ma il nome del tipo di dati copre il pattern 'INT*' (INT1, INT2, INT4), un elemento dati di origine viene sostituito con un nuovo elemento di dati TYPINT8 con TYPEKIND '8', mappato al tipo di dati BigQuery INTEGER.
C (carattere)
g (stringa di caratteri)
? (sequenza)
& (clike)
CHARSTRING STRING
D (data) DATS DATE
T (orario) TIMS TIME

Ciclo di vita del supporto

Google Cloud supporta e gestisce l'attuale versione principale di BigQuery Connector per SAP e, per un periodo di almeno 12 mesi dopo la pubblicazione di un avviso di ritiro nella pagina delle note di rilascio di SAP su Google Cloud, la versione principale precedente.