Questa guida alla pianificazione fornisce agli amministratori SAP e Google Cloud le informazioni di cui hanno bisogno per pianificare la replica dei dati SAP in BigQuery utilizzando la versione 2.0 o 2.1 di BigQuery Connector per SAP con SAP LT Replication Server.
Installazioni di BigQuery Connector per SAP in SAP Landscape Transformation Replication Server (SAP LT Replication Server) e consente la replica quasi in tempo reale dei dati SAP in BigQuery.
Con i tuoi dati in BigQuery, puoi eseguire operazioni in tempo reale l'analisi con l'intelligenza artificiale o il machine learning su SAP in tempo reale dati dell'applicazione. In BigQuery puoi anche integrare i tuoi dati SAP con quelli di altre origini.
Questa guida tratta i seguenti argomenti:
- Panoramica di BigQuery Connector per SAP
- Architetture di installazione
- Requisiti software
- Sicurezza
- Networking
- Pianificazione del rendimento
- Opzioni di mappatura di tabelle e campi
- Ciclo di vita dell'assistenza
Per istruzioni passo passo per l'installazione e la configurazione Repliche di SAP LT Replication Server con BigQuery Connector per SAP, consulta la guida all'installazione e alla configurazione di BigQuery Connector per SAP.
Per informazioni su BigQuery, vedi Che cos'è BigQuery?
Per informazioni sugli acceleratori di soluzioni per la modellazione dei dati SAP in BigQuery, consulta Google Cloud Cortex Framework.
Panoramica di BigQuery Connector per SAP
BigQuery Connector per SAP utilizza le interfacce e le funzionalità standard Server di replica della trasformazione della trasformazione del panorama SAP e supporta tutte le origini dati Supporta SAP LT Replication Server.
BigQuery Connector per SAP è fornito da Google Cloud sotto forma di file di trasporto da installare in SAP LT Replication Server.
Scarica il pacchetto di installazione contenente i file di trasporto prima di installare il connettore BigQuery per SAP. Anche se BigQuery Connector per SAP è attualmente offerto senza costi, devi avere un account di fatturazione Cloud per ricevere il pacchetto di installazione. Per ulteriori informazioni, vedi Scarica il pacchetto di installazione.
BigQuery Connector per SAP è un'implementazione di Google Cloud di un Componente aggiuntivo aziendale (BAdI) per SAP LT Replication Server. BigQuery Connector per SAP è sviluppato da Google Cloud seguendo la procedura dell'SDK SAP LT Replication Server.
BigQuery Connector per SAP sfrutta la funzionalità di rilevamento dei dati modificati di SAP LT Replication Server.
Trattamento dati
BigQuery Connector per SAP invia i record SAP direttamente a BigQuery da SAP LT Replication Server senza alcun strumento o livello di integrazione dei dati intermedio.
Una volta ricevuti, BigQuery li aggiunge alla tabella in modalità di inserimento esclusivo. Se BigQuery riceve un aggiornamento di un record già esistente in BigQuery tabella BigQuery, BigQuery inserisce una nuova istanza del record senza modificare l'istanza esistente. L'ultimo inserito dell'istanza del record riflette lo stato corrente del record e la tabella di origine.
BigQuery Connector per SAP consente solo una trasformazione minima dei dati, in conformità a un modello di estrazione, caricamento e trasformazione (ELT), al contrario di un modello ETL (Extract, Transform and Load). Per ulteriori informazioni su questi modelli, consulta Procedure e pattern per le pipeline di dati.
BigQuery Connector per SAP suggerisce automaticamente i campi, i nomi dei campi e i tipi di dati per la tabella di destinazione in base ai dati di origine. Prima del viene creata la tabella BigQuery di destinazione, puoi modificare i valori suggeriti a seconda delle esigenze.
I nomi suggeriti per i campi di destinazione si basano sulle descrizioni dei campi nella tabella di origine. Per ulteriori informazioni, consulta le opzioni di denominazione predefinite per i campi.
Sebbene BigQuery Connector per SAP suggerisca automaticamente Tipi di dati BigQuery per la maggior parte dei campi: booleano, timestamp e i valori esadecimali non possono essere interpretati automaticamente, quindi devi mappare manualmente. Per saperne di più, consulta Mappatura dei tipi di dati.
BigQuery Connector per SAP offre diversi punti di miglioramento da cui inserisci i tuoi miglioramenti personalizzati nel codice BigQuery Connector per SAP. Per ulteriori informazioni, consulta la sezione Uscite di miglioramento.
Se una tabella di destinazione non esiste già in BigQuery, BigQuery Connector per SAP ne crea una.
Una volta avviata la replica, i record SAP vengono aggiunti a BigQuery in modalità di inserimento esclusivo.
Sicurezza
Puoi controllare l'accesso a BigQuery Connector per SAP in SAP LT Replication Server mediante il sistema di autorizzazione basato su ruoli di SAP LT Replication Server. Quando installi BigQuery Connector per SAP, i file di trasporto includono ruoli personalizzati per BigQuery Connector per SAP. Per ulteriori informazioni sui sui ruoli, consulta l'articolo sulla sicurezza SAP.
Controlla l'accesso a Google Cloud e BigQuery mediante l'autenticazione e l'autorizzazione di Identity and Access Management e ai Autenticazione dell'API BigQuery. Per ulteriori informazioni, consulta la pagina Sicurezza di Google Cloud.
Per la comunicazione tra BigQuery Connector per SAP BigQuery, BigQuery Connector per SAP utilizza l'architettura end-to-end Comunicazione HTTPS e SSL.
Per informazioni da SAP sull'autorizzazione, consulta Guida alla sicurezza per la tua versione di SAP LT Replication Server nel Portale di assistenza SAP.
Scalabilità
Per volumi molto grandi, come miliardi di record di dati con milioni di delta, BigQuery Connector per SAP utilizza le funzioni di scalabilità e partizione di SAP LT Replication Server per eseguire in parallelo l'estrazione dei dati su larga scala. Per ulteriori informazioni, consulta la guida alla definizione delle dimensioni per la tua versione di SAP LT Replication Server nel portale di assistenza SAP.
Per quanto riguarda BigQuery, BigQuery Connector per SAP Utilizza l'API BigQuery Streaming per scalare il caricamento dei dati.
Architettura di installazione
Installerai BigQuery Connector per SAP come componente aggiuntivo aziendale (BAdI) un'istanza del server di replica SAP LT.
L'istanza SAP LT Replication Server può essere su Google Cloud, on-premise o su un altro cloud provider. SAP LT Replication Server deve essere eseguito il più vicino possibile al sistema di origine. Collabora con il team di rete per garantire bassa latenza e velocità effettiva elevata tra il sistema SAP di origine, SAP LT Replication Server e set di dati BigQuery.
Le sezioni seguenti descrivono le architetture comuni consigliate per BigQuery Connector per SAP.
Architettura per le origini dati SAP su Google Cloud
Il seguente diagramma mostra due esempi di installazioni di SAP LT Replication Server su Google Cloud con l'origine dati SAP su Google Cloud.
Per mostrare un esempio di ogni architettura, un'installazione utilizza un'architettura standalone di SAP LT Replication Server, che SAP LT Replication Server è installato su un server separato, mentre l'altro utilizza una Architettura incorporata di SAP LT Replication Server, in cui SAP LT Replication Server sia installato nel sistema di origine SAP.
Poiché le istanze SAP LT Replication Server sono installate Google Cloud, BigQuery Connector per SAP si connette direttamente l'endpoint API BigQuery, senza richiedere una connessione Cloud Interconnect o Cloud VPN.
Nel diagramma, i sistemi SAP e BigQuery sono mostrato in diversi progetti Google Cloud, ma puoi utilizzare lo stesso progetto entrambi, se necessario.
Architettura per le origini dati SAP on-premise o su un altro provider cloud
Il seguente diagramma mostra due esempi di installazioni di SAP LT Replication Server eseguite on-premise o su un altro provider cloud.
Per mostrare un esempio di ogni architettura, un'installazione utilizza un'istanza l'architettura autonoma di SAP LT Replication Server e l'altra utilizza un Architettura incorporata di SAP LT Replication Server.
In entrambi gli esempi, SAP LT Replication Server è installato nello stesso esistente come origine dati SAP.
La connessione da BigQuery Connector per SAP in SAP LT Replication Server a BigQuery è fornita da una connessione Cloud Interconnect o da una connessione Cloud VPN.
Visualizzazione dettagliata dell'architettura del flusso di dati
Il seguente diagramma mostra dove il connettore BigQuery per SAP rientra nel flusso di dati di SAP LT Replication Server.
I numeri nel diagramma sono spiegati sotto il diagramma.
Le seguenti spiegazioni numerate corrispondono ai numeri nel diagramma:
- Dopo l'inizializzazione di SAP LT Replication Server, quando i record nelle tabelle di origine vengono inseriti, aggiornati o eliminati, il database attiva la registrazione delle modifiche nelle tabelle di log.
- SAP LT Replication Server controlla continuamente le tabelle di log per verificare la presenza di nuove voci tramite chiamate RFC.
- Se SAP LT Replication Server trova nuove voci, il motore di lettura legge registra e chiama il motore di mappatura e trasformazione.
- Il motore di mappatura e trasformazione chiama il motore di scrittura, che invoca il connettore BigQuery per SAP.
- BigQuery Connector per SAP esegue le seguenti azioni:
- Mappa i dati SAP al nome e al campo della tabella di destinazione e i tipi di dati BigQuery.
- Se necessario, crea la tabella BigQuery.
- Invia i record a BigQuery in blocchi tramite l'API di streaming BigQuery.
- Alla ricezione dei dati, BigQuery prende le seguenti informazioni
azioni:
- Esegue controlli di convalida.
- Inserisce i record nella tabella di destinazione.
- Invia un codice di stato HTTP 200 (
OK
) a BigQuery Connector per SAP.
- BigQuery Connector per SAP ritrasmette il codice di stato HTTP
OK
a SAP LT Replication Server, che elimina le voci replicate dal di logging e libera risorse sul sistema di origine SAP.
Requisiti software
BigQuery Connector per SAP supporta le principali versioni delle applicazioni aziendali in manutenzione come origini dati, nonché le applicazioni legacy precedenti. Alcune delle applicazioni SAP supportate sono:
- SAP Business Suite 7
- S/4HANA
- Applicazioni SAP in esecuzione su SAP NetWeaver
Puoi installare BigQuery Connector per SAP in SAP LT Replication Server su Google Cloud, on-premise o su cloud pubblici, come AWS, Azure e così via.
Licenze
BigQuery Connector per SAP viene reso disponibile come "Software" ai sensi del contratto che regola l'utilizzo della piattaforma Google Cloud, inclusi i Termini di servizio specifici disponibili all'indirizzo https://cloud.google.com/terms/service-terms. Fatta salva la generalità dei termini di cui sopra, non puoi modificare o distribuire BigQuery Connector per SAP senza l'autorizzazione scritta espressa di Google.
Al momento, il software BigQuery Connector per SAP è offerto senza costi. Per chiarezza, l'uso da parte dell'utente di altro "Software" e "Servizi" ai sensi del contratto che disciplina l'utilizzo della Google Cloud Platform, ad esempio BigQuery e BigQuery Streaming API, potrebbe comportare dei costi.
BigQuery Connector per SAP non include alcuna licenza per il software SAP, incluso, a titolo esemplificativo, SAP LT Replication Server. Acquista separatamente una licenza appropriata per il software SAP.
Requisiti della versione del software SAP
Le versioni richieste di SAP LT Replication Server e dei sistemi di origine SAP variano a seconda che venga installato o meno SAP LT Replication Server sul proprio server in un'architettura autonoma o all'interno del sistema applicativo ABAP di origine in un'architettura incorporata.
Anche i requisiti del software SAP sono diversi a seconda del sistema SAP utilizzato come origine dati: SAP S/4HANA o SAP ECC.
Per visualizzare le versioni software SAP supportate da Google Cloud per il connettore BigQuery per SAP, seleziona la scheda corrispondente al tuo sistema di origine SAP:
S/4HANA
Architettura dell'installazione | Sistema | Versioni supportate | Componente aggiuntivo dell'interfaccia utente (UI) |
---|---|---|---|
Autonoma | Sistema di origine |
|
Il componente SAP_UI deve essere compatibile con la versione di SAP Netweaver. /UI2/CL_JSON: PL12 o versioni successive. Per informazioni sulla compatibilità dei componenti aggiuntivi SAP, consulta:
|
Sistema SAP LT Replication Server |
|
||
Strato | Sistema di origine |
|
ECC
Architettura di installazione | Sistema | Versioni supportate | Componente aggiuntivo dell'interfaccia utente (UI) |
---|---|---|---|
Autonoma | Sistema di origine |
|
Il componente SAP_UI deve essere compatibile con il tuo SAP Netweaver completamente gestita. /UI2/CL_JSON: PL12 o versioni successive. Per informazioni sulla compatibilità dei componenti aggiuntivi SAP, consulta:
|
Sistema SAP LT Replication Server |
|
||
Strato | Sistema di origine |
|
Requisiti del sistema operativo
BigQuery Connector per SAP supporta qualsiasi sistema operativo supportato da SAP LT Replication Server.
Per informazioni sui sistemi operativi supportati da SAP LT Replication Server, consulta la matrice di disponibilità dei prodotti SAP.
Requisito dell'interfaccia a riga di comando gcloud
BigQuery Connector per SAP richiede che Google Cloud CLI sia installato sull'host SAP LT Replication Server.
Se SAP LT Replication Server è in esecuzione su Google Cloud e utilizzi un'immagine del sistema operativo fornita da Compute Engine, la CLI gcloud potrebbe essere preinstallata.
Per verificare quali immagini del sistema operativo includono gcloud CLI, consulta la tabella relativa al tuo sistema operativo nella sezione Dettagli del sistema operativo.
Per verificare se gcloud CLI è installato su un
dell'host del server di replica SAP LT, accedere al server ed emettere
Comando gcloud
. Ad esempio:
gcloud version
Se gcloud CLI non è già installato sull'host del server di replica SAP LT, l'amministratore SAP può installarlo. Per ulteriori informazioni installare gcloud CLI, consulta Installare gcloud CLI.
Origini di replica supportate
BigQuery Connector per SAP supporta la maggior parte dei sistemi di origine di applicazioni e database di uso comune supportati da SAP LT Replication Server.
Origini delle applicazioni SAP supportate
Puoi replicare i dati dalle origini delle applicazioni SAP supportate da SAP LT Replication Server.
Tuttavia, SAP sconsiglia di replicare i dati da SAP Business Warehouse utilizzando SAP LT Replication Server. Per ulteriori informazioni di SAP, consulta la nota SAP 2525755.
Applicazioni cloud SAP, come S/4HANA Cloud, SAP Ariba, SAP SuccessFactors e altri elementi non sono supportati.
Origini dati supportate
Puoi replicare solo tabelle trasparenti o cluster.
BigQuery Connector per SAP non supporta la replica di SAP Core Viste Data Services (CDS).
Sicurezza
Quando implementi la sicurezza per la replica dei dati dal server di replica SAP LT a BigQuery, devi implementare i controlli di sicurezza SAP LT Replication Server, il sistema operativo host SAP LT Replication Server e in Google Cloud.
Sicurezza SAP
Per controllare chi può configurare e lavorare con BigQuery Connector per SAP in SAP LT Replication Server, utilizza l'autorizzazione SAP standard basata sui ruoli.
BigQuery Connector per SAP offre
oggetto autorizzazione ZGOOG_MTID
come parte dell'installazione di trasporto.
Per configurare ed eseguire job di replica dei dati che utilizzano il BigQuery Connector per SAP, puoi definire un ruolo con accesso amministrativo all'interno di SAP LT Replication Server, come descritto in Creare ruoli SAP e autorizzazioni per BigQuery Connector per SAP.
Ad esempio, puoi definire un ruolo denominato ZGOOGLE_BIGQUERY_ADMIN
che possieda tutte le autorizzazioni SAP e le autorizzazioni ZGOOG_MTID
necessarie per configurare e gestire la replica dei dati in BigQuery utilizzando il connettore BigQuery per SAP.
Per ulteriori informazioni da SAP su ruoli autorizzazione, consulta la Guida alla sicurezza per di SAP LT Replication Server nel portale di assistenza SAP.
Sicurezza di Google Cloud
Implementazione della sicurezza su Google Cloud per BigQuery Connector per SAP può prevedere i seguenti controlli di sicurezza:
- Autorizzazioni, ruoli, account di servizio e chiavi IAM (Identity and Access Management).
- Controlli BigQuery impostati a livello di set di dati o tabella.
- Controlli di servizio Virtual Private Cloud (VPC) per servizi basati su API come BigQuery.
Cloud Identity and Access Management di Google Cloud
Per l'autenticazione e l'autorizzazione di BigQuery Connector per SAP, è necessario un account di servizio IAM nel progetto Google Cloud che contiene il set di dati BigQuery.
Per l'autorizzazione a interagire con le risorse BigQuery, devi concedere i ruoli all'account di servizio che contiene le autorizzazioni per dialogare con BigQuery nel progetto BigQuery.
Se crei l'account di servizio nel progetto BigQuery, puoi concedere i ruoli richiesti al momento della creazione e l'account di servizio diventa automaticamente un principale nel progetto BigQuery.
Le autorizzazioni necessarie per accedere a BigQuery Connector per SAP BigQuery sono inclusi nei seguenti Ruoli IAM:
- BigQuery Data Editor
- Utente job BigQuery
Se il server di replica SAP LT è in esecuzione su una VM di Compute Engine, devi anche concedere il ruolo Creatore token account di servizio alla dell'account di servizio della VM host.
Se SAP LT Replication Server è in esecuzione on-premise o su un'altra piattaforma cloud, oltre a creare un account di servizio, devi creare anche chiave dell'account di servizio per BigQuery Connector per SAP. L'amministratore SAP installa la chiave sull'host del server di replica SAP LT. Quando BigQuery Connector per SAP si connette a BigQuery, SAP LT Replication Server utilizza la chiave dell'account di servizio per l'autenticazione con in Google Cloud.
Non è necessaria una chiave dell'account di servizio quando SAP LT Replication Server è in esecuzione su Google Cloud.
Per ulteriori informazioni su IAM, account di servizio, ruoli autorizzazioni, vedi:
- Account di servizio
- Eseguire l'autenticazione come account di servizio
- Best practice per l'account di servizio
- Introduzione all'autenticazione dell'API BigQuery
Controlli di accesso a set di dati e tabella BigQuery
Oltre ai controlli IAM, puoi anche controllare l'accesso utilizzando BigQuery. Per BigQuery Connector per SAP, puoi impostare i controlli dell'accesso su set di dati e tabelle.
Per ulteriori informazioni, vedi:
Controlli di servizio VPC
Su Google Cloud, le regole del firewall VPC non sono applicabili alle interazioni basate su API con BigQuery. In alternativa, puoi utilizzare Controlli di servizio VPC (Virtual Private Cloud) per limitare il traffico.
Se il carico di lavoro SAP è in esecuzione su Google Cloud, puoi implementare i controlli di servizio VPC definendo i perimetri di servizio. Per ulteriori informazioni, consulta Perimetri di servizio.
Se il tuo carico di lavoro SAP non è in esecuzione su Google Cloud, puoi implementare i Controlli di servizio VPC nell'ambito della configurazione dell'accesso privato Google per gli host on-premise.
Per ulteriori informazioni sulla sicurezza di rete per BigQuery, consulta Sicurezza di rete.
Ulteriori informazioni sulla sicurezza di Google Cloud
Per ulteriori informazioni su account di sicurezza, ruoli e autorizzazioni, consulta:
- Account di servizio
- Creare e abilitare gli account di servizio per le istanze
- Panoramica della sicurezza e della governance dei dati
Networking
Quando pianifichi il percorso di rete per la replica in BigQuery, tieni in considerazione i seguenti punti:
- Larghezza di banda
- Latenza e relativo impatto sul consumo di risorse sull'host SAP LT Replication Server
- Volume di dati e relativo impatto su qualsiasi carico di rete esistente
- Se il tuo carico di lavoro SAP non è in esecuzione su Google Cloud, il tipo di connessione da utilizzare: Cloud Interconnect o Cloud VPN
Connessione a Google Cloud
Se i tuoi sistemi SAP non sono in esecuzione su Google Cloud e una connessione dai tuoi sistemi SAP a Google Cloud, devi stabilire una connessione e configurare l'accesso privato alle API Google Cloud.
Puoi stabilire una connessione a Google Cloud utilizzando Cloud Interconnect o Cloud VPN.
Cloud Interconnect in genere fornisce una larghezza di banda superiore, latenza e conflitto di rete inferiore rispetto a Cloud VPN. Per job di replica a volumi elevati e sensibili alle prestazioni, Google Cloud consiglia Cloud Interconnect per BigQuery Connector per SAP.
Con Cloud VPN, i dati di replica vengono trasferiti sul pubblico Internet, pertanto il conflitto di rete è meno prevedibile e le latenze di solito è più alto.
Indipendentemente dall'opzione di connessione scelta, devi esaminare tutto il traffico che prevedi che la connessione supporti. Determina se la connessione ha una larghezza di banda e una velocità di rete sufficienti per supportare i job di replica e qualsiasi altro carico di lavoro senza influire negativamente su nessuno dei due.
Le connessioni lente possono aumentare il consumo di risorse sia il server di origine SAP e l'host SAP LT Replication Server estendendo tempo necessario per il completamento dei job delle risorse, mantenendo le risorse che necessari per il vincolo della replica per periodi di tempo più lunghi.
Per ulteriori informazioni sulle opzioni di connessione a tua disposizione:
Se utilizzi un server proxy per inviare le richieste HTTP a Google Cloud,
quindi configura il server proxy nella transazione SAP SICF
. Per la procedura di configurazione, consulta la documentazione di SAP sulla configurazione di un proxy.
Larghezza di banda
Assicurati che la connessione di rete tra SAP LT Replication Server e BigQuery abbia una larghezza di banda sufficiente per supportare il volume di dati alla velocità richiesta.
Connessioni di rete più lente aumentano la latenza della replica dei dati aumentando le risorse utilizzate dalla replica nel SAP di origine di un sistema operativo completo.
Per le installazioni produttive, Google Cloud consiglia una Connessione Cloud Interconnect. Puoi anche utilizzare Cloud VPN.
Latenza
Per ridurre la latenza sulla connessione di rete, crea il set di dati BigQuery di destinazione il più vicino possibile al sistema SAP LT Replication Server e al sistema di origine SAP. Se il sistema SAP di origine è in esecuzione su Google Cloud, crea il set di dati BigQuery nella stessa regione Google Cloud del sistema SAP di origine.
Testa la latenza prima di eseguire la migrazione dell'installazione in un ambiente di produzione.
Per ulteriori informazioni sulle prestazioni di rete, consulta per migliorare le prestazioni della connessione.
Controlli di accesso alla rete
Puoi implementare i controlli di accesso alla rete su entrambi i lati della connessione tra SAP LT Replication Server e Google Cloud.
Controlli di accesso alla rete di Google Cloud
BigQuery Connector per SAP comunica con BigQuery tramite un endpoint API, che non è soggetto alle regole del firewall VPC di Google Cloud.
Utilizza invece Controlli di servizio VPC per limitare il traffico.
Per ulteriori informazioni sulla sicurezza di rete per BigQuery, consulta Sicurezza di rete.
Controlli dell'accesso di rete all'host di SAP LT Replication Server
Nell'host di SAP LT Replication Server, devi assicurarti che eventuali firewall o proxy consentano il traffico in uscita dal server all'endpoint dell'API BigQuery. Nello specifico, SAP LT Replication Server deve essere in grado di accedere alle seguenti API Google Cloud:
- https://bigquery.googleapis.com
- https://iamcredentials.googleapis.com
Pianificazione del rendimento
Le prestazioni dei caricamenti iniziali e dei job di replica tra SAP LT Replication Server e BigQuery sono influenzate da più fattori in punti diversi lungo il percorso di replica.
Tuttavia, alcuni fattori di base, come la distanza tra SAP LT Replication Server e il tuo set di dati BigQuery oppure della connessione a Google Cloud, hanno un impatto maggiore sul rendimento rispetto alla maggior parte degli altri fattori.
Best practice generali per le prestazioni
Per un rendimento ottimale, incorpora i seguenti consigli nella configurazione di SAP LT Replication Server:
- Esegui il carico di lavoro SAP, inclusi il sistema di origine SAP SAP LT Replication Server, su Google Cloud.
- Se il carico di lavoro SAP si trova su Google Cloud, crea Set di dati BigQuery nella stessa regione dal carico di lavoro SAP.
- Se non riesci a eseguire il carico di lavoro SAP su Google Cloud:
- Crea il tuo set di dati BigQuery in Google Cloud più vicina al carico di lavoro SAP.
- Connettiti a Google Cloud utilizzando Cloud Interconnect.
- Per evitare conflitti per le risorse, usa host dedicati separati sia per il sistema di origine SAP sia per SAP LT Replication Server.
- Dimensiona il sistema SAP LT Replication Server in modo ottimale per il tuo carico di lavoro in base alla Guida alle dimensioni per la tua versione del server di replica SAP LT nel portale di assistenza SAP.
- Utilizza le seguenti impostazioni di replica di SAP LT Replication Server:
- Job paralleli.
- Tipo di lettura 1, se possibile. Per ulteriori informazioni, consulta Rendimento e impostazioni di replica avanzata LTRS.
- Configura BigQuery Connector per SAP con:
- Compressione dei record predefinita.
- La dimensione massima del chunk.
- Quando mappi i campi alla tabella BigQuery, evita di usare nomi utente, se possibile.
Per ulteriori informazioni, vedi:
- Considerazioni sulle prestazioni di SAP LT Replication Server
- Prestazioni della connessione di rete
- Trasmissione dei dati
- Compressione dei record
Ulteriori caratteristiche che possono influire sulle prestazioni
Molte caratteristiche della configurazione e dei dati possono influire sulle prestazioni. Alcune di queste caratteristiche potrebbero non essere modificabili. Queste caratteristiche includono:
- Sul server di origine:
- Il numero di CPU.
- La quantità di memoria.
- Il database utilizzato, ad esempio SAP HANA, SAP ASE, IBM Db2 o altri.
- Il numero di colonne nella tabella di origine.
- La quantità di dati contenuti in ogni record.
- I metadati della tabella, ad esempio la lunghezza dei nomi dei campi.
- Il numero di processi di lavoro delle finestre di dialogo.
- Su SAP LT Replication Server:
- Il numero di CPU.
- La quantità di memoria.
- Altri carichi di lavoro che l'host potrebbe eseguire.
- Finestra di dialogo SAP e processi di lavoro in background.
- Il tipo di architettura di installazione di SAP LT Replication Server. Per maggiori informazioni informazioni, consulta Installazione autonoma (consigliata) o incorporata di SAP LT Replication Server.
- Il numero di job in background in esecuzione sul sistema SAP LT Replication Server.
- Il numero di job in background allocati al trasferimento di massa
nella scheda Amministrazione della transazione
LTRC
. - Le impostazioni relative al rendimento delle transazioni
LTRS
, tra cui Tipo di lettura e Dimensione porzione.
- Nella configurazione di replica di BigQuery (transazione
/GOOG/SLT_SETTINGS
):- Indica se sono specificati o meno nomi personalizzati per i campi di destinazione. L'elaborazione dei nomi dei campi BigQuery di destinazione hanno un leggero impatto sulle prestazioni.
- Indica se la compressione dei record è attivata.
- Dimensione chunk di BigQuery Connector per SAP, che può influire sul numero totale di richieste HTTP inviate.
Considerazioni sulle prestazioni di SAP LT Replication Server
Le seguenti sezioni discutono le opzioni di rendimento correlate alla configurazione di SAP LT Replication Server.
Prestazioni e architettura di installazione di SAP LT Replication Server
Un'architettura autonoma, in cui SAP LT Replication Server è installato sul suo server dedicato, solitamente offre prestazioni migliori rispetto a un server in cui SAP LT Replication Server è installato sullo stesso server di origine dati.
In un'architettura incorporata, SAP LT Replication Server deve condividere le risorse del server con il sistema di origine SAP.
Anche con un'architettura autonoma, la CPU e la memoria dell'host, nonché eventuali altri carichi di lavoro in esecuzione sul server, possono influire sulle prestazioni di un'istanza di SAP LT Replication Server.
Prestazioni e LTRS
impostazioni di replica avanzate
Le prestazioni dei caricamenti iniziali e della replica dipendono dalle impostazioni specificate per la tabella di origine nella transazione LTRS
in Impostazioni di replica avanzate.
Per indicazioni sull'ottimizzazione delle prestazioni, in particolare per l'ottimizzazione per caricamenti iniziali o repliche di volumi elevati, consulta Guida all'ottimizzazione delle prestazioni di SAP LT Replication Server nel portale di assistenza SAP.
Google Cloud consiglia le seguenti specifiche nel
Impostazioni di replica avanzate > Sezione Prestazioni generali di
transazione LTRS
:
Per i caricamenti iniziali della maggior parte dei tipi di tabelle, specifica 1 intervallo Calcolo come Tipo di lettura. Per tabelle troppo grandi Per Calcolo dell'intervallo a 1, specifica Tipo di lettura 5.
Per le repliche, in Impostazioni attive:
- Per le repliche più veloci, specifica Intervalli automatici.
- Per repliche più affidabili, specifica Nessun intervallo.
La tabella seguente suggerisce le impostazioni per alcuni scenari comuni.
Tipo di tabella | Tipo di lettura consigliato |
---|---|
Trasparente (piccolo/medio) | Tipo di lettura 1 - Calcolo dell'intervallo |
Trasparente (grandi) | Solo se il tipo di lettura 1 non funziona, il tipo di lettura 5 - Intervallo Calcolo |
Tabella cluster | Tipo di lettura 4: coda del mittente |
Prestazioni della connessione di rete
La larghezza di banda e la latenza della connessione tra il sistema SAP LT Replication Server e BigQuery possono influire sulle prestazioni complessive della replica in BigQuery.
L'impatto non influisce solo sulla velocità di replica, ma anche sulla quantità di risorse utilizzate da SAP LT Replication Server e dal sistema di origine, più tempo occorre per ricevere la conferma di replica da BigQuery, maggiore sarà la durata di SAP LT Replication Server e nel sistema contengono le risorse host.
Se il tuo carico di lavoro SAP viene eseguito on-premise o su un altro provider cloud, Google Cloud consiglia di utilizzare una connessione Cloud Interconnect, che offre larghezza di banda elevata e bassa latenza senza dover competere con il traffico sulla rete internet pubblica.
Puoi utilizzare Cloud VPN per connetterti a Google Cloud e BigQuery, tuttavia, con una connessione VPN, le tue repliche devono competere con il traffico internet generale.
Se il carico di lavoro SAP è in esecuzione su Google Cloud, Google Cloud consiglia di individuare il server di replica SAP LT e il server BigQuery nella stessa regione. Se SAP LT Replication Server e BigQuery si trovano in regioni diverse, la latenza è in genere più elevata e le prestazioni in genere peggiorano. Per saperne di più sulla scelta di una regione, consulta Scegliere una regione e una zona.
Trasmissione dei dati
In genere, si vuole inviare quanti più dati possibili in ogni richiesta HTTP in modo da ridurre il numero complessivo di richieste HTTP e la relativa elaborazione overhead.
In alcuni casi, tuttavia, potrebbe essere necessario ridurre la quantità di dati inviati, a causa delle dimensioni dei record di una determinata tabella o perché stai raggiungendo un limite di quota o un altro limite in BigQuery.
Puoi controllare la quantità di dati inviati in ogni richiesta nei seguenti modi:
- Modifica la quantità di dati (la dimensione della porzione) che SAP LT Replication Server invia a BigQuery Connector per SAP.
- Modifica la quantità di dati (la dimensione del chunk) utilizzata da BigQuery Connector per SAP che invia a BigQuery.
- Modifica le quote per gli inserimenti di streaming nel tuo progetto BigQuery.
Modificare la quantità di dati inviati da SAP LT Replication Server
SAP LT Replication Server invia i record dal sistema di origine al BigQuery Connector per SAP in parti. Ogni parte viene gestita come un un job di caricamento o di replica separato che consuma risorse del server completa.
In genere, se aumenti la dimensione della porzione di SAP LT Replication Server, diminuisci il numero di processi di SAP LT Replication Server, nonché il overhead associato.
Dimensioni della porzione e del chunk
Le parti di SAP LT Replication Server sono misurate in byte o come prodotto di byte e record. I blocchi di BigQuery Connector per SAP dimensioni in base al numero di record che possono contenere. Le dimensioni in byte di un blocco variano in base a diversi fattori, tra cui il numero di campi nei record e la quantità di dati contenuti in ciascun record.
Se la dimensione della porzione di SAP LT Replication Server è maggiore della dimensione del blocco di BigQuery Connector per SAP, invia più blocchi per ogni parte, fino a quando tutti i record vengono inviati.
Se la dimensione della porzione è inferiore a quella del chunk, BigQuery Connector per SAP invia un solo chunk per porzione. Ogni blocco contiene solo il numero di record inviati in ogni parte, indipendentemente dalla dimensione del blocco impostata BigQuery Connector per SAP.
Idealmente, imposta una dimensione della porzione in SAP LT Replication Server che consenta a BigQuery Connector per SAP di creare i chunk più grandi possibili senza superare il limite di BigQuery per il numero di byte in ogni richiesta HTTP.
Per ulteriori indicazioni sulla specifica di una dimensione del blocco, consulta l'articolo Dimensione del chunk in BigQuery Connector per SAP.
Dimensioni della porzione nel server di replica SAP LT
Per modificare la dimensione predefinita della porzione utilizzata da SAP LT Replication Server:
esegui la transazione LTRS
e modifica il valore nel campo Dimensioni pacchetto
in Impostazioni di replica avanzate in Opzioni prestazioni.
Per ulteriori informazioni, consulta la Guida all'ottimizzazione del rendimento di SAP LT Replication Server nel portale di assistenza SAP.
Dimensione del chunk nel connettore BigQuery per SAP
BigQuery Connector per SAP invia i dati a BigQuery come blocchi di record. Ti consigliamo di utilizzare la dimensione massima del chunk BigQuery Connector per SAP lo consente, pari a 10.000 record. 10.000 record è anche la dimensione del chunk predefinita utilizzata da BigQuery Connector per SAP.
Se il numero di record in un determinato chunk genera una dimensione in byte che supera il limite di BigQuery per le richieste HTTP, potresti ricevere un errore quotaExceeded
o invalid
.
Questo può accadere se i record di una tabella di origine contengono molti campi o se i campi contengono molti dati.
Se viene visualizzato un errore relativo alla dimensione del blocco, prova a ridurla è specificato nella configurazione del trasferimento di massa di quella tabella.
Per le tabelle di origine SAP come MSEG
, ACDOCA
e MATDOC
, che possono avere record di grandi dimensioni con molti campi, potrebbe essere necessario specificare una dimensione del chunk minima di 2000.
Puoi specificare una dimensione del chunk eseguendo la transazione /GOOG/SLT_SETTINGS
. La dimensione del blocco è specificata nel campo Dimensione del blocco
nella schermata degli attributi della tabella.
Per ulteriori indicazioni su come specificare le dimensioni di un chunk, consulta:
- Dimensione del blocco del connettore BigQuery per SAP
- Specificare gli attributi relativi alla dimensione della tabella e del blocco
Per ulteriori informazioni sui messaggi di errore di BigQuery, consulta Messaggi di errore.
Overhead di elaborazione associato all'invio di parti
Ogni parte inviata attiva le seguenti azioni, ciascuna delle quali comporta un sovraccarico di elaborazione o un consumo di risorse:
- Una raccolta di record modificati nella tabella di logging nel sistema di origine vengono inviati a SAP LT Replication Server in una singola parte. I record modificati non sono ancora state eliminate dalla tabella di logging.
- SAP LT Replication Server richiede un nuovo token di accesso a Google Cloud.
- BigQuery Connector per SAP invia una richiesta HTTP a BigQuery per verificare la struttura della tabella di destinazione.
- BigQuery Connector per SAP invia i record a BigQuery in tutti i chunk necessari per inviare tutti i record ricevuti nella singola porzione. Ogni blocco viene inviato in un ambiente richiesta HTTP.
- BigQuery elabora ogni chunk che riceve.
- Un codice di stato HTTP
OK
viene restituito a SAP LT Replication Server per ogni blocco. - Dopo che BigQuery ha ricevuto tutti i record, SAP LT Replication Server elimina i record inviati dalla tabella di logging, liberando risorse sul sistema di origine.
Per ulteriori informazioni sulle parti e sulla configurazione del server di replica SAP LT Per le prestazioni, consulta la sezione sull'ottimizzazione delle prestazioni di SAP LT Replication Server nel Portale di assistenza SAP.
Quote di BigQuery
Le quote dell'API di streaming di BigQuery in vigore per il tuo progetto limitano la quantità di dati che puoi inviare in streaming in BigQuery nel tempo e in una singola richiesta HTTP.
Ad esempio, BigQuery imposta limiti per metriche come:
- I byte al secondo per progetto che puoi inviare.
- Il numero massimo di record o righe che puoi inviare in una singola richiesta HTTP.
- La dimensione massima di una richiesta HTTP che puoi inviare.
Per gli inserimenti di flussi di dati, BigQuery fissa le dimensioni delle richieste HTTP a 10 MB e il numero di record che puoi inviare in una singola richiesta HTTP a 50.000.
Nella maggior parte dei casi, puoi modificare le quote, ma non i limiti.
Puoi visualizzare e modificare le quote in vigore per il tuo progetto nel Console Google Cloud nella sezione Quote .
Per ulteriori informazioni sulle quote e sui limiti di BigQuery per gli inserimenti di flussi di dati, consulta:
Compressione dei record
Per impostazione predefinita, BigQuery Connector per SAP migliora le prestazioni di replica comprimendo i record che invia a BigQuery.
Quando la compressione dei record è abilitata, che è l'impostazione predefinita,
BigQuery Connector per SAP omette i campi vuoti nel record di origine
dai record inviati a BigQuery. Quando il record viene inserito in BigQuery, i campi omessi dai dati inviati vengono inizializzati con null
nella tabella di destinazione.
Puoi disattivare la compressione dei record specificando Send Uncompressed Flag nella configurazione della tabella BigQuery, ma questa operazione può avere un impatto negativo sulle prestazioni della replica.
Quando è selezionata l'opzione Invia flag non compresso, BigQuery Connector per SAP è selezionato. invia record a BigQuery con tutti i campi, tra cui ci sono campi vuoti. Ad eccezione dei campi data e timestamp, i campi vuoti mantengono il valore con cui sono stati inizializzati nella tabella di origine. Il valore inizializzato per i campi di data e ora riceve i seguenti valori:
- Valore di inizializzazione campo data:
DATE 1970-01-01
- Valore di inizializzazione del campo timestamp:
TIMESTAMP 1970-01-01 00:00:00 UTC
Configurazioni di replica di BigQuery
Quando configuri la replica con BigQuery Connector per SAP, utilizzi diverse transazioni SAP, inclusa una transazione personalizzata fornita da Google Cloud:
SM30
: definisce le proprietà per la connessione a Google Cloud, archiviati come record nella tabella di configurazione personalizzata/GOOG/CLIENT_KEY
.LTRC
: definisce l'applicazione di replica di BigQuery Connector per SAP e l'ID trasferimento collettivo, tra le altre proprietà/GOOG/SLT_SETTINGS
: definisce le proprietà per il set di dati, la tabella e i campi BigQuery di destinazione. Quando entri/GOOG/SLT_SETTINGS
in SAP LT Replication Server, devi aggiungere/n
per l'escape la barra iniziale nel nome della transazione.
Supporto dei linguaggi
BigQuery Connector per SAP versione 2.1 supporta solo configurazioni di replica in inglese. Quando configuri la replica utilizzando le transazioni SAP e fornita da Google Cloud, utilizza l'inglese come la lingua di accesso nella schermata di accesso a SAP.
Tuttavia, BigQuery Connector per SAP supporta l'esecuzione di job in background in esecuzione su SAP LT Replication Server in tutte le lingue supportate da SAP SLT.
Gli eventuali messaggi di errore visualizzati quando si lavora con BigQuery Connector per SAP vengono generate in inglese a prescindere dal linguaggio di esecuzione del job in background.
Proprietà della tabella di destinazione
Quando configuri la replica in SAP LT Replication Server eseguendo
la transazione /GOOG/SLT_SETTINGS
, puoi specificare
le impostazioni applicabili quando BigQuery Connector per SAP crea
di destinazione in BigQuery.
Ad esempio, puoi specificare le seguenti proprietà per un target Tabella BigQuery:
- Nome tabella
- L'opzione di denominazione predefinita per i campi
- Campi aggiuntivi per acquisire le modifiche ai record e attivare le query sul conteggio dei record
- Partizionamento delle tabelle
Opzioni di denominazione predefinite per i campi
Puoi configurare il connettore BigQuery per SAP in modo che crei i nomi dei campi nella tabella BigQuery di destinazione dai nomi dei campi di origine o dalle etichette e descrizioni dei campi di origine. Le etichette e le descrizioni in genere sono più informative i contenuti del campo.
Per impostazione predefinita, BigQuery Connector per SAP utilizza i nomi dei campi di origine.
Puoi modificare l'impostazione predefinita specificando il flag Nomi personalizzati quando
specifichi negli attributi di creazione delle tabelle
configurazione della transazione /GOOG/SLT_SETTINGS
. Questa specifica viene memorizzata nella tabella di configurazione /GOOG/BQ_MASTR
.
Quando crea i nomi, BigQuery Connector per SAP li modifica in modo che rispettino la convenzione di denominazione di BigQuery.
Prima di creare una tabella, puoi modificare i nomi dei campi nel campo.
schermata di mappatura della transazione /GOOG/SLT_SETTINGS
.
Quando viene specificato il flag Nomi personalizzati, i nomi che il connettore BigQuery per SAP utilizzerà per creare la tabella di destinazione vengono visualizzati nella colonna Nome campo esterno della schermata di mappatura dei campi.
BigQuery Connector per SAP crea i nomi nel Nome campo esterno colonna dell'etichetta del campo medium di ogni campo di origine. Se nella definizione del campo di origine non è specificata un'etichetta di campo di medie dimensioni, viene utilizzata la descrizione breve del campo. Se la descrizione breve non è specificata , viene utilizzata l'etichetta specificata più breve. Se non viene specificato alcun valore, viene utilizzato il nome del campo di origine.
Per saperne di più sulla personalizzazione dei nomi dei campi di destinazione, consulta Personalizzare i nomi dei campi di destinazione.
Acquisizione delle modifiche ai record e attivazione del conteggio dei record
Per acquisire il tipo di modifica nella tabella di origine che ha attivato la replica
e per poter eseguire query sui conteggi dei record nella tabella BigQuery
per il confronto con SAP LT Replication Server o sui conteggi dei record nella tabella di origine,
specifica l'opzione Extra Fields Flag nella
transazione /GOOG/SLT_SETTINGS
quando configuri la replica.
Quando viene specificata l'opzione Extra Fields Flag (Indicatore di campi aggiuntivi), le seguenti colonne vengono aggiunte allo schema della tabella BigQuery di destinazione:
Nome campo | Tipo di dati | Descrizione |
---|---|---|
operation_flag
|
STRING
|
Identifica il tipo di modifica nella tabella di origine che ha attivato il caricamento o la replica del record in BigQuery.
Per conteggiare i record inseriti in modalità di replica, esegui query sui record con un valore
Per conteggiare i record inseriti in modalità di caricamento iniziale, esegui una query
con il valore |
is_deleted
|
BOOLEAN
|
Se true , indica che il record di origine è stato
eliminato dalla tabella di origine.
Per conteggiare solo i record in una tabella BigQuery che
non sono stati eliminati dalla tabella di origine, utilizza il
|
recordstamp
|
TIMESTAMP
|
L'ora in cui SAP LT Replication Server ha inviato il record a BigQuery. Per contare il numero di record univoci in un oggetto BigQuery eseguire una query solo sull'istanza inserita più di recente di ogni record. Per un esempio di query, vedi Eseguire una query sul conteggio totale dei record in una tabella BigQuery. |
L'impostazione corrente dell'opzione Extra Fields Flag è memorizzata nella tabella di configurazione /GOOG/BQ_MASTR
.
Per ulteriori informazioni su come specificare l'indicatore di campi aggiuntivi, consulta:
- Se SAP LT Replication Server è in esecuzione su una VM di Compute Engine, consulta Specifica la creazione delle tabelle e altri attributi generali.
- Se SAP LT Replication Server è in esecuzione su un host esterno al per Google Cloud, consulta Specifica la creazione delle tabelle e altri attributi generali.
Partizionamento delle tabelle
Puoi creare tabelle BigQuery partizionate da un campo timestamp nella tabella di origine, che crea un'unità di tempo colonna-partizionata o in base all'ora in cui i record vengono inserito in BigQuery, creando così una data di importazione partizionata.
Puoi abilitare il partizionamento specificando un tipo di partizione nella sezione Partizione
Campo Tipo in /GOOG/BQ_TABLE
quando configuri la replica
proprietà.
I tipi di partizione che puoi specificare regolano la granularità della suddivisione per ora, giorno, mese o anno.
Per utilizzare un timestamp della tabella di origine per il partizionamento delle colonne in base alle unità di tempo, specifica il nome del campo di origine nel campo Campo partizione.
Per utilizzare una data di inserimento BigQuery per il partitioning in base alla data di importazione, puoi lasciare vuoto il Campo partizione. BigQuery Connector per SAP crea un campo nella tabella di destinazione per memorizzare la data e l'ora di inserimento.
Proprietà campo target
Per impostazione predefinita, BigQuery Connector per SAP utilizza i nomi dei campi e i dati nella tabella di origine SAP come nomi dei campi e tipi di dati nella BigQuery target.
Se vuoi, prima di creare la tabella di destinazione puoi personalizzare i nomi dei campi o modificare il tipo di dati BigQuery.
Personalizzazione dei nomi dei campi target
Prima di creare una tabella, puoi personalizzare i nomi dei campi di destinazione.
Se necessario, BigQuery Connector per SAP modifica i nomi personalizzati che specifichi in modo che siano conformi alla convenzione di denominazione di BigQuery.
Quando configuri la replica, puoi visualizzare i nomi dei campi nel campo
schermata di mappatura della transazione /GOOG/SLT_SETTINGS
. Il
collegatore BigQuery per SAP archivia le impostazioni nella tabella di configurazione /GOOG/BQ_FIELD
.
Prima di creare una tabella, puoi specificare il nome di un campo personalizzato modificando il nome generato nella colonna Nome campo temporaneo di schermata di mappatura dei campi. Se elimini un valore e lasci la classe Il campo Nome campo temporaneo è vuoto, poi BigQuery Connector per SAP utilizza il nome del campo di origine per il nome di quel campo di destinazione.
Dopo aver apportato modifiche al nome del campo temporaneo, quando fai clic su Salva, BigQuery Connector per SAP convalida il valore, applica le convenzioni di denominazione di BigQuery, se necessario, e salva le modifiche. Puoi convalidare un valore senza salvarlo premendo Invio.
Per informazioni sull'impostazione del metodo di denominazione predefinito per il target vedi Opzioni di denominazione predefinite per i campi.
Utilizzare un foglio di lavoro o un file di testo per modificare la mappa dei campi BigQuery
Se vuoi, prima di creare una tabella BigQuery di destinazione puoi salvare i tipi di dati, i nomi e le descrizioni predefiniti dei campi target in un foglio di lavoro o file di testo, in modo che BigQuery i data engineer o gli amministratori possono modificare i valori facilmente senza richiedere l'accesso a SAP LT Replication Server.
Dopo aver modificato i valori, devi convertire il file e i relativi contenuti
in formato CSV (valori separati da virgole). Poi potrai applicare gli aggiornamenti
alle impostazioni del trasferimento di massa caricando il file CSV utilizzando
transazione personalizzata /GOOG/SLT_SETTINGS
.
La procedura per modificare la mappa dei campi BigQuery utilizzando un file CSV include i seguenti passaggi:
- Crea un foglio di lavoro o un file di testo delle mappature dei campi predefinite.
- Modifica i valori.
- Converti il foglio di lavoro o il file di testo in formato CSV.
- Carica il file CSV.
Per istruzioni dettagliate su ciascuno di questi passaggi, consulta Modificare la mappa dei campi BigQuery in un file CSV.
Convenzione di denominazione dei campi di BigQuery
La convenzione di denominazione di BigQuery utilizza solo lettere minuscole, numeri e trattini bassi.
Il connettore BigQuery per SAP applica le convenzioni di denominazione di BigQuery a qualsiasi valore di input da utilizzare per il nome di un campo di destinazione.
Ad esempio, se inserisci FIELD-@#!*123
come nome di un campo personalizzato, il connettore BigQuery per SAP modifica il nome in field_123
.
Per ulteriori informazioni sulla convenzione di denominazione di BigQuery per i campi, consulta Nomi delle colonne.
Mappatura dei tipi di dati
Per impostazione predefinita, BigQuery Connector per SAP assegna i tipi di dati ai campi BigQuery di destinazione in base al tipo di tipo SAP o al tipo di dati SAP del campo SAP di origine.
Quando configuri la replica, puoi visualizzare i tipi di dati sul campo
schermata di mappatura della transazione /GOOG/SLT_SETTINGS
. Il
collegatore BigQuery per SAP archivia le impostazioni nella tabella di configurazione /GOOG/BQ_FIELD
.
Prima di creare una tabella, puoi modificare la specifica del tipo di dati predefinito in un tipo di dati BigQuery diverso nella colonna Elemento dati esterni della schermata di mappatura dei campi.
Tipi di dati che richiedono una gestione speciale
Diversi tipi di dati SAP richiedono una gestione speciale per poter essere rappresentati in modo accurato nella tabella BigQuery di destinazione.
Alcuni di questi tipi di dati devono essere gestiti autonomamente. La BigQuery Connector per SAP si occupa degli altri al posto tuo.
Booleani
Per i valori booleani, SAP utilizza il tipo di dati CHAR
, che per impostazione predefinita
BigQuery Connector per SAP viene mappato al tipo di dati STRING
nel
nella tabella BigQuery target.
Di conseguenza, per i valori booleani, quando configuri la replica utilizzando
la transazione /GOOG/SLT_SETTINGS
, ti servono
per modificare il tipo di dati predefinito
assegnata per i campi booleani da STRING
a BOOLEAN
nell'
schermata di mappatura dei campi.
Timestamp
Per i timestamp, SAP utilizza i tipi di dati P
(decimale pacchettizzato) o DEC
(decimale) che, per impostazione predefinita, BigQuery Connector per SAP mappa
NUMERIC
nella tabella BigQuery di destinazione.
Di conseguenza, per i timestamp, quando configuri la replica utilizzando la transazione /GOOG/SLT_SETTINGS
, devi modificare l'assegnazione del tipo di dato predefinito per i campi timestamp da NUMERIC
a TIMESTAMP
o TIMESTAMP (LONG)
nella schermata di mappatura dei campi.
X
tipo di SAP
Il tipo di tipo SAP X
è esadecimale ed è rappresentato dai tipi di dati SAP RAW
,
RAWSTRING
o LRAW
. Per impostazione predefinita, BigQuery Connector per SAP
mappa questi tipi di dati a STRING
nella finestra BigQuery di origine
tabella.
Se hai bisogno di un campo di origine con tipo SAP X
da mappare a BYTES
devi modificare l'assegnazione predefinita del tipo di dati per il campo
nella schermata di mappatura dei campi della transazione /GOOG/SLT_SETTINGS
.
Il tipo di tipo SAP X
viene talvolta utilizzato anche in SAP per rappresentare gli interi.
In questo caso, BigQuery Connector per SAP controlla il tipo di dati del
campo di origine per uno dei tipi di dati SAP per i numeri interi, INT1
, INT2
INT4
, INT8
e assegna il tipo di dati INTEGER
nel target
Tabella BigQuery.
y
tipo di SAP
Il tipo di tipo SAP y
è una stringa di byte ed è rappresentato dai tipi di dati SAP RAW
,
RAWSTRING
o LRAW
. Per impostazione predefinita, il connettore BigQuery per SAP mappa questi tipi di dati a STRING
nella tabella BigQuery di origine.
Se invece hai bisogno di un campo di origine con il tipo di tipo SAP y
da mappare a BYTES
, devi modificare l'assegnazione del tipo di dati predefinito per il campo nella schermata di mappatura dei campi della transazione /GOOG/SLT_SETTINGS
.
Mappatura del tipo di dati predefinito
La tabella seguente mostra la conversione predefinita del tipo di dati del BigQuery Connector per SAP:
Tipo di SAP | Tipo di dati SAP | Tipo di dati BigQuery | Note |
---|---|---|---|
b (numero intero a 1 byte)s (numero intero a 2 byte)I (numero intero a 4 byte)8 (numero intero a 8 byte)
|
INT1 INT2 INT4 INT8
|
INTEGER |
|
F (float)
|
FLTP
|
FLOAT |
|
P (imballato)
|
CURR DEC QUAN
|
NUMERIC |
Per impostazione predefinita, il tipo SAP P è mappato al
Tipo di dati BigQuery NUMERIC e convertito
in un numero in formato esterno. |
N (numerico) |
NUMC |
STRING |
|
X (esadecimale)y (stringa di byte)
|
RAW RAWSTRING LRAW
|
STRING |
Se il tipo di tipo SAP è X , ma il nome del tipo di dati copre
il pattern 'INT*' (INT1 , INT2 , INT4 ), un elemento di dati di origine viene sostituito
con un nuovo elemento di dati TYPINT8 con TYPEKIND '8' , che è mappato
al tipo di dati BigQuery INTEGER . |
C (carattere)g (stringa di caratteri)? (sequenza)& (clike)
|
CHARSTRING |
STRING |
|
D (data) |
DATS |
DATE |
|
T (orario) |
TIMS |
TIME |
Ciclo di vita dell'assistenza
Google Cloud supporta e gestisce l'attuale versione principale di BigQuery Connector per SAP e, per un periodo di almeno 12 mesi dalla pubblicazione di una notifica di ritiro nella pagina delle note di rilascio per SAP su Google Cloud, la versione principale precedente.