Guida alla pianificazione di BigQuery Connector per SAP

Questa guida alla pianificazione fornisce agli amministratori SAP e Google Cloud le informazioni di cui hanno bisogno per pianificare replica dei dati SAP in BigQuery utilizzando 2.7 (più recente) di BigQuery Connector per SAP con SAP LT Replication Server.

Installazioni di BigQuery Connector per SAP in SAP Landscape Transformation Replication Server (SAP LT Replication Server) e consente la replica quasi in tempo reale dei dati SAP in BigQuery.

Con i tuoi dati in BigQuery, puoi eseguire operazioni in tempo reale di analisi con l'intelligenza artificiale o il machine learning su SAP in tempo reale dati dell'applicazione. In BigQuery, puoi anche integrare i tuoi dati SAP con dati di altre origini.

Questa guida tratta i seguenti argomenti:

Per istruzioni passo passo per l'installazione e la configurazione Repliche di SAP LT Replication Server con BigQuery Connector per SAP, consulta la guida all'installazione e alla configurazione di BigQuery Connector per SAP.

Per informazioni su BigQuery, vedi Che cos'è BigQuery?

Per informazioni sugli acceleratori di soluzioni per la modellazione dei dati SAP in BigQuery, consulta Google Cloud Cortex Framework.

Panoramica di BigQuery Connector per SAP

BigQuery Connector per SAP utilizza le interfacce e le funzionalità standard Server di replica della trasformazione della trasformazione del panorama SAP e supporta tutte le origini dati Supporta SAP LT Replication Server.

BigQuery Connector per SAP è fornito da Google Cloud in di trasporto dei file da installare in SAP LT Replication Server.

Scarica il pacchetto di installazione che contiene i file di trasporto Prima di iniziare a installare BigQuery Connector per SAP. Sebbene BigQuery Connector per SAP è offerto senza costi, è necessaria una Account di fatturazione Cloud per ricevere il pacchetto di installazione. Per ulteriori informazioni, vedi Scarica il pacchetto di installazione.

BigQuery Connector per SAP è un'implementazione di Google Cloud di un Componente aggiuntivo aziendale (BAdI) per SAP LT Replication Server. BigQuery Connector per SAP è sviluppato da Google Cloud seguendo la procedura dell'SDK SAP LT Replication Server.

BigQuery Connector per SAP sfrutta la funzionalità di Change Data Capture di SAP LT Replication Server.

Trattamento dati

BigQuery Connector per SAP invia i record SAP direttamente BigQuery da SAP LT Replication Server senza strumenti o livelli di integrazione dei dati intermedi.

Quando riceve i record, BigQuery li aggiunge della tabella in modalità di solo inserimento. Se BigQuery riceve un aggiornamento di un record già esistente in BigQuery tabella BigQuery, BigQuery inserisce una nuova istanza del record senza modificare l'istanza esistente. L'ultimo inserito dell'istanza del record riflette lo stato corrente del record e la tabella di origine.

BigQuery Connector per SAP consente solo una trasformazione minima dei dati, in conformità a un modello di estrazione, caricamento e trasformazione (ELT), al contrario di un modello ETL (Extract, Transform and Load). Per ulteriori informazioni per informazioni su questi modelli, consulta Procedure e pattern per i dati pipeline di dati.

BigQuery Connector per SAP suggerisce automaticamente i campi, i nomi dei campi e i tipi di dati per la tabella di destinazione in base ai dati di origine. Prima del viene creata la tabella BigQuery di destinazione, puoi modificare i valori suggeriti a seconda delle esigenze.

I nomi suggeriti per i campi di destinazione si basano sulle descrizioni dei nei campi della tabella di origine. Per ulteriori informazioni, consulta Nome predefinito opzioni per i campi.

Sebbene BigQuery Connector per SAP suggerisca automaticamente Tipi di dati BigQuery per la maggior parte dei campi: booleano, timestamp e i valori esadecimali non possono essere interpretati automaticamente, quindi devi mappare manualmente. Per saperne di più, consulta Mappatura dei tipi di dati.

BigQuery Connector per SAP offre diversi punti di miglioramento da cui inserisci i tuoi miglioramenti personalizzati nel codice BigQuery Connector per SAP. Per ulteriori informazioni, consulta la sezione Uscite miglioramento.

Se non esiste già una tabella di destinazione in BigQuery, e BigQuery Connector per SAP ne crea uno.

Dopo l'inizio della replica, i record SAP vengono aggiunti a BigQuery in modalità di solo inserimento.

Sicurezza

Puoi controllare l'accesso a BigQuery Connector per SAP in SAP LT Replication Server mediante il sistema di autorizzazione basato su ruoli di SAP LT Replication Server. Quando installi BigQuery Connector per SAP, i file di trasporto includono ruoli personalizzati per BigQuery Connector per SAP. Per ulteriori informazioni sui sui ruoli, consulta l'articolo sulla sicurezza SAP.

Controlla l'accesso a Google Cloud e BigQuery mediante l'autenticazione e l'autorizzazione di Identity and Access Management e ai Autenticazione dell'API BigQuery. Per ulteriori informazioni, vedi Sicurezza di Google Cloud.

Per la comunicazione tra BigQuery Connector per SAP BigQuery, BigQuery Connector per SAP utilizza l'architettura end-to-end Comunicazione HTTPS e SSL.

Per informazioni da SAP sull'autorizzazione, consulta Guida alla sicurezza per la tua versione di SAP LT Replication Server nel Portale di assistenza SAP.

Scalabilità

Per volumi molto grandi, come miliardi di record di dati con milioni di delta, BigQuery Connector per SAP utilizza Funzioni di scalabilità e partizionamento di SAP LT Replication Server per caricare in contemporanea l'estrazione di dati su larga scala. Per ulteriori informazioni, consulta la Guida alle taglie per la tua versione di SAP LT Replication Server nel portale di assistenza SAP.

Per quanto riguarda BigQuery, BigQuery Connector per SAP Utilizza l'API BigQuery Streaming per scalare il caricamento dei dati.

Architettura di installazione

Installerai BigQuery Connector per SAP come componente aggiuntivo aziendale (BAdI) un'istanza del server di replica SAP LT.

L'istanza SAP LT Replication Server può essere su Google Cloud, on-premise o su un altro cloud provider. Ovunque si trova SAP LT Replication Server dovrebbe essere il più vicino possibile al sistema di origine. Collabora con il team di rete per garantire bassa latenza e velocità effettiva elevata tra il sistema SAP di origine, SAP LT Replication Server e set di dati BigQuery.

Le seguenti sezioni descrivono le architetture comuni e consigliate per BigQuery Connector per SAP.

Architettura per origini dati SAP su Google Cloud

Il seguente diagramma mostra due esempi di installazioni di SAP LT Replication Server su Google Cloud con l'origine dati SAP su Google Cloud.

Per mostrare un esempio di ogni architettura, un'installazione utilizza un'architettura standalone di SAP LT Replication Server, che SAP LT Replication Server è installato su un server separato, mentre l'altro utilizza una Architettura incorporata di SAP LT Replication Server, in cui SAP LT Replication Server sia installato nel sistema di origine SAP.

Poiché le istanze SAP LT Replication Server sono installate Google Cloud, BigQuery Connector per SAP si connette direttamente l'endpoint API BigQuery, senza richiedere una connessione Cloud Interconnect o Cloud VPN.

Nel diagramma, i sistemi SAP e BigQuery sono mostrato in diversi progetti Google Cloud, ma puoi utilizzare lo stesso progetto entrambi, se necessario.

Il diagramma è descritto nel testo precedente

Architettura per origini dati SAP on-premise o su un altro cloud provider

Il seguente diagramma mostra due esempi di installazioni di SAP LT Replication Server in esecuzione on-premise o su un altro cloud provider.

Per mostrare un esempio di ogni architettura, un'installazione utilizza un'istanza l'architettura autonoma di SAP LT Replication Server e l'altra utilizza un Architettura incorporata di SAP LT Replication Server.

In entrambi gli esempi, SAP LT Replication Server è installato nello stesso esistente come origine dati SAP.

La connessione da BigQuery Connector per SAP in SAP LT Replication Server a BigQuery è fornito una connessione Cloud Interconnect o Cloud VPN connessione.

Il diagramma è descritto nel testo precedente

Visualizzazione architetturale dettagliata del flusso di dati

Il seguente diagramma mostra dove BigQuery Connector per SAP si inserisce nel flusso di dati di SAP LT Replication Server.

I numeri nel diagramma sono spiegati di seguito.

Il diagramma è descritto nel testo precedente

Le seguenti spiegazioni numerate corrispondono ai numeri nel diagramma:

  1. Dopo l'inizializzazione di SAP LT Replication Server, quando i record le tabelle di origine vengono inserite, aggiornate o eliminate il trigger del database registra le modifiche nelle tabelle di logging.
  2. SAP LT Replication Server controlla continuamente le tabelle di logging per verificare la presenza di nuovi che utilizzano le chiamate RFC.
  3. Se SAP LT Replication Server trova nuove voci, il motore di lettura legge registra e chiama il motore di mappatura e trasformazione.
  4. Il motore di mappatura e trasformazione chiama il motore di scrittura, che richiama BigQuery Connector per SAP.
  5. BigQuery Connector per SAP esegue le seguenti azioni:
    1. Mappa i dati SAP al nome e al campo della tabella di destinazione e i tipi di dati BigQuery.
    2. Crea la tabella BigQuery, se necessario.
    3. Invia i record a BigQuery in blocchi tramite API BigQuery Streaming.
  6. Alla ricezione dei dati, BigQuery prende le seguenti informazioni azioni:
    1. Esegue i controlli di convalida.
    2. Inserisce i record nella tabella di destinazione.
    3. Invia un codice di stato HTTP 200 (OK) a BigQuery Connector per SAP.
  7. BigQuery Connector per SAP ritrasmette il codice di stato HTTP OK a SAP LT Replication Server, che elimina le voci replicate dal di logging e libera risorse sul sistema di origine SAP.

Requisiti software

Questa sezione descrive i requisiti software per BigQuery Connector per SAP.

Puoi installare BigQuery Connector per SAP in SAP LT Replication Server su Google Cloud, on-premise o su cloud pubblici, come AWS, Azure e così via.

Requisiti della versione software SAP

Le versioni richieste di SAP LT Replication Server e dei sistemi di origine SAP variano a seconda che venga installato o meno SAP LT Replication Server sul proprio server in un'architettura autonoma o all'interno del sistema applicativo ABAP di origine in un'architettura incorporata.

Anche i requisiti del software SAP sono diversi a seconda Sistema SAP che utilizzi come origine dati: SAP S/4HANA o SAP dell'ECC.

Per vedere le versioni software SAP supportate da Google Cloud BigQuery Connector per SAP, seleziona la scheda corrispondente al tuo sistema di origine:

S/4HANA

Architettura di installazione Sistema Versioni supportate Componente aggiuntivo dell'interfaccia utente (UI)
Autonoma Sistema di origine
  • NetWeaver 7.5 o versioni successive o qualsiasi versione di Piattaforma ABAP.

    Per garantire che le versioni DMIS nell'origine e nella destinazione sistemi sono compatibili, consulta la Nota SAP 2577774.

  • Componente aggiuntivo SLT: DMIS 2011 SP15, DMIS 2018 SP00, DMIS 2020 o qualsiasi versione di S4CORE.

Assicurati che il componente aggiuntivo UI sia la versione compatibile più recente con la tua versione di SAP NetWeaver, come consigliato da SAP.

/UI2/CL_JSON: PL12 o versioni successive.

Per informazioni sulla versione minima richiesta del componente aggiuntivo UI: consulta il "Pacchetto di assistenza" nelle Correzioni SAP 22798102 - /UI2/CL_JSON - PL12.

Per informazioni sulla compatibilità dei componenti aggiuntivi dell'interfaccia utente con SAP NetWeaver, consulta:

Sistema SAP LT Replication Server
  • NetWeaver 7.0 (con EHP2) o versioni successive o qualsiasi versione di Piattaforma ABAP.
  • Componente aggiuntivo SLT: DMIS 2011 SP15 o versioni successive, DMIS 2018 SP00 o versione successiva oppure DMIS 2020 SP00 o in un secondo momento.
Strato Sistema di origine
  • NetWeaver 7.5 o versioni successive o qualsiasi versione di ABAP Piattaforma.
  • Componente aggiuntivo SLT: DMIS 2011 SP15 o successivo, DMIS 2018 SP00 o successivo, DMIS 2020 o versioni successive o qualsiasi versione di S4CORE.

ECC

Architettura di installazione Sistema Versioni supportate Componente aggiuntivo dell'interfaccia utente (UI)
Autonoma Sistema di origine
  • NetWeaver 7.0 (con EHP2) o versioni successive.

    Per garantire che le versioni DMIS nell'origine e nella destinazione i sistemi di controllo sono compatibili, consulta Nota SAP 2577774.

    Se le versioni DMIS sono compatibili, puoi usare le versioni tutte le versioni di ECC.

  • Componente aggiuntivo SLT: DMIS 2011 SP15 o versione successiva oppure DMIS 2018 SP00 o in un secondo momento.

Assicurati che il componente aggiuntivo UI sia la versione compatibile più recente con la tua versione di SAP NetWeaver, come consigliato da SAP.

/UI2/CL_JSON: PL12 o versioni successive.

Per informazioni sulla versione minima richiesta del componente aggiuntivo UI: consulta il "Pacchetto di assistenza" nelle Correzioni SAP 22798102 - /UI2/CL_JSON - PL12.

Per informazioni sulla compatibilità dei componenti aggiuntivi dell'interfaccia utente con SAP NetWeaver, consulta:

Sistema SAP LT Replication Server
  • NetWeaver 7.0 (con EHP2) o versioni successive.
  • Componente aggiuntivo SLT: DMIS 2011 SP15 o versione successiva oppure DMIS 2018 SP00 o in un secondo momento.
Strato Sistema di origine
  • NetWeaver 7.0 (con EHP2) o versioni successive.
  • Componente aggiuntivo SLT: DMIS 2011 SP15 o versione successiva oppure DMIS 2018 SP00 o in un secondo momento.

Requisiti del sistema operativo

BigQuery Connector per SAP supporta qualsiasi sistema operativo supportato da SAP LT Replication Server.

Per informazioni su quali sistemi operativi supportati da SAP LT Replication Server, consulta la documentazione sul prodotto SAP Matrice disponibilità.

Origini di replica supportate

BigQuery Connector per SAP supporta la maggior parte delle applicazioni e i sistemi di origine dei database supportati da SAP LT Replication Server.

Origini di applicazioni SAP supportate

Puoi replicare i dati dalle origini di applicazioni SAP Supporta SAP LT Replication Server. BigQuery Connector per SAP supporta le principali versioni delle applicazioni aziendali in fase di manutenzione come origini dati, nonché rispetto alle applicazioni legacy precedenti. Alcune delle applicazioni SAP supportate includono:

  • SAP Business Suite 7
  • S/4HANA
  • Applicazioni SAP in esecuzione su SAP NetWeaver

Per replicare i dati da SAP Business Warehouse, SAP consiglia contro utilizzando SAP LT Replication Server. Per ulteriori informazioni da SAP, consulta la nota SAP 2525755.

Applicazioni cloud SAP, come S/4HANA Cloud, SAP Ariba, SAP SuccessFactors e altri elementi non sono supportati.

Origini dati supportate

Puoi replicare solo tabelle trasparenti o cluster.

BigQuery Connector per SAP non supporta la replica di SAP Core Viste Data Services (CDS).

In Information Design Tool, BigQuery è supportato a partire da SAP BusinessObjects Business Intelligence 4.3 come origine dati. Puoi eseguire query sui dati archiviati in BigQuery dal SAP BusinessObjects strumenti di reporting come SAP BusinessObjects Web Intelligence e SAP Crystal Reports for Enterprise, tra gli altri.

Per ulteriori informazioni sulla compatibilità, controlla la nota SAP 2750723 - Supporto di Google BigQuery nei prodotti della piattaforma SAP BI.

Sicurezza

Quando implementi la sicurezza per la replica dei dati dal server di replica SAP LT a BigQuery, devi implementare i controlli di sicurezza SAP LT Replication Server, il sistema operativo host SAP LT Replication Server e in Google Cloud.

Sicurezza SAP

Per controllare chi può configurare e lavorare con BigQuery Connector per SAP in SAP LT Replication Server, utilizza l'autorizzazione SAP standard basata sui ruoli.

BigQuery Connector per SAP offre oggetto autorizzazione ZGOOG_MTID come parte dell'installazione di trasporto.

Per configurare ed eseguire job di replica dei dati che utilizzano BigQuery Connector per SAP, puoi definire un ruolo con ruolo all'interno di SAP LT Replication Server, come descritto in Creare ruoli SAP e autorizzazioni per BigQuery Connector per SAP.

Ad esempio, puoi definire un ruolo chiamato ZGOOGLE_BIGQUERY_ADMIN che ha tutte le autorizzazioni SAP e le autorizzazioni ZGOOG_MTID necessarie per configurare e far funzionare replica dei dati in BigQuery utilizzando BigQuery Connector per SAP.

Per ulteriori informazioni da SAP su ruoli autorizzazione, consulta la Guida alla sicurezza per di SAP LT Replication Server nel portale di assistenza SAP.

Sicurezza di Google Cloud

Implementazione della sicurezza su Google Cloud per BigQuery Connector per SAP può prevedere i seguenti controlli di sicurezza:

  • Identity and Access Management (IAM), ruoli, account di servizio e chiavi.
  • Controlli BigQuery impostati a livello di set di dati o tabella.
  • Controlli di servizio Virtual Private Cloud (VPC) per gli ambienti basati su API come BigQuery.
  • Endpoint Private Service Connect che consentono il consumo privato come BigQuery, nelle reti VPC.

Google Cloud Identity and Access Management

Per l'autenticazione e l'autorizzazione di BigQuery Connector per SAP, è necessario un account di servizio IAM progetto Google Cloud che contiene il tuo set di dati BigQuery.

Per autorizzare l'interazione con le risorse BigQuery, si assegnano ruoli all'account di servizio che contiene le autorizzazioni interagire con BigQuery in BigQuery progetto.

Se crei l'account di servizio nel progetto BigQuery, puoi concedere i ruoli richiesti quando crei l'account di servizio e l'account di servizio diventa un'entità per il progetto automaticamente.

Le autorizzazioni necessarie per accedere a BigQuery Connector per SAP BigQuery sono inclusi nei seguenti Ruoli IAM:

  • Editor dati BigQuery
  • Utente job BigQuery

Se il server di replica SAP LT è in esecuzione su una VM di Compute Engine, devi anche concedere il ruolo Creatore token account di servizio alla dell'account di servizio della VM host.

Se SAP LT Replication Server è in esecuzione on-premise o su un'altra piattaforma cloud, oltre a creare un account di servizio, devi creare anche chiave dell'account di servizio per BigQuery Connector per SAP. L'amministratore SAP installa la chiave sull'host del server di replica SAP LT. Quando BigQuery Connector per SAP si connette a BigQuery, SAP LT Replication Server utilizza la chiave dell'account di servizio per l'autenticazione con in Google Cloud.

Non è necessaria una chiave dell'account di servizio quando SAP LT Replication Server è in esecuzione su Google Cloud.

Per ulteriori informazioni su IAM, account di servizio, ruoli autorizzazioni, vedi:

Controlli di accesso a set di dati e tabella BigQuery

Oltre ai controlli IAM, puoi anche controllare l'accesso tramite BigQuery. Per BigQuery Connector per SAP, puoi impostare i controlli dell'accesso su set di dati e tabelle.

Per ulteriori informazioni, vedi:

Controlli di servizio VPC

Su Google Cloud, le regole firewall VPC non sono applicabile alle interazioni basate su API con BigQuery. In alternativa, puoi utilizzare il servizio VPC (Virtual Private Cloud) Controlli per limitare il traffico.

Se il carico di lavoro SAP è in esecuzione su Google Cloud, puoi implementare i controlli di servizio VPC definendo i perimetri di servizio. Per Per ulteriori informazioni, consulta Perimetri di servizio.

Se il carico di lavoro SAP non è in esecuzione su Google Cloud, puoi implementare i controlli di servizio VPC nell'ambito della configurazione Accesso privato Google per gli host on-premise.

Per saperne di più sulla sicurezza di rete per BigQuery, consulta Sicurezza di rete.

Endpoint di Private Service Connect

Se vuoi configurare endpoint nella tua rete VPC che consentano il consumo privato dei servizi gestiti da Google, come BigQuery, puoi utilizzare Private Service Connect.

Private Service Connect consente di creare endpoint privati che utilizzano indirizzi IP interni da un intervallo CIDR VPC per accedere API e servizi Google. Puoi anche utilizzare Private Service Connect per creare un nome DNS privato personalizzato l'API BigQuery Streaming. Per ulteriori informazioni, vedi Private Service Connect.

Per BigQuery Connector per SAP in esecuzione su un host esterno Google Cloud, Private Service Connect non è supportato.

Ulteriori informazioni sulla sicurezza di Google Cloud

Per ulteriori informazioni su account di sicurezza, ruoli e autorizzazioni, consulta:

Networking

Quando pianifichi il percorso di rete per la replica in BigQuery, tieni in considerazione i seguenti punti:

  • Larghezza di banda
  • Latenza e impatto sul consumo delle risorse sul server di replica SAP LT organizzatore
  • Volume di dati e relativo impatto su qualsiasi carico di rete esistente
  • Se il carico di lavoro SAP non è in esecuzione su Google Cloud, tipo di connessione da utilizzare: Cloud Interconnect o Cloud VPN

Connessione a Google Cloud

Se i tuoi sistemi SAP non sono in esecuzione su Google Cloud e una connessione dai sistemi SAP a Google Cloud, devi stabilire una connessione e configurare l'accesso privato alle API Google Cloud.

Puoi stabilire una connessione a Google Cloud utilizzando Cloud Interconnect o Cloud VPN.

Cloud Interconnect tipicamente fornisce una larghezza di banda superiore, latenza e conflitto di rete inferiore rispetto a Cloud VPN. Per job di replica a volumi elevati e sensibili alle prestazioni, Google Cloud consiglia Cloud Interconnect per BigQuery Connector per SAP.

Con Cloud VPN, i dati di replica vengono trasferiti sul pubblico su internet, per cui il conflitto di rete è meno prevedibile e le latenze di solito è più alto.

Indipendentemente dall'opzione di connessione scelta, devi esaminare tutti il traffico che prevedi sia supportato dalla connessione. Determina se la connessione abbia una larghezza di banda e una velocità di rete sufficienti per supportare sul job di replica e su qualsiasi altro carico di lavoro senza influire negativamente .

Le connessioni lente possono aumentare il consumo di risorse sia il server di origine SAP e l'host SAP LT Replication Server estendendo tempo necessario per il completamento dei job delle risorse, mantenendo le risorse che necessari per il vincolo della replica per periodi di tempo più lunghi.

Per ulteriori informazioni sulle opzioni di connessione a tua disposizione:

Per utilizzare un server proxy per inviare le richieste HTTP a Google Cloud, ti consigliamo di utilizzare le destinazioni RFC definite in transazione SM59.

Destinazioni RFC

I file di trasporto di BigQuery Connector per SAP contengono il seguente esempio Destinazioni RFC nella transazione SM59. Queste destinazioni RFC sono HTTP a server esterni (tipo G) e connettersi al rispettivo dell'endpoint API pubblico del servizio.

Nome destinazione RFC di esempio Host di destinazione (endpoint API) Note
GOOG_BIGQUERY https://bigquery.googleapis.com Questa destinazione RFC ha come target l'API BigQuery.
GOOG_IAMCREDENTIALS https://iamcredentials.googleapis.com Questa destinazione RFC ha come target l'API IAM.
GOOG_OAUTH2_TOKEN https://googleapis.com/oauth2 Questa destinazione RFC ha come target l'endpoint Google Cloud per OAuth 2.0 basata sull'autenticazione basata su cloud. Da utilizzare per i carichi di lavoro SAP in esecuzione al di fuori di Google Cloud e solo quando vuoi autenticarti a Google Cloud utilizzando il token JWT (JSON Web Token).

L'utilizzo di destinazioni RFC per la connessione a Google Cloud offre quanto segue vantaggi:

  • Se utilizzi un server proxy nel tuo panorama SAP e vuoi usare lo stesso per invii le richieste HTTP a Google Cloud, puoi configurare server proxy nella destinazione RFC.

  • Se vuoi abilitare l'accesso alle API e ai servizi Google Cloud tramite Private Service Connect, puoi creare questi endpoint nel tuo progetto Google Cloud e specificare gli endpoint nel documento destinazioni.

  • Puoi usare la compressione HTTP, che Google Cloud consiglia le repliche tra regioni, in cui Il sistema di origine SAP e il set di dati BigQuery sono posizionati in nelle regioni di Compute Engine.

Per utilizzare le destinazioni RFC per connetterti alle API o ai servizi Google Cloud, devi: devi creare voci nella tabella /GOOG/SERVIC_MAP che mappano la RFC destinazioni per la tabella /GOOG/CLIENT_KEY. Per la procedura di configurazione, vedi Guida all'installazione e alla configurazione di BigQuery Connector per SAP per il tuo scenario.

Compressione HTTP

Quando utilizzi le destinazioni RFC per configurare la connessione tra BigQuery Connector per SAP e le API Google Cloud, puoi utilizzare Opzione Compressione per comprimere il corpo della richiesta HTTP. La compressione HTTP è disponibile solo quando configuri le destinazioni RFC in modo da utilizzare HTTP 1.1.

Prima di abilitare la compressione HTTP nell'ambiente di produzione, analizza del profilo che incidono sulla compressione HTTP in un ambiente di test. Per per saperne di più da SAP, vedi Nota SAP 1037677 - La compressione HTTP comprime solo alcuni documenti.

Larghezza di banda

Assicurati che la connessione di rete tra SAP LT Replication Server e BigQuery dispone di una larghezza di banda sufficiente per supportare il tuo volume di alla velocità che vuoi.

Connessioni di rete più lente aumentano la latenza della replica dei dati aumentando le risorse utilizzate dalla replica nel SAP di origine di un sistema operativo completo.

Per le installazioni produttive, Google Cloud consiglia una Connessione Cloud Interconnect. Puoi anche utilizzare Cloud VPN.

Latenza

Per ridurre la latenza sulla connessione di rete, crea un target Set di dati BigQuery vicino al sistema SAP LT Replication Server e il sistema di origine SAP. Se il sistema SAP di origine è in esecuzione su Google Cloud, crea il tuo set di dati BigQuery nella stessa regione Google Cloud del sistema SAP di origine.

Testa la latenza prima di eseguire la migrazione dell'installazione in un ambiente di produzione.

Per ulteriori informazioni sulle prestazioni di rete, vedi Rete delle prestazioni della connessione.

Controlli dell'accesso alla rete

Puoi implementare i controlli dell'accesso alla rete su entrambi i lati della connessione tra SAP LT Replication Server e Google Cloud.

Controlli dell'accesso alla rete di Google Cloud

BigQuery Connector per SAP comunica con BigQuery mediante un endpoint API, che non è soggetto a Google Cloud le regole firewall VPC.

Utilizza invece Controlli di servizio VPC per limitare il traffico.

Per saperne di più sulla sicurezza di rete per BigQuery, consulta Sicurezza di rete.

Controlli dell'accesso alla rete host di SAP LT Replication Server

Sull'host SAP LT Replication Server devi assicurarti che tutti i firewall o proxy consentono il traffico in uscita dal server a BigQuery l'endpoint API. Nello specifico, SAP LT Replication Server deve poter accedere le seguenti API Google Cloud:

  • https://bigquery.googleapis.com
  • https://iamcredentials.googleapis.com

Se vuoi utilizzare gli endpoint Private Service Connect per accedere all'API BigQuery Streaming, devi assicurarti configura gli endpoint Private Service Connect nella tabella /GOOG/SERVIC_MAP. Per ulteriori informazioni, vedi le istruzioni per l'installazione e alla configurazione più adatta al tuo scenario.

Pianificazione del rendimento

Le prestazioni dei caricamenti iniziali e dei job di replica tra SAP LT Replication Server e BigQuery sono interessati da più in punti diversi del percorso di replicazione.

Tuttavia, alcuni fattori di base, come la distanza tra SAP LT Replication Server e il tuo set di dati BigQuery oppure della connessione a Google Cloud, hanno un impatto maggiore sul rendimento rispetto alla maggior parte degli altri fattori.

Best practice generali per le prestazioni

Per un rendimento ottimale, includi i seguenti consigli nella la configurazione del SAP LT Replication Server:

  • Esegui il carico di lavoro SAP, inclusi il sistema di origine SAP SAP LT Replication Server, su Google Cloud.
  • Se il carico di lavoro SAP si trova su Google Cloud, crea Set di dati BigQuery nella stessa regione dal carico di lavoro SAP.
  • Se non riesci a eseguire il carico di lavoro SAP su Google Cloud:
    • Crea il tuo set di dati BigQuery in Google Cloud più vicina al carico di lavoro SAP.
    • Connettiti a Google Cloud utilizzando Cloud Interconnect.
  • Per evitare conflitti per le risorse, usa host dedicati separati sia per il sistema di origine SAP sia per SAP LT Replication Server.
  • Dimensiona il sistema SAP LT Replication Server in modo ottimale per il tuo carico di lavoro in base alla Guida alle dimensioni per la tua versione del server di replica SAP LT nel portale di assistenza SAP.
  • Utilizza le seguenti impostazioni di replica di SAP LT Replication Server:
  • Configura BigQuery Connector per SAP con:
    • Compressione record predefinita.
    • Dimensione del blocco predefinita.
  • Quando mappi i campi alla tabella BigQuery, evita di usare nomi utente, se possibile.

Per ulteriori informazioni, vedi:

Ulteriori caratteristiche che possono influire sulle prestazioni

Molte caratteristiche della configurazione e dei dati possono influire delle prestazioni. Alcune di queste caratteristiche potrebbero non essere modificabili. Queste caratteristiche includono:

  • Sul server di origine:
    • Il numero di CPU.
    • La quantità di memoria.
    • Il database utilizzato, ad esempio SAP HANA, SAP ASE, IBM Db2 o altri.
    • Il numero di colonne nella tabella di origine.
    • La quantità di dati contenuti in ogni record.
    • I metadati della tabella, come la lunghezza dei nomi dei campi.
    • Il numero di processi di lavoro delle finestre di dialogo.
  • Su SAP LT Replication Server:
    • Il numero di CPU.
    • La quantità di memoria.
    • Altri carichi di lavoro in esecuzione dall'host.
    • Finestra di dialogo SAP e processi di lavoro in background.
    • Il tipo di architettura di installazione di SAP LT Replication Server. Per ulteriori informazioni informazioni, consulta Installazione autonoma (consigliata) o incorporata di SAP LT Replication Server.
    • Il numero di job in background in esecuzione Sistema SAP LT Replication Server.
    • Il numero di job in background allocati al trasferimento di massa nella scheda Amministrazione della transazione LTRC.
    • Le impostazioni relative alle prestazioni delle transazioni LTRS, tra cui l'opzione Lettura Tipo e Dimensione della porzione.
  • Nella configurazione di replica di BigQuery (transazione /GOOG/SLT_SETTINGS):
    • Indica se sono stati specificati o meno nomi personalizzati per i campi di destinazione. L'elaborazione dei nomi dei campi BigQuery di destinazione hanno un leggero impatto sulle prestazioni.
    • Indica se è abilitata la compressione record.
    • Dimensioni blocco del connettore BigQuery per SAP che possono influire sul numero totale di richieste HTTP inviate.

Considerazioni sulle prestazioni di SAP LT Replication Server

Le seguenti sezioni discutono le opzioni di rendimento correlate alla configurazione di SAP LT Replication Server.

Prestazioni e architettura di installazione di SAP LT Replication Server

Un'architettura autonoma, in cui SAP LT Replication Server è installato sul suo server dedicato, solitamente offre prestazioni migliori rispetto a un server in cui SAP LT Replication Server è installato sullo stesso server del server di origine dati.

In un'architettura incorporata, SAP LT Replication Server deve condividere il server con il sistema di origine SAP.

Anche in un'architettura autonoma, la CPU e la memoria dell'host, così come qualsiasi altro carico di lavoro in esecuzione sul server, influire sulle prestazioni di un'istanza di SAP LT Replication Server.

Prestazioni e LTRS impostazioni di replica avanzate

Le prestazioni dei caricamenti iniziali e della replica sono influenzate da: le impostazioni specificate per la tabella di origine nella Transazione LTRS in Impostazioni di replica avanzate.

Per indicazioni sull'ottimizzazione delle prestazioni, in particolare per l'ottimizzazione per caricamenti iniziali o repliche di volumi elevati, consulta Guida all'ottimizzazione delle prestazioni di SAP LT Replication Server nel portale di assistenza SAP.

Google Cloud consiglia le seguenti specifiche nel Impostazioni di replica avanzate > Sezione Prestazioni generali di transazione LTRS:

Per i caricamenti iniziali della maggior parte dei tipi di tabelle, specifica 1 intervallo Calcolo come Tipo di lettura. Per tabelle troppo grandi Per Calcolo dell'intervallo a 1, specifica Tipo di lettura 5.

Per le repliche, in Impostazioni attive:

  • Per ottenere repliche più veloci, specifica Intervalli automatici.
  • Per repliche più affidabili, specifica Nessun intervallo.

La tabella seguente suggerisce le impostazioni per alcuni scenari comuni.

Tipo di tabella Tipo di lettura consigliato
Trasparente (piccolo/medio) Tipo di lettura 1 - Calcolo dell'intervallo
Trasparente (grandi) Solo se il tipo di lettura 1 non funziona, il tipo di lettura 5 - Intervallo Calcolo
Tabella cluster Tipo di lettura 4 - Coda mittenti

Prestazioni della connessione di rete

La larghezza di banda e la latenza della connessione tra il server di replica SAP LT e BigQuery possono influire sulle prestazioni complessive di replica in BigQuery.

L'impatto non influisce solo sulla velocità di replica, ma anche sulla quantità di risorse utilizzate da SAP LT Replication Server e dal sistema di origine, più tempo occorre per ricevere la conferma di replica da BigQuery, maggiore sarà la durata di SAP LT Replication Server e nel sistema contengono le risorse host.

Se il carico di lavoro SAP è in esecuzione on-premise o su un altro cloud provider, Google Cloud consiglia di utilizzare una connessione Cloud Interconnect che fornisce larghezza di banda elevata e bassa latenza senza dover competere con traffico sulla rete internet pubblica.

Puoi utilizzare Cloud VPN per connetterti a Google Cloud In BigQuery, invece, con una connessione VPN, le tue repliche devono competere con il traffico internet generale.

Se il carico di lavoro SAP è in esecuzione su Google Cloud, Google Cloud consiglia di individuare il server di replica SAP LT e il server BigQuery nella stessa regione. Se SAP LT Replication Server e BigQuery si trovano in regioni diverse, la latenza è tipicamente e le prestazioni solitamente sono peggiori. Per ulteriori informazioni sulla scelta una regione, consulta Scelta di una regione e di una zona.

Trasmissione dei dati

In genere, si vuole inviare quanti più dati possibile in ogni richiesta HTTP in modo da ridurre il numero complessivo di richieste HTTP e la relativa elaborazione overhead.

In alcuni casi, tuttavia, potrebbe essere necessario ridurre la quantità di dati inviati, a causa delle dimensioni dei record di una determinata tabella o perché stai raggiungendo un limite di quota o un altro limite in BigQuery.

Puoi controllare la quantità di dati inviati in ogni richiesta nei seguenti modi:

  • Regola la quantità di dati (la dimensione della porzione) che SAP LT Replication Server invia a BigQuery Connector per SAP.
  • Modifica la quantità di dati (la dimensione del chunk) utilizzata da BigQuery Connector per SAP che invia a BigQuery.
  • Regola le quote per l'inserimento di flussi di dati in BigQuery progetto.

Regolazione della quantità di dati inviati da SAP LT Replication Server

SAP LT Replication Server invia i record dal sistema di origine al server BigQuery Connector per SAP in parti. Ogni parte viene gestita come un un job di caricamento o di replica separato che consuma risorse del server completa.

In genere, se aumenti la dimensione della porzione del server di replica SAP LT, diminuisci il numero di processi SAP LT Replication Server, nonché il a loro associato.

Dimensione della porzione e dimensione del blocco

Le parti del server di replica SAP LT sono dimensionate in byte o come prodotto di byte e record. I blocchi di BigQuery Connector per SAP dimensioni in base al numero di record che possono contenere. La dimensione in byte di un chunk varia a seconda di diversi fattori, incluso il numero di campi nei record e la quantità di dati contenuti da ciascun record.

Se la dimensione della porzione di SAP LT Replication Server è maggiore rispetto alla dimensione del blocco di BigQuery Connector per SAP, invia più blocchi per ogni parte, fino a quando tutti i record vengono inviati.

Se la dimensione della porzione è inferiore a quella del blocco, BigQuery Connector per SAP invia un solo blocco per porzione. Ogni blocco contiene solo il numero di record inviati in ogni parte, indipendentemente dalla dimensione del blocco impostata BigQuery Connector per SAP.

Idealmente, imposta una dimensione della porzione in SAP LT Replication Server che consenta BigQuery Connector per SAP per creare i blocchi più grandi possibili senza il limite di BigQuery sul numero di byte in per ogni richiesta HTTP.

Per ulteriori indicazioni sulla specifica di una dimensione del blocco, consulta l'articolo Dimensione del chunk in BigQuery Connector per SAP.

Dimensioni della porzione nel server di replica SAP LT

Per modificare la dimensione predefinita della porzione utilizzata da SAP LT Replication Server: esegui la transazione LTRS e modifica il valore nel campo Dimensioni pacchetto in Impostazioni di replica avanzate in Opzioni prestazioni.

Per ulteriori informazioni, consulta le prestazioni del server di replica SAP LT Guida all'ottimizzazione nel Portale di assistenza SAP.

Dimensione del chunk in BigQuery Connector per SAP

BigQuery Connector per SAP invia i dati a BigQuery come blocchi di record. Ti consigliamo di utilizzare la dimensione del chunk predefinita con BigQuery Connector per SAP, ovvero 10.000 record. Se i record di una tabella di origine contengono pochissimi campi oppure i campi contengono con dimensioni molto piccole, puoi utilizzare una dimensione del chunk più grande la dimensione massima del chunk consentita da BigQuery Connector per SAP, pari a 50.000 record.

Se il numero di record in un determinato blocco viene risolto in una dimensione in byte che supera il limite BigQuery per le dimensioni in byte per HTTP richieste, potresti ricevere un errore quotaExceeded o un errore invalid.

Questo può accadere se i record di una tabella di origine contengono molti campi o contengono molti dati.

Se viene visualizzato un errore relativo alla dimensione del blocco, prova a ridurla è specificato nella configurazione del trasferimento di massa di quella tabella. In alternativa, puoi abilitare la dimensione dinamica del chunking affinché regolare la dimensione del chunk. Per ulteriori informazioni, consulta Dimensione dinamica del chunk.

Se non hai abilitato la dimensione dinamica del blocco, per le tabelle di origine SAP come MSEG, ACDOCA e MATDOC, che possono avere record di grandi dimensioni con molte campi per record, potresti dover specificare una dimensione del blocco di almeno 2000.

Puoi specificare una dimensione del blocco eseguendo /GOOG/SLT_SETTINGS transazione. La dimensione del blocco è specificata nel campo Dimensione del blocco nella schermata degli attributi della tabella.

Per ulteriori indicazioni sulla specifica di una dimensione del blocco, consulta:

Per ulteriori informazioni su BigQuery vedi Messaggi di errore.

Overhead di elaborazione associato all'invio di parti

Ogni parte inviata attiva le seguenti azioni, ciascuna delle quali comporta un overhead di elaborazione o un consumo di risorse:

  1. Una raccolta di record modificati nella tabella di logging nel sistema di origine vengono inviati a SAP LT Replication Server in una singola parte. I record modificati non sono ancora state eliminate dalla tabella di logging.
  2. SAP LT Replication Server richiede un nuovo token di accesso a Google Cloud.
  3. BigQuery Connector per SAP invia una richiesta HTTP a BigQuery per verificare la struttura della tabella di destinazione.
  4. BigQuery Connector per SAP invia i record a BigQuery in tutti i blocchi necessari per inviare tutti i record ricevuto nella singola parte. Ogni blocco viene inviato in un ambiente richiesta HTTP.
  5. BigQuery elabora ogni blocco ricevuto.
  6. Un codice di stato HTTP OK viene restituito a SAP LT Replication Server per ogni blocco.
  7. Dopo che BigQuery ha ricevuto tutti i record, SAP LT Replication Server elimina i record inviati dalla tabella di logging, liberando risorse sul sistema di origine.

Per ulteriori informazioni sulle parti e sulla configurazione del server di replica SAP LT Per le prestazioni, consulta la sezione sull'ottimizzazione delle prestazioni di SAP LT Replication Server nel Portale di assistenza SAP.

Quote di BigQuery

Quote dell'API BigQuery in streaming attive per il tuo progetto limitare la quantità di dati in cui puoi trasmettere BigQuery nel tempo e in qualsiasi richiesta HTTP.

Ad esempio, BigQuery imposta limiti per metriche come:

  • I byte al secondo per progetto che puoi inviare.
  • Il numero massimo di record o righe che puoi inviare in una singola richiesta HTTP.
  • La dimensione massima di una richiesta HTTP che puoi inviare.

Per l'inserimento di flussi di dati, BigQuery corregge la dimensione del traffico HTTP richieste a 10 MB e il numero di record che puoi inviare in un a 50.000 richieste HTTP.

Nella maggior parte dei casi, puoi modificare le quote, ma non i limiti.

Puoi visualizzare e modificare le quote in vigore per il tuo progetto nel Console Google Cloud nella sezione Quote .

Per ulteriori informazioni su quote e limiti di BigQuery per l'inserimento di flussi di dati, consulta:

Compressione video

Per impostazione predefinita, BigQuery Connector per SAP migliora le prestazioni di replica comprimendo i record che invia a BigQuery.

Quando la compressione record è abilitata, che è l'impostazione predefinita, BigQuery Connector per SAP omette i campi vuoti nel record di origine dai record inviati a BigQuery. Quando il record inserito in BigQuery, i campi omessi dai dati inviati, vengono inizializzati con null nella tabella di destinazione.

Puoi disattivare la compressione dei record specificando Invia flag non compresso. nella configurazione della tabella BigQuery, ma può avere un impatto negativo sulle prestazioni di replica.

Quando è selezionata l'opzione Invia flag non compresso, BigQuery Connector per SAP è selezionato. invia record a BigQuery con tutti i campi, tra cui ci sono campi vuoti. Ad eccezione dei campi della data e del timestamp, il campo vuoto i campi conservano il valore con cui sono stati inizializzati nell'origine . Il valore inizializzato per i campi di data e ora riceve i seguenti valori:

  • Valore di inizializzazione campo data: DATE 1970-01-01
  • Valore di inizializzazione del campo timestamp: TIMESTAMP 1970-01-01 00:00:00 UTC

Per ulteriori informazioni sull'impatto della compressione dei record sui tuoi trasferiti da SAP LT Replication Server a BigQuery consulta Informazioni sulla funzionalità di compressione BigQuery Connector per SAP SAP.

Configurazioni di replica BigQuery

Quando configuri la replica con BigQuery Connector per SAP, utilizzare diverse transazioni SAP, inclusa una personalizzata fornito da Google Cloud:

  • SM30: definisce le proprietà per la connessione a Google Cloud, archiviati come record nella tabella di configurazione personalizzata /GOOG/CLIENT_KEY. Facoltativamente, quando utilizzi destinazioni RFC per connetterti API e servizi Google Cloud, alcune proprietà di connessione vengono memorizzate nella tabella di configurazione personalizzata /GOOG/SERVIC_MAP.
  • LTRC - Definisce il connettore BigQuery per l'applicazione di replica SAP e mass transfer ID, tra le altre proprietà.
  • SM59: definisce le destinazioni RFC che consentono la connessione a Google Cloud API e servizi come BigQuery e IAM.
  • /GOOG/SLT_SETTINGS: definisce le proprietà del target Set di dati, tabella e campi BigQuery. Quando entri /GOOG/SLT_SETTINGS in SAP LT Replication Server, devi aggiungere /n per l'escape la barra iniziale nel nome della transazione.

Supporto dei linguaggi

BigQuery Connector per SAP supporta solo le configurazioni di replica in inglese. Quando configuri la replica utilizzando le transazioni SAP e fornita da Google Cloud, utilizza l'inglese come la lingua di accesso nella schermata di accesso a SAP.

Tuttavia, BigQuery Connector per SAP supporta l'esecuzione di job in background che vengono eseguiti su SAP LT Replication Server in tutte le lingue supportate da SAP SLT.

Gli eventuali messaggi di errore visualizzati quando si lavora con BigQuery Connector per SAP vengono generate in inglese a prescindere dal linguaggio di esecuzione del job in background.

Proprietà tabella di destinazione

Quando configuri la replica in SAP LT Replication Server eseguendo la transazione /GOOG/SLT_SETTINGS, puoi specificare le impostazioni applicabili quando BigQuery Connector per SAP crea di destinazione in BigQuery.

Ad esempio, puoi specificare le seguenti proprietà per un target Tabella BigQuery:

  • Nome tabella
  • L'opzione di denominazione predefinita per i campi
  • Campi aggiuntivi per acquisire le modifiche ai record e abilitare le query sul conteggio dei record
  • Partizionamento delle tabelle

Opzioni di denominazione predefinite per i campi

Puoi configurare BigQuery Connector per SAP per creare i nomi ai campi nella tabella BigQuery di destinazione dal nomi dei campi di origine o etichette e descrizioni dei campi campi. Le etichette e le descrizioni in genere sono più informative i contenuti del campo.

Per impostazione predefinita, BigQuery Connector per SAP utilizza i nomi dei campi di origine. Puoi modificare l'impostazione predefinita specificando il flag Nomi personalizzati quando che specifichi negli attributi di creazione delle tabelle configurazione della transazione /GOOG/SLT_SETTINGS. Questa specifica è archiviato nella tabella di configurazione /GOOG/BQ_MASTR.

Durante la creazione dei nomi, BigQuery Connector per SAP li modifica per renderli conformi alla convenzione di denominazione BigQuery.

Prima di creare una tabella, puoi modificare i nomi dei campi nel campo. schermata di mappatura della transazione /GOOG/SLT_SETTINGS.

Quando viene specificato il flag Nomi personalizzati, vengono indicati i nomi BigQuery Connector per SAP utilizzerà quando creerà vengono visualizzate nel campo Nome campo esterno della schermata di mappatura dei campi.

BigQuery Connector per SAP crea i nomi nel Nome campo esterno colonna dell'etichetta del campo medium di ogni campo di origine. Se un campo medio l'etichetta non è specificata nella definizione del campo di origine, allora la funzione short descrizione del campo. Se la descrizione breve non è specificata , viene utilizzata l'etichetta specificata più breve. Se non viene specificato nulla, viene utilizzato il nome del campo di origine.

Per ulteriori informazioni sulla personalizzazione dei nomi dei campi di destinazione, consulta Personalizzazione dei nomi dei campi di destinazione.

Acquisizione delle modifiche ai record e attivazione del conteggio dei record

a acquisire il tipo di modifica nella tabella di origine che ha attivato la replica. e poter eseguire query sui conteggi di record nella tabella BigQuery per il confronto con SAP LT Replication Server o i conteggi dei record nell'origine specifica l'opzione Flag campi aggiuntivi nella /GOOG/SLT_SETTINGS durante la configurazione della replica.

Quando è specificata l'opzione Flag campi aggiuntivi, vengono indicate le seguenti colonne vengono aggiunte allo schema della tabella BigQuery di destinazione:

Nome campo Tipo di dati Descrizione
operation_flag STRING

Identifica il tipo di modifica nella tabella di origine che ha attivato la modifica il caricamento o la replica del record in BigQuery.

Per conteggiare i record inseriti in modalità di replica, esegui una query record con valore I U, oppure D nel operation_flag . Per un esempio di query, vedi Eseguire query sul numero di record inseriti in modalità di replica.

Per conteggiare i record inseriti in modalità di caricamento iniziale, esegui una query con il valore L nel operation_flag. Per un esempio di query, vedi Eseguire query sul conteggio dei record inseriti in modalità di caricamento iniziale.

is_deleted BOOLEAN Quando true, indica che il record di origine era eliminati dalla tabella di origine.

Per conteggiare solo i record in una tabella BigQuery che non sono stati eliminati dalla tabella di origine, utilizza il is_deleted per escludere i record di origine eliminati. Per un esempio di query, vedi Eseguire query sul conteggio totale dei record in una tabella BigQuery.

recordstamp TIMESTAMP

L'ora in cui SAP LT Replication Server ha inviato il record a in BigQuery.

Per contare il numero di record univoci in un oggetto BigQuery eseguire una query solo sull'istanza inserita più di recente di ogni record. Per un esempio di query, vedi Eseguire query sul conteggio totale dei record in una tabella BigQuery.

L'impostazione attuale dell'opzione Flag campi aggiuntivi è archiviata in la tabella di configurazione /GOOG/BQ_MASTR.

Per ulteriori informazioni su come specificare il flag dei campi aggiuntivi, consulta:

Partizionamento delle tabelle

Puoi creare tabelle BigQuery partizionate da un campo timestamp nella tabella di origine, che crea un'unità di tempo colonna-partizionata o in base all'ora in cui i record vengono inserito in BigQuery, creando così una data di importazione partizionata.

Puoi abilitare il partizionamento specificando un tipo di partizione nella sezione Partizione Campo Tipo in /GOOG/BQ_TABLE quando configuri la replica proprietà.

I tipi di partizione che puoi specificare regolano la granularità il partizionamento per ora, giorno, mese o anno.

Per utilizzare un timestamp della tabella di origine per il partizionamento delle colonne dell'unità di tempo: specifica il nome del campo di origine nel campo Campo di partizione.

Per utilizzare data/ora di inserimento BigQuery come data/ora di importazione puoi lasciare vuoto il campo Partition Field (Campo di partizione). BigQuery Connector per SAP crea un campo nella tabella target in cui memorizzare l'ora di inserimento.

Proprietà campo target

Per impostazione predefinita, BigQuery Connector per SAP utilizza i nomi dei campi e i dati nella tabella di origine SAP come nomi dei campi e tipi di dati nella BigQuery target.

Se vuoi, prima di creare la tabella di destinazione, puoi personalizzare i nomi dei campi. o modificare il tipo di dati BigQuery.

Personalizzazione dei nomi dei campi di destinazione

Prima di creare una tabella, puoi personalizzare i nomi dei campi di destinazione.

Se necessario, BigQuery Connector per SAP modifica i nomi personalizzati da te specificato in modo da rispettare la convenzione di denominazione BigQuery.

Quando configuri la replica, puoi visualizzare i nomi dei campi nel campo schermata di mappatura della transazione /GOOG/SLT_SETTINGS. La BigQuery Connector per SAP archivia le tue impostazioni in /GOOG/BQ_FIELD di configurazione automatica.

Prima di creare una tabella, puoi specificare il nome di un campo personalizzato modificando il nome generato nella colonna Nome campo temporaneo di schermata di mappatura dei campi. Se elimini un valore e lasci la classe Il campo Nome campo temporaneo è vuoto, poi BigQuery Connector per SAP utilizza il nome del campo di origine per il nome di quel campo di destinazione.

Dopo aver apportato modifiche al nome del campo temporaneo, quando fai clic Salva: BigQuery Connector per SAP convalida il valore e si applica le convenzioni di denominazione di BigQuery in base alle esigenze e salva le modifiche. Puoi convalidare un valore senza salvandolo premendo Invio.

Per informazioni sull'impostazione del metodo di denominazione predefinito per il target vedi Opzioni di denominazione predefinite per i campi.

Utilizza un foglio di lavoro o un file di testo per modificare la mappa dei campi di BigQuery

Se vuoi, prima di creare una tabella BigQuery di destinazione puoi salvare i tipi di dati, i nomi e le descrizioni predefiniti dei campi target in un foglio di lavoro o file di testo, in modo che BigQuery i data engineer o gli amministratori possono modificare i valori senza richiedere l'accesso a SAP LT Replication Server.

Dopo aver modificato i valori, devi convertire il file e i relativi contenuti nel formato CSV (comma-separated values). Potrai quindi applicare gli aggiornamenti alle impostazioni del trasferimento di massa caricando il file CSV utilizzando transazione personalizzata /GOOG/SLT_SETTINGS.

La procedura per modificare la mappa dei campi di BigQuery utilizzando un file CSV include i seguenti passaggi:

  1. Crea un foglio di lavoro o un file di testo con le mappature dei campi predefinite.
  2. Modifica i valori.
  3. Converti il foglio di lavoro o il file di testo in formato CSV.
  4. Carica il file CSV.

Per istruzioni dettagliate relative a ognuno di questi passaggi, vedi Modificare la mappa dei campi BigQuery in un file CSV.

Convenzione di denominazione BigQuery per i campi

La convenzione di denominazione BigQuery utilizza solo lettere minuscole, numeri e trattini bassi.

BigQuery Connector per SAP applica la denominazione BigQuery precedenti a qualsiasi valore di input da usare per il nome di un campo di destinazione.

Ad esempio, se inserisci FIELD-@#!*123 come nome del campo personalizzato, il valore BigQuery Connector per SAP cambia il nome in field_123.

Per ulteriori informazioni sulla convenzione di denominazione BigQuery per i campi, vedi Nomi delle colonne.

Mappatura dei tipi di dati

Per impostazione predefinita, BigQuery Connector per SAP assegna tipi di dati al target Campi BigQuery basati sul tipo di tipo SAP o il tipo di dati SAP del campo SAP di origine.

Quando configuri la replica, puoi visualizzare i tipi di dati sul campo schermata di mappatura della transazione /GOOG/SLT_SETTINGS. La BigQuery Connector per SAP archivia le tue impostazioni in /GOOG/BQ_FIELD di configurazione automatica.

Prima di creare una tabella, puoi modificare il tipo di dati predefinito a un diverso tipo di dati BigQuery nella colonna Elemento di dati esterni di schermata di mappatura dei campi.

Tipi di dati che richiedono una gestione speciale

Diversi tipi di dati SAP richiedono una gestione speciale per poter essere rappresentati in modo accurato nella tabella BigQuery di destinazione.

Alcuni di questi tipi di dati devono essere gestiti autonomamente. La BigQuery Connector per SAP si occupa degli altri al posto tuo.

Booleani

Per i valori booleani, SAP utilizza il tipo di dati CHAR, che per impostazione predefinita BigQuery Connector per SAP viene mappato al tipo di dati STRING nel nella tabella BigQuery target.

Di conseguenza, per i valori booleani, quando configuri la replica utilizzando la transazione /GOOG/SLT_SETTINGS, ti servono per modificare il tipo di dati predefinito assegnata per i campi booleani da STRING a BOOLEAN nell' schermata di mappatura dei campi.

Timestamp

Per i timestamp, SAP utilizza i tipi di dati P (decimale pacchettizzato) o DEC (decimale) che, per impostazione predefinita, BigQuery Connector per SAP mappa NUMERIC nella tabella BigQuery di destinazione.

Di conseguenza, per i timestamp, quando configuri la replica utilizzando la transazione /GOOG/SLT_SETTINGS, ti servono per modificare il tipo di dati predefinito per i campi timestamp da NUMERIC a TIMESTAMP oppure TIMESTAMP (LONG) nella schermata di mappatura dei campi.

X tipo di SAP

Il tipo di tipo SAP X è esadecimale ed è rappresentato dal valore RAW, Tipi di dati SAP RAWSTRING o LRAW. Per impostazione predefinita, BigQuery Connector per SAP mappa questi tipi di dati a STRING nella finestra BigQuery di origine .

Se hai bisogno di un campo di origine con tipo SAP X da mappare a BYTES devi modificare l'assegnazione predefinita del tipo di dati per il campo nella schermata di mappatura dei campi della transazione /GOOG/SLT_SETTINGS.

In SAP viene talvolta utilizzato anche il tipo di tipo SAP X per rappresentare i numeri interi. In questo caso, BigQuery Connector per SAP controlla il tipo di dati del campo di origine per uno dei tipi di dati SAP per i numeri interi, INT1, INT2 INT4, INT8 e assegna il tipo di dati INTEGER nel target Tabella BigQuery.

y tipo di SAP

Il tipo di tipo SAP y è una stringa di byte ed è rappresentato da RAW, Tipi di dati SAP RAWSTRING o LRAW. Per impostazione predefinita, BigQuery Connector per SAP mappa questi tipi di dati a STRING nella finestra BigQuery di origine .

Se hai bisogno di un campo di origine con tipo SAP y da mappare a BYTES devi modificare l'assegnazione predefinita del tipo di dati per il campo nella schermata di mappatura dei campi della transazione /GOOG/SLT_SETTINGS.

Mappatura del tipo di dati predefinito

La tabella seguente mostra la conversione predefinita del tipo di dati del BigQuery Connector per SAP:

Tipo di SAP Tipo di dati SAP Tipo di dati BigQuery Note
b (numero intero a 1 byte)
s (numero intero a 2 byte)
I (numero intero a 4 byte)
8 (numero intero a 8 byte)
INT1
INT2
INT4
INT8
INTEGER
F (in virgola mobile) FLTP FLOAT
P (compresso) CURR
DEC
QUAN
NUMERIC Per impostazione predefinita, il tipo SAP P è mappato al Tipo di dati BigQuery NUMERIC e convertito in un numero in formato esterno.
a (numero in virgola mobile decimale, 16 posizioni) DECFLOAT16
NUMERIC
e (numero in virgola mobile decimale, 16 posizioni) DECFLOAT34
NUMERIC
N (numerico) NUMC STRING
X (esadecimale)
y (stringa di byte)
RAW
RAWSTRING
LRAW
STRING Se il tipo di tipo SAP è X, ma il nome del tipo di dati copre pattern 'INT*' (INT1, INT2, INT4), un elemento dati di origine viene sostituito con un nuovo elemento di dati TYPINT8 con TYPEKIND '8', che è mappato al tipo di dati BigQuery INTEGER.
C (carattere)
g (stringa di caratteri)
? (sequenza)
& (clike)
CHARSTRING STRING
D (data) DATS DATE
T (orario) TIMS TIME

Licenze

BigQuery Connector per SAP è stato reso disponibile come "Software" nel contratto che regola l'utilizzo della Google Cloud Platform, tra cui i Termini specifici del servizio disponibili all'indirizzo https://cloud.google.com/terms/service-terms. Senza alcuna limitazione ai generalità dei termini precedenti, non puoi modificare o distribuire BigQuery Connector per SAP senza un'esplicita autorizzazione scritta di Google.

Il software BigQuery Connector per SAP è offerto senza costi. Per chiarezza, l'uso da parte dell'utente di altro "Software" e "Servizi" ai sensi del contratto che disciplina l'utilizzo della Google Cloud Platform, ad esempio BigQuery e l'API di flussi di dati BigQuery, potrebbe comportare dei costi.

BigQuery Connector per SAP non include alcuna licenza per il software SAP, incluso, senza alcuna limitazione, SAP LT Replication Server; acquista separatamente una licenza appropriata per il software SAP.

Ciclo di vita dell'assistenza

Google Cloud supporta e gestisce le principali di BigQuery Connector per SAP per un periodo di almeno 12 mesi dopo la pubblicazione di un avviso di deprecazione su pagina delle note di rilascio per SAP su Google Cloud, la versione principale precedente.