Este guia de planejamento fornece aos administradores do SAP e do Google Cloud as informações necessárias para planejar a replicação de dados SAP no BigQuery usando a versão 2.8 (mais recente) do BigQuery Connector para SAP com SAP LT Replication Server.
O conector do BigQuery para SAP instala no SAP Landscape Transformation Replication Server (SAP LT Replication Server) e permite a replicação quase em tempo real dos dados SAP diretamente no BigQuery.
Com os dados no BigQuery, é possível executar análises em tempo real com inteligência artificial ou machine learning em dados de aplicativos SAP em tempo real. No BigQuery, também é possível integrar seus dados da SAP com dados de outras fontes.
Neste guia, abordamos os seguintes tópicos:
- Visão geral do BigQuery Connector para SAP
- Arquiteturas de instalação
- Requisitos de software
- Segurança
- Rede
- Planejamento de desempenho
- Opções de mapeamento de tabela e campo
- Ciclo de vida do suporte
Para instruções passo a passo sobre como instalar e configurar replicações do SAP LT Replication Server com o BigQuery Connector para SAP, consulte o Guia de instalação e configuração do conector do BigQuery para SAP.
Para informações sobre o BigQuery, consulte O que é o BigQuery?.
Para informações sobre aceleradores de solução para modelagem de dados SAP no BigQuery, consulte o Google Cloud Cortex Framework.
Visão geral do BigQuery Connector para SAP
O BigQuery Connector para SAP usa as interfaces e os recursos padrão do SAP Landscape Transformation Replication Server e aceita todas as origens de dados compatíveis com o SAP LT Replication Server.
O conector do BigQuery para SAP é fornecido pelo Google Cloud na forma de arquivos de transporte que você instala no SAP LT Replication Server.
Faça o download do pacote de instalação que contém os arquivos de transporte antes de instalar o BigQuery Connector para SAP. Embora o BigQuery Connector para SAP seja oferecido sem custos financeiros, você precisa de uma conta do Cloud Billing para receber o pacote de instalação. Saiba mais em Fazer download do pacote de instalação.
O BigQuery Connector para SAP é uma implementação do Google Cloud de um complemento de negócios (BAdI, na sigla em inglês) SAP para o SAP LT Replication Server. O BigQuery Connector para SAP é desenvolvido pelo Google Cloud seguindo o processo do SDK do SAP LT Replication Server.
O BigQuery Connector para SAP utiliza a funcionalidade de captura de dados de alteração do servidor de replicação SAP LT.
Processamento de dados
O BigQuery Connector para SAP envia os registros do SAP diretamente para o BigQuery do SAP LT Replication Server sem nenhuma camada ou ferramenta intermediária de integração de dados.
Após receber os registros, o BigQuery os anexa à tabela em um modo somente de inserção. Se o BigQuery receber uma atualização em um registro que já existe nele, o BigQuery inserirá uma nova instância do registro nessa tabela sem modificar a instância atual. A instância do registro inserida mais recentemente reflete o estado atual do registro na tabela de origem.
O BigQuery Connector para SAP permite apenas uma transformação de dados mínima, em conformidade com umaextrair, carregar, transformar modelo (ELT), e não umaextrair, transformar e carregar (ETL, na sigla em inglês). Para mais informações sobre esses modelos, consulte Procedimentos e padrões de pipelines de dados.
O BigQuery Connector para SAP sugere automaticamente campos, nomes de campos e tipos de dados da tabela de destino com base nos dados de origem. Antes de criar a tabela de destino do BigQuery, modifique os valores sugeridos conforme necessário.
Os nomes sugeridos para os campos de destino são baseados nas descrições dos campos na tabela de origem. Para mais informações, consulte Opções de nomenclatura padrão para campos.
O BigQuery Connector para SAP sugere automaticamente os tipos de dados do BigQuery para a maioria dos campos, mas os valores booleanos, de carimbo de data/hora e hexadecimais não podem ser interpretados de maneira automática. Portanto, você precisa mapeá-los manualmente. Para mais informações, consulte Mapeamento de tipo de dados.
O BigQuery Connector para SAP oferece vários locais de aprimoramento em que é possível inserir suas próprias melhorias personalizadas no código do BigQuery Connector para SAP. Para mais informações, consulte Saídas de aprimoramento.
Se uma tabela de destino ainda não existir no BigQuery, o BigQuery Connector para SAP será criado.
Depois que a replicação começa, os registros SAP são adicionados ao BigQuery no modo somente inserção.
Segurança
Você controla o acesso ao BigQuery Connector para SAP no SAP LT Replication Server usando o sistema de autorização baseado em papéis do SAP LT Replication Server. Quando você instala o BigQuery Connector para SAP, os arquivos de transporte incluem papéis personalizados do BigQuery Connector para SAP. Para mais informações sobre os papéis personalizados, consulte Segurança da SAP.
É possível controlar o acesso ao Google Cloud e ao BigQuery usando a autenticação e autorização do Identity and Access Management e a autenticação da API BigQuery. Veja mais informações em Segurança do Google Cloud.
Para a comunicação entre o BigQuery Connector para SAP e o BigQuery, o BigQuery Connector para SAP usa SSL e comunicação HTTPS de ponta a ponta.
Para informações da SAP sobre autorização, consulte o Guia de segurança da sua versão do SAP LT Replication Server no portal de ajuda da SAP.
Escalabilidade
Para volumes muito grandes, como bilhões de registros de dados com milhões de deltas, o BigQuery Connector para SAP usa as funções de escalonamento e particionamento do SAP LT Replication Server para fazer a extração de dados em paralelo em escala. Para mais informações, consulte o Guia de dimensionamento da sua versão do SAP LT Replication Server no portal de ajuda da SAP.
Com relação ao BigQuery, o BigQuery Connector para SAP usa a API BigQuery Streaming para escalonar o carregamento de dados.
Arquitetura de instalação
Você instala o BigQuery Connector para SAP como um complemento empresarial (BAdI) em uma instância do servidor SAP LT Replication.
A instância do SAP LT Replication Server pode estar no Google Cloud, no local ou em outro provedor de nuvem. Onde quer que o SAP LT Replication Server esteja em execução, ele deve estar o mais próximo possível do sistema de origem. Trabalhe com sua equipe de rede para garantir baixa latência e alta capacidade entre o sistema SAP de origem, o SAP LT Replication Server e o conjunto de dados do BigQuery.
As seções a seguir descrevem arquiteturas comuns e recomendadas para o BigQuery Connector para SAP.
Arquitetura para fontes de dados SAP no Google Cloud
O diagrama a seguir mostra dois exemplos de instalações do SAP LT Replication Server no Google Cloud com a fonte de dados SAP no Google Cloud.
Para mostrar um exemplo de cada arquitetura, uma instalação usa uma arquitetura independente do SAP LT Replication Server, em que o servidor é instalado em um servidor separado e o outro usa uma Arquitetura incorporada do SAP LT Replication Server, em que o SAP LT Replication Server está instalado no servidor do sistema de origem SAP.
Como as instâncias do servidor de replicação do SAP LT estão instaladas no Google Cloud, o BigQuery Connector para SAP se conecta diretamente ao endpoint da API BigQuery, sem exigir uma conexão do Cloud Interconnect ou do Cloud VPN.
No diagrama, os sistemas SAP e o BigQuery são mostrados em diferentes projetos do Google Cloud, mas é possível usar o mesmo projeto para ambos, se necessário.
Arquitetura de fontes de dados SAP no local ou em outro provedor de nuvem
O diagrama a seguir mostra dois exemplos de instalações do SAP LT Replication Server em execução no local ou em outro provedor de nuvem.
Para mostrar um exemplo de cada arquitetura, uma instalação usa uma arquitetura autônoma do SAP LT Replication Server, e a outra usa uma arquitetura incorporada.
Nos dois exemplos, o SAP LT Replication Server é instalado no mesmo ambiente que a fonte de dados SAP.
A conexão do BigQuery Connector para SAP no SAP LT Replication Server com o BigQuery é fornecida por uma conexão do Cloud Interconnect ou do Cloud VPN.
Visualização arquitetônica detalhada do fluxo de dados
O diagrama a seguir mostra onde o BigQuery Connector para SAP se encaixa no fluxo de dados do SAP LT Replication Server.
Os números no diagrama são explicados depois do diagrama.
As seguintes explicações numeradas correspondem aos números no diagrama:
- Depois que o SAP LT Replication Server é inicializado, quando os registros nas tabelas de origem são inseridos, atualizados ou excluídos, o gatilho do banco de dados registra as alterações nas tabelas de geração de registros.
- O servidor de replicação SAP LT verifica continuamente as tabelas de geração de registros em busca de novas entradas por meio de chamadas RFC.
- Se o SAP LT Replication Server encontrar novas entradas, o mecanismo de leitura lerá os registros e chamará o mecanismo de mapeamento e transformação.
- O mecanismo de mapeamento e transformação chama o mecanismo de gravação, que invoca o conector do BigQuery para SAP.
- O conector do BigQuery para SAP realiza as seguintes ações:
- Mapeia os dados do SAP para o nome da tabela de destino, os nomes de campo e os tipos de dados do BigQuery.
- Cria a tabela do BigQuery, se necessário.
- Envia os registros para o BigQuery em partes por meio da API de streaming do BigQuery.
- Após o recebimento dos dados, o BigQuery realiza as seguintes ações:
- Executa verificações de validação.
- Insere os registros na tabela de destino.
- Envia um código de status HTTP 200 (
OK
) de volta ao conector do BigQuery para SAP.
- O BigQuery Connector para SAP transmite o código de status HTTP
OK
de volta para o SAP LT Replication Server, que exclui as entradas replicadas da tabela de geração de registros e libera recursos no sistema de origem SAP.
Requisitos de software
Esta seção descreve os requisitos de software do BigQuery Connector para SAP.
É possível instalar o BigQuery Connector para SAP no SAP LT Replication Server no Google Cloud, no local ou em nuvens públicas, como AWS, Azure e assim por diante.
Requisitos da versão de software do SAP
As versões necessárias do SAP LT Replication Server e dos sistemas de origem da SAP diferem quando você instala o SAP LT Replication Server no próprio servidor em uma arquitetura independente ou no sistema de aplicativos ABAP de origem em uma incorporação.
Os requisitos de software da SAP também são diferentes, dependendo do sistema SAP que você usa como fonte de dados: SAP S/4HANA ou SAP ECC.
Para ver as versões de software do SAP compatíveis com o Google Cloud Connector para BigQuery, selecione a guia que corresponde ao seu sistema de origem SAP:
S/4HANA
Arquitetura de instalação | System | Versões compatíveis | Complemento da interface do usuário (IU) |
---|---|---|---|
Independente | Sistema de origem |
|
Verifique se o complemento de interface é a versão mais recente compatível com sua versão do SAP NetWeaver, conforme recomendado pela SAP. /UI2/CL_JSON: como PL12 ou posterior. Para informações sobre a versão mínima necessária do complemento de interface, consulte a seção "Pacote de suporte" na Nota SAP 22798102 - Correções de /UI2/CL_JSON - PL12. Para informações sobre a compatibilidade do complemento de interface com o SAP NetWeaver, consulte:
|
Sistema do servidor de replicação do SAP LT |
|
||
Incorporado | Sistema de origem |
|
ECC
Arquitetura de instalação | System | Versões compatíveis | Complemento da interface do usuário (IU) |
---|---|---|---|
Independente | Sistema de origem |
|
Verifique se o complemento de interface é a versão mais recente compatível com sua versão do SAP NetWeaver, conforme recomendado pela SAP. /UI2/CL_JSON: como PL12 ou posterior. Para informações sobre a versão mínima necessária do complemento de interface, consulte a seção "Pacote de suporte" na Nota SAP 22798102 - Correções de /UI2/CL_JSON - PL12. Para informações sobre a compatibilidade do complemento de interface com o SAP NetWeaver, consulte:
|
Sistema do servidor de replicação do SAP LT |
|
||
Incorporado | Sistema de origem |
|
Requisitos de sistema operacional
O conector do BigQuery para SAP é compatível com qualquer sistema operacional compatível com o SAP LT Replication Server.
Para informações sobre quais sistemas operacionais são compatíveis com o SAP LT Replication Server, consulte a Matriz de disponibilidade de produtos SAP (em inglês).
Origens de replicação compatíveis
O BigQuery Connector para SAP é compatível com a maioria dos sistemas de origem de aplicativos e bancos de dados mais usados, que são compatíveis com o SAP LT Replication Server.
Origens de aplicativos SAP compatíveis
É possível replicar dados das fontes de aplicativos SAP compatíveis com o SAP LT Replication Server. O BigQuery Connector para SAP dá suporte às principais versões de aplicativos empresariais em manutenção como fontes de dados, além de aplicativos legados mais antigos. Alguns dos aplicativos SAP compatíveis incluem:
- SAP Business Suite 7
- S/4HANA
- Aplicativos SAP em execução no SAP NetWeaver
Para replicar dados do SAP Business Warehouse, a SAP não recomenda o uso do SAP LT Replication Server. Para mais informações da SAP, consulte a Nota SAP 2525755.
Não há suporte para aplicativos SAP Cloud, como S/4HANA Cloud, SAP Ariba, SAP SuccessFactors e outros.
Fontes de dados compatíveis
Só é possível replicar tabelas transparentes ou em clusters.
O BigQuery Connector para SAP não é compatível com as visualizações de replicação do SAP Core Data Services (CDS).
Na ferramenta de design de informações, o BigQuery é compatível a partir do SAP BusinessObjects Business Intelligence 4.3 como fonte de dados. É possível consultar dados armazenados no BigQuery usando as ferramentas de relatórios do SAP BusinessObjects, como SAP BusinessObjects Web Intelligence e SAP Crystal Reports for Enterprise, entre outras.
Para mais informações sobre a verificação de compatibilidade da Nota SAP 2750723 - Suporte do Google BigQuery em produtos de plataforma de BI SAP (em inglês).
Segurança
Ao implementar a segurança para replicação de dados do SAP LT Replication Server para o BigQuery, é necessário implementar controles de segurança no SAP LT Replication Server, no sistema operacional do host SAP LT Replication Server e no Google Cloud.
Segurança do SAP
Para controlar quem pode configurar e trabalhar com o BigQuery Connector para SAP no SAP LT Replication Server, use a autorização padrão baseada em papéis do SAP.
O conector do BigQuery para SAP fornece o objeto de autorização ZGOOG_MTID
como parte da instalação do transporte.
Para configurar e executar jobs de replicação de dados que usam o conector do BigQuery para SAP, é possível definir um papel que tenha acesso administrativo no SAP LT Replication Server, conforme descrito em Criar papéis e autorizações do SAP para BigQuery Connector para SAP.
Por exemplo, é possível definir um papel chamado ZGOOGLE_BIGQUERY_ADMIN
que tenha todas as autorizações SAP e ZGOOG_MTID
autorizações necessárias para configurar e operar a replicação de dados no BigQuery usando o
Conector do BigQuery para SAP.
Para mais informações da SAP sobre papéis e autorização, consulte o Guia de segurança da sua versão do servidor de replicação do SAP LT no portal de ajuda da SAP (em inglês).
Segurança do Google Cloud
A implementação da segurança no Google Cloud para o conector do BigQuery para SAP pode envolver os seguintes controles de segurança:
- Permissões de gerenciamento de identidade e acesso (IAM), papéis, contas de serviço e chaves.
- Controles do BigQuery definidos no nível do conjunto de dados ou da tabela.
- Controles de serviço de nuvem privada virtual (VPC) para serviços baseados em API, como o BigQuery.
- Endpoints do Private Service Connect que permitem o consumo particular de serviços, como o BigQuery, em redes VPC.
Google Cloud Identity and Access Management
Para a autenticação e a autorização do BigQuery Connector para SAP, você precisa de uma conta de serviço do IAM no projeto do Google Cloud que contenha o conjunto de dados do BigQuery.
Para a autorização interagir com os recursos do BigQuery, você concede papéis à conta de serviço que contém permissões para interagir com o BigQuery no projeto do BigQuery.
Se você criar a conta de serviço no projeto do BigQuery, poderá conceder os papéis necessários ao criá-la. Além disso, a conta de serviço se tornará um principal no projeto do BigQuery automaticamente.
As permissões que o BigQuery Connector para SAP precisa para acessar o BigQuery estão contidas nos seguintes papéis do IAM:
- Editor de dados do BigQuery
- Usuário de jobs do BigQuery
Se o servidor de replicação do SAP LT estiver em execução em uma VM do Compute Engine, você também precisará conceder o papel Criador de token da conta de serviço à conta de serviço da VM do host.
Se o SAP LT Replication Server estiver sendo executado no local ou em outra plataforma de nuvem, além de criar uma conta de serviço, você também precisará criar uma chave de conta de serviço para o BigQuery Connector para SAP. O administrador do SAP instala a chave no host do servidor SAP LT Replication. Quando o conector do BigQuery para SAP se conecta ao BigQuery, o servidor de replicação do SAP LT usa a chave da conta de serviço para fazer a autenticação com o Google Cloud.
Uma chave de conta de serviço não é necessária quando o SAP LT Replication Server está em execução no Google Cloud.
Para mais informações sobre o IAM, contas de serviço, papéis e permissões, consulte:
- Contas de serviço
- Como autenticar como uma conta de serviço
- Práticas recomendadas de conta de serviço
- Introdução à API BigQuery para autenticação
Controles de acesso de conjuntos de dados e tabelas do BigQuery
Além dos controles do IAM, também é possível controlar o acesso usando o BigQuery. No BigQuery Connector para SAP, é possível definir controles de acesso em conjuntos de dados e tabelas.
Veja mais informações em:
VPC Service Controls
No Google Cloud, as regras de firewall da VPC não são aplicáveis a interações baseadas em API com o BigQuery. Em vez disso, use os controles de serviço da nuvem privada virtual (VPC, na sigla em inglês) para restringir o tráfego.
Se a carga de trabalho da SAP estiver em execução no Google Cloud, defina perímetros de serviço da VPC para implementar o VPC Service Controls. Para mais informações, consulte Perímetros de serviço.
Se a carga de trabalho da SAP não estiver sendo executada no Google Cloud, implemente o VPC Service Controls como parte da configuração do Acesso privado do Google para hosts no local.
Para mais informações sobre segurança de rede para o BigQuery, consulte Segurança de rede.
Endpoints do Private Service Connect
Se você quiser configurar endpoints na sua rede VPC que permitam o consumo particular de serviços gerenciados pelo Google, como o BigQuery, use o Private Service Connect.
O Private Service Connect permite criar endpoints particulares que usam endereços IP internos de um intervalo CIDR de VPC para acessar APIs e serviços do Google. Também é possível usar o Private Service Connect para criar um nome DNS particular personalizado para a API de streaming do BigQuery. Para mais informações, consulte Private Service Connect.
Quando o BigQuery Connector para SAP é executado em um host fora do Google Cloud, não há suporte para o Private Service Connect.
Mais informações sobre a segurança do Google Cloud
Para obter mais informações sobre contas de serviço, papéis e permissões, consulte:
- Contas de serviço
- Como criar e ativar contas de serviço nas instâncias
- Visão geral sobre segurança de dados e governança de dados
Rede
Ao planejar o caminho de rede para replicação no BigQuery, considere os seguintes pontos:
- Largura de banda
- A latência e o impacto dela no consumo de recursos no host do SAP LT Replication Server
- O volume de dados e o impacto disso em qualquer carga de rede existente
- Se sua carga de trabalho da SAP não estiver sendo executada no Google Cloud, que tipo de conexão usar: Cloud Interconnect ou Cloud VPN
Como se conectar ao Google Cloud
Se os sistemas SAP não estiverem sendo executados no Google Cloud e você ainda não tiver uma conexão dos sistemas SAP com o Google Cloud, será necessário estabelecer uma conexão e configurar o acesso privado às APIs do Google Cloud de dados.
É possível estabelecer uma conexão com o Google Cloud usando o Cloud Interconnect ou o Cloud VPN.
O Cloud Interconnect normalmente oferece largura de banda maior, menor latência e menor contenção de rede do que o Cloud VPN. Para jobs de replicação de alto volume e sensíveis ao desempenho, o Google Cloud recomenda o Cloud Interconnect para BigQuery Connector para SAP.
Com o Cloud VPN, os dados de replicação são transmitidos pela Internet pública, portanto, a contenção de rede é menos previsível e as latências, em geral, são mais altas.
Independentemente da opção de conexão escolhida, é necessário analisar todo o tráfego que você espera que a conexão seja compatível. Determine se a conexão tem largura de banda e velocidade de rede suficientes para aceitar jobs de replicação e outras cargas de trabalho sem afetar negativamente nenhuma.
Conexões lentas podem aumentar o consumo de recursos no servidor de origem do SAP e no host do servidor de replicação do LT da SAP, estendendo o tempo necessário para a conclusão dos jobs e mantendo os recursos necessários para replicação vinculados por períodos mais longos.
Para mais informações sobre as opções de conexão, siga estas etapas:
Para usar um servidor proxy para enviar as solicitações HTTP ao Google Cloud,
recomendamos que você use destinos do RFC definidos na
transação SM59
.
Destinos do RFC
Os arquivos de transporte do BigQuery Connector para SAP contêm os seguintes exemplos
de destinos do RFC na transação SM59
. Esses destinos do RFC são conexões HTTP
com servidores externos (tipo G
) e se conectam ao endpoint
da API pública do serviço respectivo.
Amostra de nome de destino do RFC | Host de destino (endpoint da API) | Observações |
---|---|---|
GOOG_BIGQUERY |
https://bigquery.googleapis.com |
Este destino do RFC é destinado à API BigQuery. |
GOOG_IAMCREDENTIALS |
https://iamcredentials.googleapis.com |
Este destino do RFC é destinado à API do IAM. |
GOOG_OAUTH2_TOKEN |
https://googleapis.com/oauth2 |
Este destino do RFC é destinado ao endpoint do Google Cloud para autenticação baseada em OAuth 2.0. Ele é usado para cargas de trabalho SAP que são executadas fora do Google Cloud e somente quando você quer autenticar no Google Cloud usando JSON Web Token (JWT). |
O uso de destinos do RFC para se conectar ao Google Cloud oferece as seguintes vantagens:
Se você usa um servidor proxy no cenário do SAP e quer usar o mesmo para enviar as solicitações HTTP ao Google Cloud, configure o servidor proxy no destino RFC.
Se você quiser permitir o acesso às APIs e serviços do Google Cloud por meio de endpoints do Private Service Connect, é possível criar esses endpoints no projeto do Google Cloud e, em seguida, especificá-los nos destinos do RFC.
É possível usar a compactação HTTP, recomendada pelo Google Cloud para replicações entre regiões, em que o sistema de origem SAP e o conjunto de dados do BigQuery são colocados em diferentes regiões do Compute Engine.
Se quiser usar destinos RFC para se conectar a serviços ou APIs do Google Cloud, você
precisa criar entradas na tabela /GOOG/SERVIC_MAP
que mapeiem os destinos
do RFC para a tabela /GOOG/CLIENT_KEY
. Para ver as etapas de configuração, consulte o guia de instalação e configuração do BigQuery Connector para SAP para seu cenário.
Compactação HTTP
Ao usar destinos RFC para configurar a conexão entre o BigQuery Connector para SAP e as APIs do Google Cloud, você pode usar a opção Compactação para compactar o corpo da solicitação HTTP. A compactação HTTP só está
disponível quando você configura seus destinos RFC para usar HTTP 1.1
.
Antes de ativar a compactação HTTP no seu ambiente de produção, analise os parâmetros do perfil que afetam a compactação HTTP em um ambiente de teste. Para mais informações da SAP, consulte a Nota SAP 1037677: a compactação HTTP compacta apenas alguns documentos.
Largura de banda
Verifique se a conexão de rede entre o SAP LT Replication Server e o BigQuery tem largura de banda suficiente para atender ao volume de dados na velocidade necessária.
Conexões de rede mais lentas aumentam a latência da replicação de dados, o que aumenta os recursos que a replicação usa no sistema SAP de origem.
Para instalações produtivas, o Google Cloud recomenda uma conexão do Cloud Interconnect. Também é possível usar o Cloud VPN.
Latência
Para reduzir a latência na conexão de rede, crie o conjunto de dados de destino do BigQuery o mais próximo possível do sistema SAP LT Replication Server e do sistema de origem SAP. Se o sistema SAP de origem estiver em execução no Google Cloud, crie o conjunto de dados do BigQuery na mesma região do Google Cloud que o sistema SAP de origem.
Teste a latência antes de migrar a instalação para um ambiente de produção.
Para mais informações sobre o desempenho da rede, consulte Desempenho da conexão de rede.
Controles de acesso à rede
É possível implementar controles de acesso à rede em ambos os lados da conexão entre o SAP LT Replication Server e o Google Cloud.
Controles de acesso à rede do Google Cloud
O conector do BigQuery para SAP se comunica com o BigQuery por meio de um endpoint da API, que não está sujeito às regras de firewall da VPC do Google Cloud.
Em vez disso, use o VPC Service Controls para restringir o tráfego.
Para mais informações sobre segurança de rede para o BigQuery, consulte Segurança de rede.
Controles de acesso à rede do host do SAP LT Replication Server
No host do SAP LT Replication Server, é necessário garantir que todos os firewalls ou proxies permitam o tráfego de saída do servidor para o endpoint da API BigQuery. Especificamente, o SAP LT Replication Server precisa ser capaz de acessar as seguintes APIs do Google Cloud:
- https://bigquery.googleapis.com
- https://iamcredentials.googleapis.com
Se você quiser usar endpoints do Private Service Connect para
acessar a API streaming do BigQuery, configure os endpoints do Private Service Connect na tabela
/GOOG/SERVIC_MAP
. Para mais informações, consulte o guia de instalação e
configuração do seu cenário.
Planejamento de desempenho
O desempenho dos carregamentos iniciais e dos jobs de replicação entre o SAP LT Replication Server e o BigQuery é afetado por vários fatores em diferentes pontos ao longo do caminho de replicação.
No entanto, determinados fatores básicos, como a distância entre o SAP LT Replication Server e o conjunto de dados do BigQuery, ou a largura de banda da conexão com o Google Cloud, têm maior impacto no desempenho do que a maioria dos outros fatores.
Práticas recomendadas gerais de desempenho
Para ter o melhor desempenho, incorpore as recomendações a seguir na configuração do servidor de replicação do SAP LT:
- Execute a carga de trabalho da SAP, incluindo o sistema de origem da SAP e o SAP LT Replication Server, no Google Cloud.
- Se a carga de trabalho da SAP estiver no Google Cloud, crie o conjunto de dados do BigQuery na mesma região que a carga de trabalho da SAP.
- Se não for possível executar sua carga de trabalho da SAP no Google Cloud:
- Crie seu conjunto de dados do BigQuery na região do Google Cloud mais próxima da sua carga de trabalho da SAP.
- Conecte-se ao Google Cloud usando o Cloud Interconnect.
- Para evitar a contenção de recursos, use hosts dedicados separados para o sistema de origem e o servidor de replicação do SAP LT.
- Dimensione o sistema do SAP LT Replication Server de acordo com sua carga de trabalho de acordo com o Guia de dimensionamento da sua versão do SAP LT Replication Server no portal de ajuda da SAP.
- Use as seguintes configurações de replicação do SAP LT Replication Server:
- Jobs paralelos.
- Tipo de leitura 1, se possível. Para mais informações, consulte Desempenho e as configurações avançadas de replicação LTRS.
- Configure o BigQuery Connector para SAP com:
- Compactação de registro padrão.
- Tamanho de bloco padrão.
- Ao mapear campos para sua tabela do BigQuery, evite nomes personalizados, se possível.
Veja mais informações em:
- Considerações sobre o desempenho do servidor SAP LT Replication
- Desempenho da conexão de rede
- Transmissão de dados
- Compactação de registro
Características adicionais que podem afetar o desempenho
Muitas características da configuração e dos dados podem afetar o desempenho. Talvez você não consiga modificar algumas destas características. Essas características incluem:
- No servidor de origem:
- O número de CPUs.
- A quantidade de memória.
- O banco de dados usado, como SAP HANA, SAP ASE, IBM Db2 ou outros
- O número de colunas na tabela de origem.
- A quantidade de dados que cada registro mantém.
- Os metadados da tabela, como o comprimento dos nomes de campos.
- O número de processos de trabalho de caixa de diálogo.
- No servidor de replicação do SAP LT:
- O número de CPUs.
- A quantidade de memória.
- Outras cargas de trabalho que o host pode estar executando.
- Caixa de diálogo do SAP e processos de trabalho em segundo plano.
- O tipo de arquitetura de instalação do SAP LT Replication Server. Para mais informações, consulte Instalação autônoma (recomendado) ou incorporada do SAP LT Replication Server.
- O número de jobs em segundo plano em execução no sistema SAP LT Replication Server.
- O número de jobs em segundo plano alocados para a transferência em massa
na guia Administração da transação
LTRC
. - As configurações de desempenho da transação
LTRS
, incluindo tipo de leitura e tamanho da porção.
- Na configuração de replicação do BigQuery (transação
/GOOG/SLT_SETTINGS
):- Indica se os nomes personalizados são especificados para os campos de destino. O processamento dos nomes de campos de destino do BigQuery pode ter um pequeno impacto no desempenho.
- Se a compactação de registros está ativada.
- Conector do BigQuery para tamanho do BigQuery, que pode afetar o número total de solicitações HTTP enviadas.
Considerações sobre desempenho do servidor SAP LT Replication
As seções a seguir discutem as opções de desempenho relacionadas à configuração do SAP LT Replication Server.
Desempenho e a arquitetura de instalação do SAP LT Replication Server
Uma arquitetura autônoma, em que o SAP LT Replication Server é instalado em seu próprio servidor dedicado, geralmente proporciona um desempenho melhor do que uma arquitetura incorporada, em que o SAP LT Replication Server está instalado no mesmo servidor que o sistema de origem de dados.
Em uma arquitetura incorporada, o SAP LT Replication Server precisa compartilhar os recursos do servidor com o sistema de origem do SAP.
Mesmo com uma arquitetura autônoma, a CPU e a memória do host, bem como quaisquer outras cargas de trabalho que possam estar em execução no servidor, podem afetar o desempenho de uma instância do SAP LT Replication Server.
Configurações de replicação avançada de desempenho e LTRS
O desempenho dos carregamentos iniciais e da replicação é afetado pelas
configurações especificadas na tabela de origem na
transação LTRS
em Configurações avançadas de replicação.
Para orientação sobre ajuste de desempenho, especialmente para otimizar cargas iniciais ou replicação de alto volume, consulte o Guia de otimização de desempenho do SAP LT Replication Server no Portal de ajuda da SAP de dados.
O Google Cloud recomenda as seguintes especificações na seção Configurações avançadas de replicação > Desempenho geral da transação LTRS
:
Para carregamentos iniciais da maioria dos tipos de tabela, especifique 1 Range Cálculo como o Read Type. Para tabelas muito grandes para o Cálculo de intervalo 1, especifique Tipo de leitura 5.
Para replicações, em Configurações ativas:
- Para replicações mais rápidas, especifique Intervalos automáticos.
- Para replicações mais confiáveis, especifique Sem intervalos.
A tabela a seguir sugere configurações para alguns cenários comuns.
Tipo de tabela | Tipo de leitura recomendado |
---|---|
Transparente (pequena a média) | Tipo de leitura 1 - Cálculo do intervalo |
Transparente (grande) | Somente se o Tipo de leitura 1 não funcionar, o Tipo de leitura 5 - Cálculo do intervalo |
Tabela de clusters | Tipo de leitura 4 - Fila do remetente |
Desempenho da conexão de rede
A largura de banda e a latência da conexão entre o sistema SAP LT Replication Server e o BigQuery podem afetar o desempenho geral da replicação no BigQuery.
O impacto não afeta apenas a velocidade de replicação, mas a quantidade de recursos consumidos pelo SAP LT Replication Server e pelo sistema de origem, já que quanto mais tempo leva para receber a confirmação da replicação do BigQuery, o SAP LT Replication Server e o sistema de origem mais longos manterão os recursos do host.
Se sua carga de trabalho da SAP estiver sendo executada no local ou em outro provedor de nuvem, o Google Cloud recomendará o uso de uma conexão do Cloud Interconnect, que fornece alta largura de banda e baixa latência sem ter que competir com tráfego na Internet pública.
É possível usar o Cloud VPN para se conectar ao Google Cloud e ao BigQuery. No entanto, com uma conexão VPN, suas replicações precisam competir com o tráfego geral da Internet.
Se a carga de trabalho da SAP estiver sendo executada no Google Cloud, o Google Cloud recomenda localizar o SAP LT Replication Server e o conjunto de dados do BigQuery na mesma região. Se o SAP LT Replication Server e o BigQuery estiverem em regiões diferentes, a latência normalmente será maior, e o desempenho normalmente será pior. Para mais informações sobre como escolher uma região, consulte Como escolher uma região e zona.
Transmissão de dados
Geralmente, você quer enviar o máximo de dados possível em cada solicitação HTTP, para reduzir o número geral de solicitações HTTP e a sobrecarga de processamento relacionada.
Em alguns casos, no entanto, talvez seja necessário reduzir a quantidade de dados enviados, seja pelo tamanho dos registros em uma tabela específica ou porque você atingiu um limite de cota ou outro limite no BigQuery.
É possível controlar a quantidade de dados enviados em cada solicitação das seguintes maneiras:
- Ajuste a quantidade de dados (o tamanho da parte) que o SAP LT Replication Server envia para o BigQuery Connector para SAP.
- Ajuste a quantidade de dados (o tamanho do bloco) que o BigQuery Connector para SAP envia ao BigQuery.
- Ajuste as cotas para inserções de streaming no seu projeto do BigQuery.
Como ajustar a quantidade de dados enviados pelo SAP LT Replication Server
O servidor de replicação do SAP LT envia registros do sistema de origem para o BigQuery Connector para SAP em partes. Cada parte é tratada como um job de carga ou replicação separado que consome recursos do servidor até ser concluída.
Geralmente, se você aumentar o tamanho da parte do SAP LT Replication Server, diminuirá o número de processos do SAP LT Replication Server, bem como a sobrecarga associada a eles.
Tamanho da porção e do bloco
As partes do SAP LT Replication Server são dimensionadas em bytes ou como um produto de bytes e registros. O conector do BigQuery para os blocos do SAP é dimensionado pelo número de registros que eles podem conter. O tamanho do byte de um bloco varia de acordo com vários fatores, incluindo o número de campos nos registros e a quantidade de dados que cada registro mantém.
Se o tamanho da parte do SAP LT Replication Server for maior que o tamanho do bloco do BigQuery Connector para SAP, o BigQuery Connector para SAP enviará várias partes para cada parte até que todos os registros da parte sejam enviados.
Se o tamanho da parte for menor que o tamanho da parte, o BigQuery Connector para SAP enviará apenas uma parte por parte. Cada bloco contém apenas o número de registros enviados em cada parte, independentemente do tamanho do bloco definido no BigQuery Connector para SAP.
O ideal é definir um tamanho do sistema no SAP LT Replication Server que permita que o BigQuery Connector para SAP crie os maiores blocos possíveis sem exceder o limite do BigQuery no número de bytes em cada solicitação HTTP.
Para mais orientações sobre como especificar um tamanho de bloco, consulte Tamanho do bloco no conector do BigQuery para SAP.
Tamanho da porção no SAP LT Replication Server
Para alterar o tamanho de parte padrão usado pelo servidor de replicação SAP LT,
execute a transação LTRS
e ajuste o valor do campo Tamanho do pacote
de Configurações avançadas de replicação em Opções de desempenho.
Para mais informações, consulte o Guia de otimização de desempenho do SAP LT Replication Server no portal de ajuda da SAP.
Tamanho dos fragmentos no conector do BigQuery para SAP
O conector do BigQuery para SAP envia dados ao BigQuery como blocos de registros. Recomendamos que você use o tamanho de bloco padrão com o BigQuery Connector para SAP, que é de 10.000 registros. Se os registros em uma tabela de origem contiverem muito poucos campos ou os campos tiverem valores de dados de tamanho muito pequeno, você poderá usar um tamanho de bloco maior até o tamanho máximo de bloco permitido pelo BigQuery Connector para SAP, que é de 50.000 registros.
Se o número de registros em um determinado bloco for resolvido para um tamanho de byte que excede o limite do BigQuery para o tamanho de byte das solicitações HTTP, você poderá receber umquotaExceeded
erro
ou uminvalid
erro.
Isso pode acontecer se os registros em uma tabela de origem contiverem muitos campos ou houver muitos dados.
Se você receber um erro relacionado ao tamanho do bloco, reduza o tamanho do bloco especificado na configuração de transferência em massa para essa tabela. Como alternativa, é possível ativar o tamanho dinâmico do bloco para essa tabela e ajustá-lo automaticamente. Para ver mais informações, consulte Tamanho dinâmico do bloco.
Se você não tiver ativado o tamanho dinâmico do bloco, para tabelas de origem SAP, como
MSEG
, ACDOCA
e MATDOC
, que podem ter registros grandes com muitos
campos por registro, talvez seja necessário especificar um bloco de até 2.000.
É possível especificar um tamanho de bloco executando a transação /GOOG/SLT_SETTINGS
. O tamanho do bloco é especificado no campo Tamanho do bloco na tela de atributos da tabela.
Para mais orientações sobre como especificar um tamanho de bloco, consulte:
- Se o servidor de replicação SAP LT estiver em execução em uma VM do Compute Engine, consulte Especificar atributos da tabela.
- Se o servidor de replicação SAP LT estiver em execução em um host externo ao Google Cloud, consulte Especificar atributos da tabela.
Para mais informações sobre as mensagens de erro do BigQuery, consulte Mensagens de erro.
Processamento da sobrecarga associada ao envio de partes
Cada parte enviada aciona as seguintes ações, cada uma delas gerando sobrecarga de processamento ou consumo de recursos:
- Uma coleção de registros alterados na tabela de registros no sistema de origem é enviada ao SAP LT Replication Server em uma única parte. Os registros alterados ainda não foram excluídos da tabela de registros.
- O servidor de replicação do SAP LT solicita um novo token de acesso do Google Cloud.
- O conector do BigQuery para SAP envia uma solicitação HTTP ao BigQuery para verificar a estrutura da tabela de destino.
- O BigQuery Connector para SAP envia os registros para o BigQuery em todas as partes necessárias para enviar todos os registros recebidos na parte única. Cada bloco é enviado em uma solicitação HTTP separada.
- O BigQuery processa cada bloco que recebe.
- Um código de status HTTP
OK
é retornado para o SAP LT Replication Server para cada bloco. - Depois que o BigQuery recebe todos os registros, o SAP LT Replication Server exclui os registros enviados da tabela de geração de registros, o que finalmente libera recursos no sistema de origem.
Para mais informações sobre partes e como configurar o SAP LT Replication Server para fins de desempenho, consulte o Guia de otimização de desempenho do SAP LT Replication Server no Portal de ajuda da SAP.
Cotas de BigQuery
As cotas da API BigQuery Streaming que estão em vigor para seu projeto limitam a quantidade de dados que você pode transmitir ao BigQuery ao longo do tempo e em qualquer solicitação HTTP.
Por exemplo, o BigQuery define limites em métricas como:
- Os bytes por segundo por projeto que você pode enviar.
- O número máximo de registros ou linhas que podem ser enviados em uma única solicitação HTTP.
- O tamanho máximo de uma solicitação HTTP que pode ser enviada.
Para inserções de streaming, o BigQuery corrige o tamanho das solicitações HTTP para 10 MB e o número de registros que podem ser enviados em uma única solicitação HTTP para 50.000.
Na maioria dos casos, é possível alterar as cotas, mas não os limites.
É possível ver e editar as cotas que estão em vigor para o projeto no console do Google Cloud na página Cotas.
Para mais informações sobre as cotas e os limites do BigQuery para inserções de streaming, consulte:
Compactação de registro
Por padrão, o BigQuery Connector para SAP melhora o desempenho da replicação compactando os registros enviados ao BigQuery. A partir da versão 2.8 e mais recentes do BigQuery Connector para SAP, a opção de compactação de registros está disponível no nível da tabela e do campo.
Quando a compactação de registros está ativada no nível da tabela, que é a configuração padrão,
o BigQuery Connector para SAP omite todos os campos vazios no registro de origem
dos registros enviados para o BigQuery. Quando o registro
é inserido no BigQuery, os campos que foram omitidos
dos dados enviados são inicializados com null
na tabela de destino no
BigQuery.
No entanto, se você precisar replicar alguns campos vazios com os valores iniciais no BigQuery enquanto ainda usa a compactação de registros no nível da tabela, mude a configuração de compactação de registros para esses campos específicos. Isso significa que os valores vazios nos campos especificados não são omitidos dos dados enviados e mantêm o valor com que foram inicializados na tabela de origem.
É possível controlar o comportamento da compactação de registros usando a configuração Send Uncompressed Flag disponível no nível da tabela e do campo. A tabela a seguir resume o comportamento da compactação de registros:
Enviar a flag "Descompactada" no nível da tabela | Enviar a flag "Uncompressed" no nível do campo | Comportamento de compactação de registro |
---|---|---|
Sim | Não | Todos os campos são enviados sem compactação. |
Sim | Sim | Todos os campos são enviados sem compactação. |
Não | Sim | Somente os campos selecionados no nível do campo são enviados sem compactação. |
Não | Não | Todos os campos são enviados compactados. |
Quando os dados não compactados são enviados para replicação, exceto os campos de data e de carimbo de data/hora, os campos vazios mantêm o valor com que foram inicializados na tabela de origem. Os valores a seguir para data e carimbo de data/hora recebem:
- Valor da inicialização do campo de data:
DATE 1970-01-01
- Valor da inicialização do campo de carimbo de data/hora:
TIMESTAMP 1970-01-01 00:00:00 UTC
A captura de tela a seguir mostra um exemplo do comportamento de compactação de registros:
- Linha 1: todos os campos estão descompactados. A flag Send Uncompressed é selecionada no nível da tabela.
- Linha 2: todos os campos são compactados. A flag Send Uncompressed Flag é limpa no nível da tabela.
- Linha 3: os campos a seguir não são compactados:
int2_value
,curr_value_154
,currency
,float_value
elang_value
. Para esses campos, Send Uncompressed Flag é selecionado no nível do campo.
Para um melhor desempenho, não desative a compactação de registros selecionando Enviar sinalização não compactada no nível da tabela. Isso pode ter um impacto negativo no desempenho da replicação. Se você precisar enviar dados descompactados apenas para campos específicos, selecione Enviar flag descompactada para esses campos específicos no nível do campo. Para mais informações sobre como a compactação de registros afeta os dados transferidos do servidor de replicação SAP LT para o BigQuery, consulte Noções básicas do recurso de compactação do BigQuery Connector para SAP.
Configurações de replicação do BigQuery
Ao configurar a replicação com o BigQuery Connector para SAP, você usa várias transações SAP diferentes, incluindo uma transação personalizada fornecida pelo Google Cloud:
SM30
: define propriedades para se conectar ao Google Cloud, armazenadas como um registro na tabela de configuração personalizada/GOOG/CLIENT_KEY
. Opcionalmente, quando você usa destinos RFC para se conectar a APIs e serviços do Google Cloud, algumas propriedades de conexão são armazenadas na tabela de configuração personalizada/GOOG/SERVIC_MAP
.LTRC
: define o aplicativo de replicação e o ID de transferência em massa do BigQuery Connector para SAP, entre outras propriedades.SM59
: define destinos RFC que permitem a conexão com APIs e serviços do Google Cloud, como o BigQuery e o IAM./GOOG/SLT_SETTINGS
: define as propriedades do conjunto de dados, da tabela e dos campos de destino do BigQuery. Ao inserir/GOOG/SLT_SETTINGS
no SAP LT Replication Server, é necessário adicionar/n
para escapar a barra inicial no nome da transação.
Suporte ao idioma
O BigQuery Connector para SAP é compatível apenas com configurações de replicação em inglês. Ao configurar a replicação usando as transações SAP e a transação personalizada fornecida pelo Google Cloud, use inglês como o idioma de login na tela de login da SAP.
No entanto, o BigQuery Connector para SAP é compatível com a execução de jobs em segundo plano executados no SAP LT Replication Server em todos os idiomas aceitos pelo SAP SLT.
Todas as mensagens de erro que podem ser encontradas ao trabalhar com o BigQuery Connector para SAP são geradas em inglês, independentemente do idioma de execução do job em segundo plano.
Propriedades da tabela de destino
Quando você configura a replicação no SAP LT Replication Server executando a transação /GOOG/SLT_SETTINGS
, é possível especificar as configurações que se aplicam quando o BigQuery Connector para SAP cria a tabela de destino no BigQuery.
Por exemplo, é possível especificar as seguintes propriedades para uma tabela de destino do BigQuery:
- Nome da tabela
- A opção de nomeação padrão dos campos
- Campos extras para capturar alterações de registros e ativar consultas de contagem de registros
- Particionamento de tabelas
Opções de nomeação padrão dos campos
É possível configurar o BigQuery Connector para SAP para criar os nomes dos campos na tabela de destino do BigQuery a partir dos nomes dos campos de origem ou dos rótulos e descrições dos campos de origem. Os rótulos e descrições geralmente são mais informativos sobre o conteúdo do campo.
Por padrão, o BigQuery Connector para SAP usa os nomes dos campos de origem.
É possível alterar o padrão especificando a sinalização de Nomes personalizados ao especificar os atributos de criação da tabela na configuração de transferência em massa da transação /GOOG/SLT_SETTINGS
. Essa especificação é armazenada na tabela de configuração /GOOG/BQ_MASTR
.
Ao criar os nomes, o BigQuery Connector para SAP os modifica para ficar em conformidade com a convenção de nomenclatura do BigQuery.
Antes de criar uma tabela, é possível editar os nomes dos campos na tela de mapeamento de campos da transação /GOOG/SLT_SETTINGS
.
QuandoNomes personalizados é especificado, os nomes que o conector do BigQuery para SAP usará quando criar a tabela de destino serão mostrados naNome do campo externo coluna da tela de mapeamento de campo.
O conector do BigQuery para SAP cria os nomes na coluna Nome do campo externo a partir do rótulo de campo médio de cada campo de origem. Se um rótulo de campo médio não for especificado na definição do campo de origem, a descrição curta do campo será usada. Se a descrição curta não for especificada, o rótulo especificado mais curto será usado. Se nada for especificado, será usado o nome do campo de origem.
Para mais informações sobre como personalizar os nomes dos campos de destino, consulte Como personalizar nomes de campos de destino.
Como capturar alterações de registro e ativar contagens de registros
Para capturar o tipo de alteração na tabela de origem que acionou a replicação
e poder consultar contagens de registros na tabela do BigQuery para
comparação com o SAP LT Replication Server ou especificar contagens na tabela
de origem, especifique a opção Sinalização de campos extras na
transação /GOOG/SLT_SETTINGS
ao configurar a replicação.
Quando a opção Sinalização de campos extras é especificada, as seguintes colunas são adicionadas ao esquema da tabela de destino do BigQuery:
Nome do campo | Tipo de dado | Descrição |
---|---|---|
operation_flag
|
STRING
|
Identifica o tipo de alteração na tabela de origem que acionou o carregamento ou a replicação do registro no BigQuery.
Para contar registros inseridos no modo de replicação, consulte
registros com valor
Para contar registros inseridos no modo de carregamento inicial, consulte
registros que têm um valor de |
is_deleted
|
BOOLEAN
|
Quando true , indica que o registro de origem foi
excluído da tabela de origem.
Para contar apenas os registros em uma tabela do BigQuery que
não foram excluídos da tabela de origem, use o
campo |
recordstamp
|
TIMESTAMP
|
A hora em que o SAP LT Replication Server enviou o registro ao BigQuery. Para contar o número de registros exclusivos em uma tabela do BigQuery, consulte apenas a instância inserida mais recentemente de cada registro. Para ver um exemplo de consulta, acesse Consultar a contagem total de registros em uma tabela do BigQuery. |
A configuração atual da opção Sinalização de campos extras é armazenada na tabela de configuração /GOOG/BQ_MASTR
.
Para mais informações sobre como especificar a Sinalização de campos extras, consulte:
- Se o servidor de replicação SAP LT estiver em execução em uma VM do Compute Engine, consulte Especificar a criação de tabelas e outros atributos gerais.
- Se o servidor de replicação SAP LT estiver sendo executado em um host externo ao Google Cloud, consulte Especificar a criação de tabelas e outros atributos gerais.
Particionamento de tabelas
É possível criar tabelas do BigQuery particionadas por um campo de carimbo de data/hora na tabela de origem, que cria uma tabela particionada por coluna de unidade de tempo ou no momento em que os registros são inseridas no BigQuery, o que cria uma tabela particionada por tempo de ingestão.
Ative o particionamento especificando um tipo de partição no campo Tipo de partição no /GOOG/BQ_TABLE
ao configurar as propriedades de replicação.
Os tipos de partição que podem ser especificados ajustam a granularidade do particionamento por hora, dia, mês ou ano.
Para usar um carimbo de data/hora da tabela de origem para particionamento da coluna de unidade de tempo, especifique o nome do campo de origem no campo Partition Field.
Para usar um tempo de inserção do BigQuery para particionamento por tempo de ingestão, deixe o Campo da partição em branco. O conector do BigQuery para SAP cria um campo na tabela de destino para armazenar o tempo de inserção.
Propriedades do campo de destino
Por padrão, o BigQuery Connector para SAP usa os nomes de campos e os tipos de dados na tabela de origem SAP como nomes de campos e tipos de dados no BigQuery de destino.
Opcionalmente, antes de a tabela de destino ser criada, é possível personalizar os nomes dos campos ou alterar o tipo de dados do BigQuery.
Como personalizar nomes de campos de destino
Antes de criar uma tabela, é possível personalizar os nomes dos campos de destino.
Se necessário, o BigQuery Connector para SAP modifica os nomes personalizados especificados para conformidade com a convenção de nomenclatura do BigQuery.
Ao configurar a replicação, é possível visualizar os nomes dos campos na tela de mapeamento de campo da transação /GOOG/SLT_SETTINGS
. O
conector do BigQuery para SAP armazena suas configurações na tabela de
configuração /GOOG/BQ_FIELD
.
Antes de criar uma tabela, é possível especificar um nome de campo personalizado editando o nome gerado na coluna Nome do campo temporário da tela de mapeamento de campo. Se você excluir um valor e deixar o campo Nome do campo temporário em branco, o conector do BigQuery para SAP usará o nome do campo de origem como o nome desse campo.
Depois que você fizer qualquer edição no nome do campo temporário, quando clicar em Salvar, o conector do BigQuery para SAP validará o valor e aplicará as convenções de nomenclatura do BigQuery conforme necessário: e salve as alterações. É possível validar um valor sem salvá-lo pressionando Enter.
Para informações sobre como definir o método de nomenclatura padrão para os campos de destino, consulte Opções de nomenclatura padrão para campos.
Usar uma planilha ou um arquivo de texto para editar o mapa de campos do BigQuery
Antes de criar uma tabela de destino do BigQuery, é possível salvar os tipos de dados, os nomes e as descrições padrão dos campos de destino em uma planilha ou em um arquivo de texto, para que os administradores ou engenheiros de dados do BigQuery possam editar os valores sem precisar de acesso ao servidor de replicação SAP LT.
Depois que os valores forem editados, você precisará converter o arquivo e o conteúdo dele
no formato de valores separados por vírgula (CSV). É possível aplicar as atualizações
às configurações de transferência em massa fazendo upload do arquivo CSV usando a
transação personalizada /GOOG/SLT_SETTINGS
.
Para editar o mapa de campos do BigQuery usando um arquivo CSV, siga estas etapas:
- Crie uma planilha ou um arquivo de texto para os mapeamentos de campo padrão.
- Edite os valores.
- Converta a planilha ou o arquivo de texto no formato CSV.
- Fazer o upload do arquivo CSV.
Para instruções detalhadas sobre cada uma dessas etapas, consulte Editar o mapa de campos do BigQuery em um arquivo CSV.
Convenção de nomenclatura do BigQuery para campos
A convenção de nomenclatura do BigQuery usa apenas letras minúsculas, números e sublinhados.
O conector do BigQuery para SAP aplica as convenções de nomenclatura do BigQuery a qualquer valor de entrada a ser usado para o nome de um campo de destino.
Por exemplo, se você inserir FIELD-@#!*123
como um nome de campo personalizado, o
conector do BigQuery para SAP alterará o nome para field_123
.
Para mais informações sobre a convenção de nomenclatura do BigQuery para campos, consulte Nomes de colunas.
Mapeamento de tipo de dados
Por padrão, o BigQuery Connector para SAP atribui tipos de dados aos campos de destino do BigQuery com base no Tipo de dados SAP ou no Tipo de dados SAP da SAP de origem.
Ao configurar a replicação, é possível visualizar os tipos de dados na tela de mapeamento
de campo da transação /GOOG/SLT_SETTINGS
. O
conector do BigQuery para SAP armazena suas configurações na tabela de
configuração /GOOG/BQ_FIELD
.
Antes de criar uma tabela, é possível alterar a especificação de tipo de dados padrão para um tipo de dados diferente do BigQuery na coluna Elemento de dados externo da tela de mapeamento de campo.
Tipos de dados que exigem tratamento especial
Vários tipos de dados SAP exigem tratamento especial para que sejam representados com precisão na tabela de destino do BigQuery.
Alguns desses tipos de dados precisam ser processados por você. O BigQuery Connector para SAP cuida de outras pessoas para você.
booleanos
Para booleanos, o SAP usa o tipo de dados CHAR
, que, por padrão,
o conector do BigQuery para SAP mapeia para o tipo de dados STRING
na
tabela de destino do BigQuery.
Consequentemente, no caso dos booleanos, quando você configura a replicação usando
a transação /GOOG/SLT_SETTINGS
, é necessário
alterar a atribuição de tipo de dados
padrão dos campos booleanos de STRING
para BOOLEAN
na
tela de mapeamento de campo.
Timestamps
Para carimbos de data/hora, a SAP usa os tipos de dados P
(decimal) ou DEC
(decimal), que, por padrão, o BigQuery Connector para SAP mapeia para NUMERIC
na tabela de destino do BigQuery de dados.
Consequentemente, no caso dos carimbos de data/hora, quando você configura a replicação usando
a transação /GOOG/SLT_SETTINGS
, é necessário
alterar a atribuição de tipo de dados padrão dos campos de carimbo de data/hora de NUMERIC
para TIMESTAMP
ou
TIMESTAMP (LONG)
na tela de mapeamento de campo.
Tipo de tipo SAP X
O tipo de tipo SAP X
é um hexadecimal e é representado pelos tipos de dados RAW
, RAWSTRING
ou LRAW
. Por padrão, o BigQuery Connector para SAP mapeia esses tipos de dados para STRING
na tabela de origem do BigQuery.
Se você precisar que um campo de origem com o tipo de tipo SAP X
seja mapeado para BYTES
, em vez disso, será necessário alterar a atribuição de tipo de dados padrão para o campo na tela de mapeamento de campo do /GOOG/SLT_SETTINGS
.
kinds vezes, o tipo de tipo SAP X
também é usado em SAP para representar números inteiros.
Nesse caso, o BigQuery Connector para SAP verifica o tipo de dados do campo de origem de um dos tipos de dados SAP para números inteiros, INT1
, INT2
, INT4
, INT8
e atribui o tipo de dados INTEGER
na tabela de destino do BigQuery.
Tipo de tipo SAP y
O tipo de tipo SAP y
é uma string de bytes e é representado pelos tipos de dados RAW
, RAWSTRING
ou LRAW
. Por padrão, o BigQuery Connector para SAP mapeia esses tipos de dados para STRING
na tabela de origem do BigQuery.
Se você precisar que um campo de origem com o tipo de tipo SAP y
seja mapeado para BYTES
, em vez disso, será necessário alterar a atribuição de tipo de dados padrão para o campo na tela de mapeamento de campo do /GOOG/SLT_SETTINGS
.
Mapeamento de tipo de dados padrão
Veja na tabela a seguir a conversão de tipo de dados padrão do conector do BigQuery para SAP:
Tipo de SAP | Tipo de dados do SAP | Tipo de dados BigQuery | Observações |
---|---|---|---|
b (número inteiro de 1 byte)s (número inteiro de 2 bytes)I (número inteiro de 4 bytes)8 (inteiro de 8 bytes)
|
INT1 INT2 INT4 INT8
|
INTEGER |
|
F (float)
|
FLTP
|
FLOAT |
|
P (embalado)
|
CURR DEC QUAN
|
NUMERIC |
Por padrão, o tipo de tipo SAP P é mapeado para o tipo de dados do BigQuery NUMERIC e convertido em um número no formato externo. |
a (número flutuante decimal, 16 casas)
|
DECFLOAT16 |
NUMERIC |
|
e (número flutuante decimal, 16 casas)
|
DECFLOAT34 |
NUMERIC |
|
N (numérico) |
NUMC |
STRING |
|
X (hexadecimal)y (string de bytes)
|
RAW RAWSTRING LRAW
|
STRING |
Se o tipo de tipo SAP é X , mas o nome do tipo de dados abrange
o padrão 'INT*' (INT1 , INT2 , INT4 ), um elemento de dados de origem é substituído
por um novo elemento de dados TYPINT8 com TYPEKIND '8' , que é mapeado
para o tipo de dados do BigQuery INTEGER . |
C (caractere)g (string de caracteres)? (csequência)& (semelhante)
|
CHARSTRING |
STRING |
|
D (data) |
DATS |
DATE |
|
T (período) |
TIMS |
TIME |
Licenciamento
O BigQuery Connector para SAP é disponibilizado como "Software" no contrato que rege o uso do Google Cloud Platform, incluindo os Termos Específicos do Serviço, disponíveis em https://cloud.google.com/terms/termos-de-serviço. Sem limitar a generalidade dos termos acima, não é possível modificar ou distribuir o BigQuery Connector para SAP sem permissão expressa por escrito do Google.
Atualmente, o software BigQuery Connector para SAP é gratuito. Para garantir a clareza, o uso de outros "Softwares" e "Serviços" nos termos do contrato que rege o uso do Google Cloud Platform, como o BigQuery e a API de streaming do BigQuery, pode ser cobrado.
O conector do BigQuery para SAP não inclui nenhuma licença do software SAP, incluindo, sem limitação, o SAP LT Replication Server; compre uma licença apropriada para o software SAP.
Ciclo de vida do suporte
O Google Cloud aceita e mantém a versão principal mais recente do BigQuery Connector para SAP por pelo menos 12 meses após a publicação de um aviso de descontinuação na página "Notas de lançamento" do SAP no Google Cloud com relação à versão principal anterior.