Visão geral do BigQuery Toolkit para SAP

O BigQuery Toolkit para SAP permite acessar de forma programática os recursos do BigQuery no seu ambiente SAP usando o ABAP. É possível acessar os recursos do BigQuery no SAP sem precisar escrever código boilerplate para operações comuns, como as seguintes:

  • Sincronização da definição de tabela: mantenha as tabelas do SAP e do BigQuery sincronizadas.
  • Mapeamento de tipos de dados: mapeie tipos de dados entre o SAP e o BigQuery.
  • Fragmentação de dados: transfira grandes conjuntos de dados com eficiência.
  • Tratamento de erros: gere possíveis erros durante a replicação de dados.

Ao contrário do BigQuery Connector para SAP, que exige um SAP Landscape Transformation Replication Server, é possível usar o BigQuery Toolkit para SAP em qualquer sistema SAP ERP com suporte ao ABAP.

O BigQuery Toolkit para SAP é enviado como um subpacote do local ou de qualquer edição na nuvem do ABAP SDK for Google Cloud. Para usar o kit de ferramentas, você precisa instalar o SDK no seu ambiente da SAP. Para informações sobre as etapas de instalação, consulte Instalar e configurar a edição local ou de qualquer nuvem do SDK do ABAP para Google Cloud.

O BigQuery Toolkit para SAP está disponível apenas com a edição local ou na nuvem do SDK ABAP for Google Cloud.

Cópia de dados do SAP para o BigQuery

O módulo de transferência de dados do BigQuery do BigQuery Toolkit para SAP permite replicar dados do SAP para o BigQuery para análise e geração de relatórios.

O diagrama a seguir mostra as configurações de transferência de dados e o fluxo de replicação de dados no módulo de transferência de dados do BigQuery:

Configurações de transferência de dados e fluxo de replicação no módulo de transferência de dados do BigQuery

Configurações de transferência de dados

Conforme mostrado no diagrama na seção anterior, para estabelecer a replicação de dados do SAP para o BigQuery, os administradores realizam as seguintes configurações:

  1. Em Google Cloud, o administrador de nuvem configura o BigQuery e concede as permissões necessárias do IAM.
  2. No sistema SAP, o administrador do sistema SAP configura o SDK do ABAP para Google Cloud para permitir a comunicação com Google Cloud.
  3. No sistema SAP, o administrador do sistema SAP configura o módulo de transferência de dados do BigQuery para gerenciar as configurações de transferência de dados e os detalhes do recurso do BigQuery. Essas configurações são armazenadas nas seguintes tabelas:
    • /GOOG/BQTR_MASTER
    • /GOOG/BQTR_TABLE
    • /GOOG/BQTR_FIELD
    • /GOOG/BQTR_PARAMS

Quando o código ABAP é executado, a classe de carregamento de dados do BigQuery lê as configurações dessas tabelas para orientar o processo de replicação de dados.

Fluxo de replicação de dados

Como mostrado no diagrama da seção anterior, para replicar dados de sistemas SAP no BigQuery, os desenvolvedores do ABAP escrevem um código ABAP personalizado que faz o seguinte:

  1. Lê dados de tabelas SAP padrão ou personalizadas.
  2. Usa a classe de carregamento de dados do BigQuery /GOOG/CL_BQTR_DATA_LOAD para replicar os dados selecionados no BigQuery. Essa classe:

    • Usa a configuração armazenada nas tabelas de configuração da transferência de dados do BigQuery.
    • Usa a classe /GOOG/CL_BIGQUERY_V2 para realizar a sincronização da definição de tabela e a replicação de dados.
  3. Implementa a lógica de negócios de acompanhamento.

  4. Processa erros e exceções.

Origens com suporte para replicação de dados

É possível usar o módulo de transferência de dados do BigQuery do BigQuery Toolkit para SAP para carregar dados de objetos de dicionário ABAP, como tabelas, visualizações de dicionário, visualizações de CDS, entidades de CDS ou qualquer objeto de dados com um tipo de estrutura plana no BigQuery.

É possível usar o BigQuery Toolkit para SAP para a replicação de dados das seguintes maneiras:

  • Como um plug-in em frameworks de melhoria do SAP, como complementos empresariais (BAdIs), saídas do usuário e rotinas. Por exemplo, o kit de ferramentas pode ser conectado a rotinas de Business Warehouse (BW) para enviar os dados que estão sendo processados pelo processo de transferência de dados (DTP) do BW.
  • Para carregar dados em lote de um programa ABAP personalizado.

Planejamento de desempenho

O BigQuery Toolkit para SAP fornece a fase final da transmissão de dados para o BigQuery fazendo chamadas síncronas para a API BigQuery.

Ao usar o BigQuery Toolkit para SAP no seu aplicativo ABAP personalizado, é possível otimizar o desempenho da replicação de dados na sua carga de trabalho do SAP e nas configurações de transferência de dados do BigQuery.

Opções de ajuste de desempenho com a carga de trabalho SAP e o aplicativo personalizado

Para otimizar o desempenho da carga de trabalho do SAP e dos aplicativos personalizados, considere estas opções:

  • Execute a carga de trabalho do SAP, o sistema de origem de onde os dados são replicados para o BigQuery, em Google Cloud.
  • Se a carga de trabalho da SAP estiver em Google Cloud, crie o conjunto de dados do BigQuery na mesma região que a carga de trabalho da SAP.
  • Se não for possível executar a carga de trabalho da SAP em Google Cloud, faça o seguinte:
    • Crie o conjunto de dados do BigQuery em uma região Google Cloud mais próxima da sua carga de trabalho da SAP.
    • Conecte-se a Google Cloud usando o Cloud Interconnect.
  • Dimensione o sistema do servidor SAP da melhor forma para sua carga de trabalho.
  • Implemente o processamento paralelo para chamar o módulo de transferência de dados do BigQuery em várias linhas de execução paralelas e aumentar a taxa de transferência.

Como o BigQuery Toolkit para SAP fornece a fase final da transmissão de dados para o BigQuery, a performance dele é influenciada por vários fatores no seu ambiente específico. Esses fatores podem incluir:

  • Infraestrutura de rede: as limitações de largura de banda, a latência e a estabilidade geral da rede têm um papel significativo na velocidade e na eficiência da replicação.

  • Sistemas de origem: o desempenho dos bancos de dados de origem, incluindo o hardware, a configuração e a carga atual, pode afetar a performance da replicação.

  • Volume de dados e taxa de mudança: a quantidade de dados replicados e a frequência das mudanças afetam o tempo e os recursos necessários para a replicação.

  • Outros componentes: firewalls, políticas de segurança, balanceadores de carga e outros elementos de infraestrutura podem contribuir para o desempenho geral da replicação de dados.

Você é responsável pelos testes de desempenho do BigQuery Toolkit para SAP no seu próprio ambiente. Para resultados ideais, considere e otimize todos os componentes relevantes do seu ambiente.

Opções de ajuste de desempenho disponíveis nas configurações de transferência de dados do BigQuery

As configurações de transferência de dados do BigQuery oferecem as seguintes opções para controlar a performance da replicação:

Tamanho do bloco de transferência de dados

O BigQuery Toolkit para SAP envia dados para o BigQuery como blocos de registros. Recomendamos que você use o tamanho de bloco padrão com o BigQuery Toolkit para SAP, que é de 10.000 registros. Se os registros em uma tabela de origem contiverem muito poucos campos ou os campos tiverem valores de dados de tamanho muito pequeno, você poderá usar um tamanho de bloco maior até o tamanho máximo de bloco permitido pelo BigQuery Toolkit para SAP, que é de 50.000 registros.

Se o número de registros em um determinado bloco for resolvido para um tamanho de byte que excede o limite do BigQuery para o tamanho de byte das solicitações HTTP, você poderá receber umquotaExceeded erro ou uminvalid erro. Isso pode acontecer se os registros em uma tabela de origem tiverem muitos campos ou se os campos tiverem muitos dados.

Se você receber um erro relacionado ao tamanho do bloco, reduza o tamanho do bloco especificado na configuração de transferência em massa para essa tabela. Como alternativa, é possível ativar o tamanho dinâmico do bloco para essa tabela e ajustá-lo automaticamente. Para ver mais informações, consulte Tamanho dinâmico do bloco.

Se você não tiver ativado o tamanho dinâmico do bloco, para tabelas de origem SAP, como MSEG, ACDOCA e MATDOC, que podem ter registros grandes com muitos campos por registro, talvez seja necessário especificar um bloco de até 2.000.

É possível especificar um tamanho de bloco executando a transação /GOOG/BQTR_SETTINGS. O tamanho do bloco é especificado no campo Tamanho do bloco na tela Atributos da tabela.

Compactação de registro

Por padrão, o BigQuery Toolkit para SAP melhora o desempenho da replicação compactando os registros enviados ao BigQuery. Quando a compactação de registros está ativada no nível da tabela, que é a configuração padrão, o BigQuery Toolkit para SAP omite todos os campos vazios no registro de origem dos registros enviados para o BigQuery. Quando o registro é inserido no BigQuery, os campos que foram omitidos dos dados enviados são inicializados com null na tabela de destino no BigQuery.

No entanto, se você precisar replicar alguns campos vazios com os valores iniciais no BigQuery enquanto ainda usa a compactação de registros no nível da tabela, mude a configuração de compactação de registros para esses campos específicos. Como resultado, os valores vazios nos campos especificados não são omitidos dos dados enviados e mantêm o valor com que foram inicializados na tabela de origem.

Na configuração de transferência em massa, é possível controlar o comportamento de compactação de registros usando a configuração Enviar flag descompactada disponível no nível da tabela e do campo. A tabela a seguir resume o comportamento da compactação de registros dependendo da configuração Enviar flag não compactada:

Enviar a flag "Descompactada" no nível da tabela Enviar a flag "Uncompressed" no nível do campo Comportamento de compactação de registro
Sim Não Todos os campos são enviados sem compactação.
Sim Sim Todos os campos são enviados sem compactação.
Não Sim Somente os campos selecionados no nível do campo são enviados sem compactação.
Não Não Todos os campos são enviados compactados.

Quando você envia a replicação de dados descompactada, exceto os campos de data e de carimbo de data/hora, os campos vazios mantêm o valor com que foram inicializados na tabela de origem. Os valores a seguir para data e carimbo de data/hora recebem:

  • Valor da inicialização do campo de data: DATE 1970-01-01
  • Valor da inicialização do campo de carimbo de data/hora: TIMESTAMP 1970-01-01 00:00:00 UTC

A captura de tela a seguir mostra um exemplo do comportamento de compactação de registros:

O diagrama é descrito no texto anterior

A imagem anterior mostra o seguinte:

  • Linha 1: todos os campos estão descompactados. A flag Send Uncompressed é selecionada no nível da tabela.
  • Linha 2: todos os campos são compactados. A flag Send Uncompressed Flag é limpa no nível da tabela.
  • Linha 3: os campos a seguir não estão compactados: int2_value, curr_value_154, currency, float_value e lang_value. Para esses campos, Send Uncompressed Flag é selecionado no nível do campo.

Para um melhor desempenho, recomendamos que você não desative a compactação de registros selecionando Send Uncompressed Flag no nível da tabela. Isso pode ter um impacto negativo no desempenho da replicação. Se você precisar enviar dados não compactados apenas para campos específicos, selecione Enviar flag não compactada para esses campos específicos no nível do campo.

Propriedades da tabela de destino

Ao configurar a replicação no módulo de transferência de dados do BigQuery do BigQuery Toolkit para SAP, é possível especificar as configurações que se aplicam quando o BigQuery Toolkit para SAP cria a tabela de destino no BigQuery.

Por exemplo, é possível especificar as seguintes propriedades para uma tabela de destino do BigQuery:

  • Nome da tabela
  • A opção de nomeação padrão dos campos
  • Campos extras para capturar alterações de registros e ativar consultas de contagem de registros
  • Particionamento de tabelas

Opções de nomeação padrão dos campos

É possível configurar o BigQuery Toolkit para SAP para criar os nomes dos campos na tabela de destino do BigQuery a partir dos nomes dos campos de origem ou dos rótulos e descrições dos campos de origem. Os rótulos e descrições geralmente são mais informativos sobre o conteúdo do campo.

Por padrão, o BigQuery Toolkit para SAP usa os nomes dos campos de origem. É possível alterar o padrão especificando a sinalização de Nomes personalizados ao especificar os atributos de criação da tabela na configuração de transferência em massa da transação /GOOG/BQTR_SETTINGS. Essa especificação é armazenada na tabela de configuração /GOOG/BQTR_MASTR.

Ao criar os nomes, o BigQuery Toolkit para SAP os modifica para ficar em conformidade com a convenção de nomenclatura do BigQuery.

Antes que o BigQuery Toolkit para SAP crie uma tabela no BigQuery, é possível editar os nomes dos campos na tela de mapeamento de campos da transação /GOOG/BQTR_SETTINGS.

Quando a flag Nomes personalizados é especificada, os nomes que o BigQuery Toolkit para SAP vai usar ao criar a tabela de destino são mostrados na coluna Nome do campo externo da tela de mapeamento de campo.

O BigQuery Toolkit para SAP cria os nomes na coluna Nome do campo externo a partir do rótulo de campo médio de cada campo de origem. Se um rótulo de campo médio não for especificado na definição do campo de origem, a descrição curta do campo será usada. Se a descrição curta não for especificada, o rótulo especificado mais curto será usado. Se nada for especificado, será usado o nome do campo de origem.

Para mais informações sobre como personalizar os nomes dos campos de destino, consulte Como personalizar nomes de campos de destino.

Como capturar alterações de registro e ativar contagens de registros

Para capturar o tipo de alteração na tabela de origem que acionou a replicação e consultar as contagens de registros na tabela do BigQuery para comparação com as contagens de registros na tabela de origem, especifique a opção Sinalização de campos extras na transação /GOOG/BQTR_SETTINGS ao configurar a replicação.

Quando você especifica a opção Sinalização de campos extras, as seguintes colunas são adicionadas ao esquema da tabela de destino do BigQuery:

Nome do campo Tipo de dado Descrição
operation_flag STRING

Identifica o tipo de alteração na tabela de origem que acionou o carregamento ou a replicação do registro no BigQuery.

Para contar registros inseridos no modo de replicação, consulte registros com valor I, U ou D no campo operation_flag. Para uma consulta de exemplo, veja Consultar o número de registros inseridos no modo de replicação.

Para contar registros inseridos no modo de carregamento inicial, consulte registros que têm um valor de L no campo operation_flag. Para uma consulta de exemplo, veja Consultar a contagem de registros inseridos no modo de carregamento inicial.

is_deleted BOOLEAN Quando true, indica que o registro de origem foi excluído da tabela de origem.

Para contar apenas os registros em uma tabela do BigQuery que não foram excluídos da tabela de origem, use o campo is_deleted para excluir registros de origem excluídos. Para ver um exemplo de consulta, acesse Consultar a contagem total de registros em uma tabela do BigQuery.

recordstamp TIMESTAMP

A hora em que o BigQuery Toolkit para SAP enviou o registro ao BigQuery.

Para contar o número de registros exclusivos em uma tabela do BigQuery, consulte apenas a instância inserida mais recentemente de cada registro. Para ver um exemplo de consulta, acesse Consultar a contagem total de registros em uma tabela do BigQuery.

A configuração atual da opção Sinalização de campos extras é armazenada na tabela de configuração /GOOG/BQTR_MASTR.

Para mais informações sobre como especificar a Sinalização de campos extras, consulte Especificar a criação de tabelas e outros atributos gerais.

Particionamento de tabelas

É possível criar tabelas do BigQuery de uma das seguintes maneiras:

  • Tabelas particionadas por um campo de carimbo de data/hora na tabela de origem, que cria uma tabela particionada por coluna de unidade de tempo.
  • Tabelas particionadas pelo momento em que os registros são inseridos no BigQuery, o que cria uma tabela particionada por tempo de ingestão.

Ative o particionamento especificando um tipo de partição no campo Tipo de partição no /GOOG/BQTR_TABLE ao configurar as propriedades de replicação.

Os tipos de partição que podem ser especificados ajustam a granularidade do particionamento por hora, dia, mês ou ano.

Para usar um carimbo de data/hora da tabela de origem para particionamento da coluna de unidade de tempo, especifique o nome do campo de origem no campo Partition Field.

Para usar um tempo de inserção do BigQuery para particionamento por tempo de ingestão, deixe o Campo da partição em branco. O BigQuery Toolkit para SAP cria um campo na tabela de destino para armazenar o tempo de inserção.

Propriedades do campo de destino

Por padrão, o BigQuery Toolkit para SAP usa os nomes de campos e os tipos de dados na tabela de origem da SAP como nomes de campos e tipos de dados no BigQuery de destino.

Opcionalmente, antes de a tabela de destino ser criada, é possível personalizar os nomes dos campos ou alterar o tipo de dados do BigQuery.

Como personalizar nomes de campos de destino

Antes de criar uma tabela, é possível personalizar os nomes dos campos de destino.

Se necessário, o BigQuery Toolkit para SAP modifica os nomes personalizados especificados para conformidade com a convenção de nomenclatura do BigQuery.

Ao configurar a replicação, é possível visualizar os nomes dos campos na tela de mapeamento de campo da transação /GOOG/BQTR_SETTINGS. O BigQuery Toolkit para SAP armazena suas configurações na tabela de configuração /GOOG/BQTR_FIELD.

Antes de criar uma tabela no BigQuery, é possível especificar um nome de campo personalizado editando o nome gerado na coluna Nome do campo temporário da tela de mapeamento de campo. Se você excluir um valor e deixar o campo Nome do campo temporário em branco, o BigQuery Toolkit para SAP vai usar o nome do campo de origem como o nome do campo de destino.

Depois que você fizer qualquer edição na coluna Nome do campo temporário, quando clicar em Salvar, o BigQuery Toolkit para SAP vai validar o valor, aplicar as convenções de nomenclatura do BigQuery conforme necessário e salvar as alterações. É possível validar um valor sem salvá-lo pressionando Enter no teclado.

Para mais informações sobre como definir o método de nomenclatura padrão para os campos de destino, consulte Opções de nomenclatura padrão para campos.

Usar uma planilha ou um arquivo de texto para editar o mapa de campos do BigQuery

Opcionalmente, antes de criar uma tabela de destino do BigQuery, é possível salvar os tipos de dados, nomes e descrições padrão dos campos de destino em uma planilha ou em um arquivo de texto. Essa abordagem permite que os administradores ou engenheiros de dados do BigQuery editem os valores mesmo que não tenham acesso ao servidor SAP.

Depois que os valores forem editados, você precisará converter o arquivo e o conteúdo dele no formato de valores separados por vírgula (CSV). É possível aplicar as atualizações às configurações de transferência em massa fazendo upload do arquivo CSV usando a transação personalizada /GOOG/BQTR_SETTINGS.

Para usar um arquivo CSV para editar o mapa de campos do BigQuery, faça o seguinte:

  1. Crie uma planilha ou um arquivo de texto com os mapeamentos de campo padrão.
  2. Edite os valores na planilha ou no arquivo de texto.
  3. Converta a planilha ou o arquivo de texto no formato CSV.
  4. Na tela Transferência de dados do BigQuery: manutenção de configurações, faça upload do arquivo CSV.

Para mais informações sobre esse processo, consulte Editar o mapa de campos do BigQuery em um arquivo CSV.

Convenção de nomenclatura do BigQuery para campos

A convenção de nomenclatura do BigQuery usa apenas letras minúsculas, números e sublinhados.

O BigQuery Toolkit para SAP aplica as convenções de nomenclatura do BigQuery a qualquer valor de entrada a ser usado para o nome de um campo de destino.

Por exemplo, se você inserir FIELD-@#!*123 como um nome de campo personalizado, o BigQuery Toolkit para SAP vai mudar o nome para field_123.

Para mais informações sobre a convenção de nomenclatura do BigQuery para campos, consulte Nomes de colunas.

Mapeamento de tipo de dados

Por padrão, o BigQuery Toolkit para SAP atribui tipos de dados aos campos de destino do BigQuery com base no tipo de dados SAP ou no tipo de dados SAP do campo de origem da SAP.

Ao configurar a replicação, é possível visualizar os tipos de dados na tela de mapeamento de campo da transação /GOOG/BQTR_SETTINGS. O BigQuery Toolkit para SAP armazena suas configurações na tabela de configuração /GOOG/BQTR_FIELD.

Antes que o BigQuery Toolkit para SAP crie uma tabela no BigQuery, é possível mudar a especificação de tipo de dados padrão para um tipo de dados diferente do BigQuery na coluna Elemento de dados externo da tela de mapeamento de campo.

Tipos de dados que exigem tratamento especial

Para garantir a precisão e a compatibilidade com as tabelas de destino do BigQuery, vários tipos de dados SAP exigem tratamento ou conversão especial durante o processo de replicação.

Embora o BigQuery Toolkit para SAP processe automaticamente algumas dessas conversões, outras exigem sua atenção e configuração manual.

Você precisa processar manualmente as conversões dos seguintes tipos de dados:

booleanos

Para booleanos, o SAP usa o tipo de dados CHAR. Por padrão, o BigQuery Toolkit para SAP mapeia esse tipo de dados para o tipo STRING na tabela de destino do BigQuery.

Consequentemente, ao configurar a replicação para booleanos usando a transação /GOOG/BQTR_SETTINGS, é necessário mudar a atribuição de tipo de dados padrão para campos booleanos de STRING para BOOLEAN na tela de mapeamento de campo.

Carimbos de data/hora

Para carimbos de data/hora, a SAP usa os tipos de dados P (decimal) ou DEC (decimal). Por padrão, o BigQuery Toolkit para SAP mapeia esses tipos de dados para NUMERIC na tabela de destino do BigQuery.

Consequentemente, no caso dos carimbos de data/hora, quando você configura a replicação usando a transação /GOOG/BQTR_SETTINGS, é necessário mudar a atribuição de tipo de dados padrão dos campos de carimbo de data/hora de NUMERIC para TIMESTAMP ou TIMESTAMP (LONG) na tela de mapeamento de campo.

Tipo de tipo SAP X

O tipo de tipo SAP X é um hexadecimal e é representado pelos tipos de dados RAW, RAWSTRING ou LRAW. Por padrão, o BigQuery Toolkit para SAP mapeia esses tipos de dados para STRING na tabela de origem do BigQuery.

Se você precisar que um campo de origem com o tipo de tipo SAP X seja mapeado para BYTES, em vez disso, será necessário mudar a atribuição de tipo de dados padrão para o campo na tela de mapeamento de campo da transação /GOOG/BQTR_SETTINGS.

kinds vezes, o tipo de tipo SAP X também é usado em SAP para representar números inteiros. Nesse caso, o BigQuery Toolkit para SAP verifica o tipo de dados do campo de origem de um dos tipos de dados SAP para números inteiros, INT1, INT2, INT4, INT8 e atribui o tipo de dados INTEGER na tabela de destino do BigQuery.

Tipo de tipo SAP y

O tipo de tipo SAP y é uma string de bytes e é representado pelos tipos de dados RAW, RAWSTRING ou LRAW. Por padrão, o BigQuery Toolkit para SAP mapeia esses tipos de dados para STRING na tabela de origem do BigQuery.

Se você precisar que um campo de origem com o tipo de tipo SAP y seja mapeado para BYTES, em vez disso, será necessário alterar a atribuição de tipo de dados padrão para o campo na tela de mapeamento de campo do /GOOG/BQTR_SETTINGS.

Mapeamento de tipo de dados padrão

A tabela a seguir mostra a conversão de tipo de dados padrão do BigQuery Toolkit para SAP:

Tipo de SAP Tipo de dados do SAP Tipo de dados BigQuery Observações
b (número inteiro de 1 byte)
s (número inteiro de 2 bytes)
I (número inteiro de 4 bytes)
8 (inteiro de 8 bytes)
INT1
INT2
INT4
INT8
INTEGER
F (float) FLTP FLOAT
P (embalado) CURR
DEC
QUAN
NUMERIC Por padrão, o tipo de tipo SAP P é mapeado para o tipo de dados do BigQuery NUMERIC e convertido em um número no formato externo.
a (número flutuante decimal, 16 casas) DECFLOAT16
NUMERIC
e (número flutuante decimal, 16 casas) DECFLOAT34
NUMERIC
N (numérico) NUMC STRING
X (hexadecimal)
y (string de bytes)
RAW
RAWSTRING
LRAW
STRING Se o tipo de tipo SAP é X, mas o nome do tipo de dados abrange o padrão 'INT*' (INT1, INT2, INT4), um elemento de dados de origem é substituído por um novo elemento de dados TYPINT8 com TYPEKIND '8', que é mapeado para o tipo de dados do BigQuery INTEGER.
C (caractere)
g (string de caracteres)
? (csequência)
& (semelhante)
CHARSTRING STRING
D (data) DATS DATE
T (período) TIMS TIME

Recursos da comunidade

Para acelerar a implementação de aplicativos baseados no BigQuery Toolkit em sistemas SAP S/4HANA que usam o BW integrado, use as ferramentas de geração de código aberto disponíveis no GitHub.

Receber suporte

Google Cloud oferece suporte para problemas e dúvidas relacionados à instalação, configuração, operação e manutenção do BigQuery Toolkit para SAP. No entanto, o suporte é limitado ao próprio kit de ferramentas.

Google Cloud não oferece suporte a outros componentes do ambiente, como infraestrutura de rede, bancos de dados, sistemas operacionais ou softwares de terceiros. Para problemas relacionados a componentes de ambiente que não sejam o BigQuery Toolkit para SAP, entre em contato com o fornecedor ou provedor de suporte apropriado.

Para funcionalidades fornecidas pela SAP, como o provisionamento de dados operacionais (ODP, na sigla em inglês) e a transformação de paisagem do SAP (SLT, na sigla em inglês), entre em contato com o suporte da SAP para receber ajuda.

Para resolver problemas com o BigQuery Toolkit para SAP, consulte Solução de problemas do BigQuery Toolkit para SAP.

Se você precisar de ajuda para resolver problemas com o ABAP SDK for Google Cloud, faça o seguinte: