Ordem SAP para acelerador de dinheiro

O acelerador SAP para o processo de pedido em dinheiro é um exemplo de implementação do recurso Origem em lote da tabela do SAP no Cloud Data Fusion. O acelerador ajuda você a começar quando cria seu pedido completo para análises e processos em dinheiro. Ele inclui pipelines de amostra do Cloud Data Fusion que podem ser configurados para realizar as seguintes tarefas:

  • Conecte-se à sua fonte de dados SAP.
  • Faça transformações nos dados do Cloud Data Fusion.
  • Armazenar os dados no BigQuery.
  • Configure análises no Looker. Isso inclui painéis e um modelo de ML, em que é possível definir os principais indicadores de desempenho (KPIs, na sigla em inglês) do processo de pedido em dinheiro.

Este guia descreve a implementação de amostra e os primeiros passos para usar suas configurações.

O acelerador está disponível nos ambientes do Cloud Data Fusion em execução na versão 6.3.0 e posteriores.

Antes de começar

  1. Faça login na sua Conta do Google.

    Se você ainda não tiver uma, inscreva-se agora.

  2. No Console do Google Cloud, na página do seletor de projetos, selecione ou crie um projeto do Google Cloud.

    Acessar o seletor de projetos

  3. Verifique se o faturamento está ativado para seu projeto na nuvem. Saiba como confirmar se o faturamento está ativado para o projeto.

  4. Ative as APIs Cloud Data Fusion and BigQuery.

    Ative as APIs

  5. No Console do Google Cloud, na página do seletor de projetos, selecione ou crie um projeto do Google Cloud.

    Acessar o seletor de projetos

  6. Verifique se o faturamento está ativado para seu projeto na nuvem. Saiba como confirmar se o faturamento está ativado para o projeto.

  7. Ative as APIs Cloud Data Fusion and BigQuery.

    Ative as APIs

  8. Faça o download da Origem do lote da tabela SAP (em inglês).
  9. Você precisa ter acesso a uma instância do Looker e ativar o recurso de laboratórios do mercado para instalar o bloco do Looker. É possível solicitar um teste gratuito para ter acesso a uma instância.

Habilidades necessárias

Usuários necessários

As configurações descritas nesta página exigem alterações no seu sistema SAP e no Google Cloud. Trabalhe com os seguintes usuários desses sistemas para realizar as configurações:

Tipo de usuário Descrição
Administrador do SAP Administrador do sistema SAP que pode acessar o site de serviços da SAP para fazer o download de software.
Usuário da SAP Um usuário SAP autorizado a se conectar a um sistema SAP.
Administrador do GCP Administrador que controla o acesso do IAM à organização, que cria e implanta contas de serviço e concede permissões para o Cloud Data Fusion, BigQuery e Looker.
Usuário do Cloud Data Fusion Usuários autorizados a projetar e executar pipelines de dados no Cloud Data Fusion.
Proprietário de dados do BigQuery Usuários autorizados a criar, visualizar e modificar conjuntos de dados do BigQuery.
Desenvolvedor do Looker Esses usuários podem instalar o bloco do Looker por meio do Marketplace. Eles precisam ter as permissões develop, manage_model e deploy.

Papéis do IAM obrigatórios

Na implementação de amostra da aceleradora, os papéis do IAM a seguir são necessários. Talvez sejam necessários outros papéis se o projeto depender de outros serviços do Google Cloud.

Visão geral do processo

Para implementar o acelerador no seu projeto, siga estas etapas:

  1. Configure o sistema SAP ERP e instale o transporte SAP fornecido.
  2. Configure seu ambiente do Cloud Data Fusion para usar o plug-in do SAP Table Batch Source.
  3. Crie conjuntos de dados no BigQuery. O acelerador fornece conjuntos de dados de amostra para tabelas de preparo, dimensão e fatos.
  4. Configure os pipelines de amostra do Cloud Data Fusion do acelerador para integrar seus dados SAP.
  5. No Cloud Data Fusion Hub, implante os pipelines associados ao pedido para o processo de análise de dinheiro. Esses pipelines precisam ser configurados corretamente para criar o conjunto de dados do BigQuery.
  6. Conectar o Looker ao projeto do BigQuery.
  7. Instale e implante o Looker Block.

Para mais informações, consulte Como usar o plug-in SAP Source Batch.

Conjuntos de dados de amostra no BigQuery

Na implementação de amostra nesse acelerador, os conjuntos de dados a seguir são criados no BigQuery.

Nome do conjunto de dados Descrição
sap_cdf_staging Contém todas as tabelas do sistema SAP Source, conforme identificado para esse processo de negócios.
sap_cdf_dimension Contém as principais entidades de dimensão, como dimensão do cliente e dimensão do material.
sap_cdf_fact Contém as tabelas de fatos geradas a partir do pipeline.

Pipelines de amostra no Cloud Data Fusion

Os pipelines de amostra desse acelerador estão disponíveis no hub do Cloud Data Fusion.

Para receber os pipelines de amostra do Hub:

  1. No Console do Cloud, abra a página Instâncias.
    Acessar instâncias do Cloud Data Fusion
  2. Na coluna Ações da instância, clique em Ver instância.
  3. Na IU da Web do Cloud Data Fusion, clique em Hub.
  4. Selecione a guia SAP.
  5. Selecione Pipelines. Uma página de pipelines de amostra é aberta.
  6. Selecione os pipelines desejados para fazer o download deles.

Cada um dos pipelines contém macros que podem ser configuradas para serem executadas no seu ambiente.

Há três tipos de pipelines de amostra:

  • Pipelines da camada de preparo: o conjunto de dados de preparo neste tipo de pipeline é um mapeamento direto para a tabela de origem original no SAP. Os pipelines da camada de preparo de amostra têm nomes que se referem à tabela de origem SAP e à tabela de destino do BigQuery. Por exemplo, um pipeline chamado KNA1_Customer_Master refere-se à tabela de origem da SAP (KNA1) e à tabela de destino do BigQuery (CustomerMaster).
  • Pipelines da camada de dimensão: o conjunto de dados da camada de dimensão nesse tipo de pipeline é uma versão refinada e refinada do conjunto de dados de preparo que cria a dimensão e os fatos necessários para a análise. Os pipelines de amostra têm nomes que se referem à entidade de destino no conjunto de dados de destino do BigQuery. Por exemplo, um pipeline chamado customer_dimension se refere à entidade de dimensão do cliente no conjunto de dados sap_cdf_fact do BigQuery.
  • Pipelines da camada de fatos: o conjunto de dados da camada de fatos é uma versão selecionada e refinada do conjunto de dados de preparo que cria os fatos necessários para a análise. Esses pipelines de amostra têm nomes que se referem à entidade de destino no conjunto de dados de destino do BigQuery. Por exemplo, um pipeline chamado sales_order_fact entrega dados selecionados à entidade Fatura de pedido de vendas no conjunto de dados sap_cdf_fact correspondente do BigQuery.

As seções a seguir resumem como fazer os pipelines funcionarem no seu ambiente.

Configurar pipelines de camada de preparo

Há duas etapas de configuração para os pipelines de preparo:

  1. Configurar o sistema SAP de origem.
  2. Configure a tabela e o conjunto de dados de destino do BigQuery.

Parâmetros do plug-in SAP Source Batch do SAP Table

O plug-in SAP Source Batch Source lê o conteúdo de uma tabela ou visualização SAP. O acelerador fornece as macros a seguir, que podem ser modificadas para controlar as conexões SAP de forma centralizada.

Nome da macro Descrição Exemplo
${SAP Client} Cliente SAP a ser usado 100
${SAP Language} Linguagem de logon SAP EN
${SAP Application Server Host} Nome do servidor SAP ou endereço IP 10.132.0.47
${SAP System Number} Número do sistema SAP 00
${secure(saplogonusername)} Nome de usuário SAP Para mais informações, consulte Como usar chaves seguras.
${secure(saplogonpassword)} Senha do usuário da SAP Para mais informações, consulte Como usar chaves seguras.
${Number of Rows to Fetch} Usado para limitar o número de registros extraídos. 100000

Para mais informações, consulte Como configurar o plug-in.

Parâmetros para o destino do BigQuery

O acelerador fornece as seguintes macros para destinos do BigQuery.

Configuração do conector de destino do BigQuery

Nome da macro Descrição Exemplo
${ProjectID} O ID do projeto em que o conjunto de dados do BigQuery foi criado. sap_adaptor
${Dataset} Conjunto de dados de destino sap_cdf_staging

Pipelines de amostra usados para fazer pedido em dinheiro de KPIs

As principais entidades comerciais a seguir para fins de processo de caixa correspondem a pipelines de amostra no acelerador. Esses pipelines fornecem os dados que alimentam as análises sobre essas entidades.

Principais entidades empresariais Exemplo de nome do pipeline correspondente
O Customer pode ser uma pessoa ou entidade com que a organização faz negócios. Essas três tabelas de origem da SAP capturam detalhes sobre o cliente no que se refere à empresa. As informações dessas tabelas contribuem para o customer_dimension no conjunto de dados sap_cdf_dimension. KNA1_CustomerMaster
KNVV_CustomerSales
KNVP_CustomerPartnerFunction
Material é o produto comercializado entre a empresa e os clientes. As informações dessas tabelas de origem SAP contribuem para o material_dimension no conjunto de dados sap_cdf_dimension. MARA_MaterialMaster
MARD_MaterialStorageLocation
O subprocesso gerenciamento de pedidos do pedido para processamento em dinheiro (quando seu sistema recebe um pedido do cliente). VBAK_SalesDocumentHeader
VBAP_SalesDocumentItem
VBEP_SalesDocumentSchedule
Os subprocessos de fulfillment e pedido do pedido. LIKP_DeliveryHeader
LIPS_DeliveryItem
Os subprocessos de faturamento e pagamentos ao cliente (quando o cliente recebe uma fatura). VBRK_BillingHeader
VBRP_BillingLineItem
Os subprocessos de recebimento de contas e relatórios (quando o pagamento é registrado no sistema). ACDOCA_UniversalJournalItem

Todos os pipelines de preparo do Cloud Data Fusion

As seguintes amostras de pipeline de preparo do Cloud Data Fusion estão disponíveis no acelerador:

  • KNA1_ClienteMestre
  • KNVV_Vendas para cliente
  • KNVP_CustomerPartnerFunction
  • MARA_MaterialMaster
  • MARD_MaterialStorageLocation
  • VBAK_SalesDocumentHeader
  • VBAP_SalesDocumentItem
  • VBEP_SalesDocumentSchedule
  • LIKP_DeliveryHeader
  • LIPS_DeliveryItem
  • ACDOCA_UniversalJournalItem
  • VBRK_BillingHeader
  • VBRP_BillingLineItem
  • BSEG_AccountDocumentItem
  • BSID_AccDocCustOpenItem
  • BSAD_AccDocCustCloseItem
  • T001_CompanyCodes
  • T006A_UnitOfMeasure
  • T024D_MRPControllers
  • T042ZT_PaymentMethodText
  • T189T_PriceListCategory
  • TCURC_CurrencyCodes
  • Texto TCURT_CurrencyCodes
  • TCURW_ExchangeRateType
  • Texto TINCT_docliente
  • TVAKT_SalesDocumentType
  • TVAPT_SalesDocumentItemCategory
  • TVFST_BillingBlockReasonText
  • TVLST_DeliveryBlockText
  • TVTWT_DistributionChannelText
  • Descrição do material
  • T005T_CountryNames
  • Texto da região T005U
  • TVAST_SalesDocBlockReasonText
  • T077X_AccountGroupName
  • T134T_MaterialTypeDescription
  • T023T_DescriçãodoMaterialGroup
  • Texto de conversão da TSPAT
  • TVKOV_DistributionChannel
  • TVTA_SalesArea
  • TVKOT_SalesOrgText
  • TVAUT_SalesDocumentOrderText
  • Texto TVSBT_ShippingConditionText
  • TVAG_SalesDocRejeitarionMotivos
  • TVAGT_SalesDocRejeitarionReasonDescription

Configurar pipelines de camadas dimensionais

É possível extrair KPIs de tabelas SAP de origem. Para preparar os dados para análise, organize os dados na tabela de origem para corresponder à estrutura de esquema da tabela do BigQuery.

O acelerador cria as quatro tabelas de amostra a seguir:

Nome da tabela Descrição da tabela
customer_dimension Lista selecionada* de clientes e respectivos fatos, como classificação, hierarquia e informações relacionadas ao cliente.
material_dimension [tamanho_da_material] Lista selecionada de materiais e fatos associados, como número de SKU, hierarquia de produtos e classificação.
vendas_pedido_fato Lista selecionada de informações de vendas, como tipos de pedido, visibilidade do status do pedido, quantidade ordenada e valor do pedido. Normalmente, esses campos são agregados para gerar KPIs de gerenciamento de pedidos, como pedidos abertos, pedidos confirmados, pedidos recusados e pedidos faturados.
Valor da receita Informações contábeis detalhadas geradas pela venda do material para os clientes. Deduzida das tabelas de contabilidade, essa tabela fato contém informações que podem fornecer insights por meio de KPIs de receita, incluindo vendas brutas, vendas líquidas antes do desconto, vendas líquidas após o desconto ou tendências.

*Nesse contexto, a lista selecionada vem da lógica de negócios que é aplicada à lista de colunas selecionada.

O acelerador cria a camada dimensional do conjunto de dados do BigQuery usando scripts SQL, que você pode modificar para o projeto. Por exemplo, é possível adaptar esses scripts para adicionar mais colunas às entidades do conjunto de dados de destino do BigQuery.

Transformação para o esquema em estrela: nomes de pipeline de executor do BigQuery

Os pipelines de executor do BigQuery a seguir no Cloud Data Fusion carregam dados em tabelas de fatos e de fatos:

Todos os pipelines de transformação dimensional:

  • customer_dimension
  • material_dimension
  • sales_order_fact
  • revenue_fact

Configuração do executor do BigQuery

Nome da macro Exemplo
${ProjectID} sap_adaptor
${StagingDatasetName} sap_cdf_staging
${TargetDatasetName} sap_cdf_dimension

Conectar o Looker ao projeto do BigQuery

Para conectar o Looker ao BigQuery, consulte a documentação do Looker sobre conexões do BigQuery.

Instalar o bloco

É possível acessar o SAP Looker Block (em inglês) no GitHub.

O Looker Block instala um pré-configurado LookML modelo com doisConhecer ambientes e dois painéis.

A seguir