Acelerador de Pedidos para Dinheiro do SAP

O acelerador do SAP para o processo de ordem em dinheiro é um exemplo de implementação do recurso Fonte de lote de tabela da SAP no Cloud Data Fusion. O acelerador ajuda você a começar quando cria seu pedido completo para análise e processo de dinheiro. Ele inclui pipelines de amostra do Cloud Data Fusion que podem ser configurados para realizar as seguintes tarefas:

  • Conecte-se à sua fonte de dados SAP.
  • Faça transformações nos dados do Cloud Data Fusion.
  • Armazene seus dados no BigQuery.
  • Configure análises no Looker. Isso inclui painéis e um modelo de ML, em que é possível definir os indicadores principais de desempenho (KPIs) para o pedido em dinheiro.

Este guia descreve a implementação de amostra e como começar a usar suas configurações.

O acelerador está disponível nos ambientes do Cloud Data Fusion em execução na versão 6.3.0 e posterior.

Antes de começar

  1. Sign in to your Google Account.

    If you don't already have one, sign up for a new account.

  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Verifique se a cobrança está ativada para o seu projeto do Google Cloud.

  4. Enable the Cloud Data Fusion and BigQuery APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Verifique se a cobrança está ativada para o seu projeto do Google Cloud.

  7. Enable the Cloud Data Fusion and BigQuery APIs.

    Enable the APIs

  8. Faça o download do SAP Table Batch Source.
  9. Você precisa ter acesso a uma instância do Looker e ativar o recurso de laboratórios do Marketplace para instalar o bloco do Looker. É possível solicitar um teste gratuito para ter acesso a uma instância.

Habilidades necessárias

A configuração do acelerador de Pedidos para dinheiro do SAP exige as seguintes habilidades:

Usuários obrigatórios

As configurações descritas nesta página exigem alterações no seu sistema SAP e no Google Cloud. É necessário trabalhar com os seguintes usuários desses sistemas para executar as configurações:

Tipo de usuário Descrição
Administrador do SAP Administrador do sistema SAP que pode acessar o site do serviço SAP para fazer o download de software.
Usuário do SAP Um usuário SAP autorizado a se conectar a um sistema SAP.
Administrador do GCP Administrador que controla o acesso do IAM para sua organização, que cria e implanta contas de serviço e concede permissões para o Cloud Data Fusion, BigQuery e Looker.
Usuário do Cloud Data Fusion Usuários autorizados a projetar e executar pipelines de dados no Cloud Data Fusion.
Proprietário de dados do BigQuery Usuários autorizados a criar, visualizar e modificar conjuntos de dados do BigQuery.
Desenvolvedor do Looker Esses usuários podem instalar o bloco do Looker pelo Marketplace. Eles precisam ter as permissões develop, manage_model e deploy.

Papéis do IAM obrigatórios

Na implementação de amostra do acelerador, os papéis do IAM a seguir são obrigatórios. Talvez você precise de papéis adicionais se o seu projeto depender de outros serviços do Google Cloud.

Visão geral do processo

Você pode implementar o acelerador no seu projeto seguindo estas etapas:

  1. Configure o sistema ERP da SAP e instale o transporte SAP fornecido.
  2. Configure o ambiente do Cloud Data Fusion para usar o plug-in do SAP Table Batch Source Source.
  3. Crie conjuntos de dados no BigQuery. O acelerador fornece conjuntos de dados de amostra para tabelas de preparo, dimensão e fatos.
  4. Configure os pipelines de amostra do Cloud Data Fusion do acelerador para integrar seus dados SAP.
  5. No hub do Cloud Data Fusion, implante os pipelines associados ao processo de análise de pedidos em dinheiro. Esses pipelines precisam ser configurados corretamente para criar o conjunto de dados do BigQuery.
  6. Conecte o Looker ao projeto do BigQuery.
  7. Instale e implante o Looker Block.

Para mais informações, consulte Como usar o plug-in do SAP Table Batch Source Source.

Conjuntos de dados de amostra no BigQuery

No exemplo de implementação nesse acelerador, os conjuntos de dados a seguir são criados no BigQuery.

Nome do conjunto de dados Descrição
sap_cdf_staging Contém todas as tabelas do sistema SAP Source, conforme identificado para esse processo comercial.
sap_cdf_dimension Contém as principais entidades de dimensão, como a dimensão do cliente e a dimensão do Material Design.
sap_cdf_fact Contém as tabelas de fatos geradas a partir do pipeline.

Pipelines de amostra no Cloud Data Fusion

Os pipelines de amostra desse acelerador estão disponíveis no Cloud Data Fusion Hub.

Para receber os pipelines de amostra do Hub:

  1. Acesse sua instância:
    1. No console do Google Cloud, acesse a página do Cloud Data Fusion.

    2. Para abrir a instância no Studio do Cloud Data Fusion, Clique em Instâncias e depois em Visualizar instância.

      Acesse "Instâncias"

  2. Clique em Hub.
  3. Selecione a guia SAP.
  4. Selecione Pipelines. Uma página de pipelines de amostra é aberta.
  5. Selecione os pipelines desejados para fazer o download.

Cada um dos pipelines contém macros que podem ser configuradas para serem executadas no ambiente.

Há três tipos de pipelines de amostra:

  • Pipelines da camada de preparo: o conjunto de dados de preparo nesse tipo de pipeline é um mapeamento direto para a tabela de origem original no SAP. Os pipelines de amostra de camada de preparo têm nomes que se referem à tabela de origem SAP e à tabela de destino do BigQuery. Por exemplo, um pipeline chamado KNA1_Customer_Master refere-se à tabela de origem SAP (KNA1) e à tabela de destino do BigQuery (CustomerMaster).
  • Pipelines da camada de dimensão: o conjunto de dados da camada de dimensão nesse tipo de pipeline é uma versão selecionada e refinada do conjunto de dados de preparo que cria a dimensão e os fatos necessários para a análise. Os pipelines de amostra têm nomes que se referem à entidade de destino no conjunto de dados de destino do BigQuery. Por exemplo, um pipeline chamado customer_dimension refere-se à entidade de dimensão do cliente no conjunto de dados do BigQuery sap_cdf_fact.
  • Pipelines da camada de fatos: uma coleção selecionada e refinada do conjunto de dados de preparo que cria os fatos necessários para a análise. Esses pipelines de amostra têm nomes que se referem à entidade de destino no conjunto de dados de destino do BigQuery. Por exemplo, um pipeline chamado vendas_pedido_fato fornece dados selecionados para a entidade de fatos de ordem de vendas no conjunto de dados sap_cdf_fact correspondente do BigQuery.

As seções a seguir resumem como fazer os pipelines funcionarem no seu ambiente.

Configurar pipelines de camada de preparo

Há duas etapas de configuração para os pipelines de preparo:

  1. Configure o sistema SAP de origem.
  2. Configure a tabela e o conjunto de dados de destino do BigQuery.

Parâmetros do plug-in SAP Source Source Batch

O plug-in SAP Source Batch da SAP lê o conteúdo de uma tabela ou visualização da SAP. O acelerador fornece as macros a seguir, que podem ser modificadas para controlar as conexões SAP de forma centralizada.

Nome da macro Descrição Exemplo
${SAP Client} Cliente SAP para usar 100
${SAP Language} Linguagem de logon da SAP EN
${SAP Application Server Host} Nome do servidor SAP ou endereço IP 10.132.0.47
${SAP System Number} Número do sistema SAP 00
${secure(saplogonusername)} Nome de usuário do SAP Para mais informações, consulte Como usar chaves seguras.
${secure(saplogonpassword)} Senha do usuário do SAP Para mais informações, consulte Como usar chaves seguras.
${Number of Rows to Fetch} Usado para limitar o número de registros extraídos. 100000

Para mais informações, consulte Como configurar o agente.

Parâmetros para o destino do BigQuery

O acelerador fornece as seguintes macros para destinos do BigQuery.

Configuração do conector de destino do BigQuery

Nome da macro Descrição Exemplo
${ProjectID} O ID do projeto em que o conjunto de dados do BigQuery foi criado. sap_adaptor
${Dataset} Conjunto de dados de destino sap_cdf_staging

Pipelines de amostra usados para fazer KPIs em dinheiro

As principais entidades de negócios a seguir para processamento em dinheiro correspondem aos pipelines de amostra no acelerador. Esses pipelines fornecem os dados que compõem a análise sobre essas entidades.

Principais entidades comerciais Nome do pipeline de amostra correspondente
Um Customer pode ser uma pessoa ou entidade com que a organização faz negócios. Essas três tabelas de origem da SAP capturam detalhes sobre o cliente em relação à empresa. As informações dessas tabelas contribuem para customer_dimension no conjunto de dados sap_cdf_dimension. KNA1_CustomerMaster
KNVV_CustomerSales
KNVP_CustomerPartnerFunction
Material é o bem que é negociado entre a empresa e os clientes. As informações dessas tabelas de origem SAP contribuem para o material_dimension no conjunto de dados sap_cdf_dimension. MARA_MaterialMaster
MARD_MaterialStorageLocation
O subprocesso de gerenciamento de pedidos do pedido para o processo em dinheiro (quando seu sistema recebe um pedido do cliente). VBAK_SalesDocumentHeader
VBAP_SalesDocumentItem
VBEP_SalesDocumentSchedule
Os subprocessos de fulfillment do pedido e frete. LIKP_DeliveryHeader
LIPS_DeliveryItem
Os subprocessos de faturamento e pagamentos de clientes (quando o cliente recebe uma fatura). VBRK_BillingHeader
VBRP_BillingLineItem
Os subprocessos de contas a receber e de relatórios (quando o pagamento é registrado no seu sistema). ACDOCA_UniversalJournalItem

Todos os pipelines de preparação do Cloud Data Fusion

As amostras de pipeline de preparo do Cloud Data Fusion a seguir estão disponíveis no acelerador:

  • KNA1_CustomerMaster
  • KNVV_CustomerSales
  • KNVP_CustomerPartnerFunction
  • MARA_MaterialMaster
  • MARD_MaterialStorageLocation
  • VBAK_SalesDocumentHeader
  • VBAP_SalesDocumentItem
  • VBEP_SalesDocumentSchedule
  • LIKP_DeliveryHeader
  • LIPS_DeliveryItem
  • ACDOCA_UniversalJournalItem
  • VBRK_BillingHeader
  • VBRP_BillingLineItem
  • BSEG_AccountDocumentItem
  • BSID_AccDocCustOpenItem
  • BSAD_AccDocCustCloseItem
  • T001_CompanyCodes
  • T006A_UnitOfMeasure
  • T024D_MRPControllers
  • T042ZT_PaymentMethodText
  • T189T_PriceListCategory
  • TCURC_CurrencyCodes
  • TCURT_CurrencyCodesText
  • TCURW_ExchangeRateType
  • TINCT_CustomerIncotermsText
  • TVAKT_SalesDocumentType
  • TVAPT_SalesDocumentItemCategory
  • TVFST_BillingBlockReasonText
  • TVLST_DeliveryBlockText
  • TVTWT_DistributionChannelText
  • MAKT_MaterialDescription
  • T005T_CountryNames
  • T005U_RegionText
  • TVAST_SalesDocBlockReasonText
  • T077X_AccountGroupName
  • T134T_MaterialTypeDescription
  • T023T_MaterialGroupDescription
  • TSPAT_SalesDivisionText
  • TVKOV_DistributionChannel
  • TVTA_SalesArea
  • TVKOT_SalesOrgText
  • TVAUT_SalesDocumentOrderText
  • TVSBT_ShippingConditionText
  • TVAG_SalesDocRejectionReasons
  • TVAGT_SalesDocRejectionReasonDescription

Configure pipelines de camadas dimensionais

Extraia KPIs de tabelas SAP de origem. Para preparar os dados para análise, organize-os na tabela de origem para corresponder à estrutura de esquemas da tabela do BigQuery.

O acelerador cria as quatro tabelas de amostra a seguir:

Nome da tabela Descrição da tabela
customer_dimension Lista selecionada* de clientes e os fatos associados, como classificação, hierarquia e informações relacionadas às vendas do cliente.
material_dimension Lista selecionada de materiais e fatos associados, como número de SKU, hierarquia de produtos e classificação
sales_order_fact Lista selecionada de informações de vendas, como tipos, visibilidade e quantidade e valor do pedido. Esses campos normalmente são agregados para gerar KPIs de gerenciamento de pedidos, como pedidos abertos, pedidos confirmados, pedidos recusados e pedidos faturados.
revenue_fact Informações contábeis detalhadas geradas pela venda do material aos clientes. Derivada das tabelas de contabilidade, esta tabela de fatos contém informações que podem fornecer insights por meio de KPIs de receita, incluindo vendas brutas, vendas líquidas antes do desconto, vendas líquidas após o desconto ou tendências.

*Nesse contexto, a lista selecionada vem da lógica de negócios que é aplicada à lista de colunas selecionada.

O acelerador cria a camada dimensional do conjunto de dados do BigQuery usando scripts SQL, que podem ser modificados no seu projeto. Por exemplo, é possível adaptar esses scripts para adicionar mais colunas às entidades de conjunto de dados de destino do BigQuery.

Transformação para o esquema de estrela: nomes de pipeline do executor do BigQuery

Os seguintes pipelines do executor do BigQuery no Cloud Data Fusion carregam dados em tabelas de fatos e fatos:

Todos os pipelines de transformação dimensional:

  • customer_dimension
  • material_dimension
  • sales_order_fact
  • revenue_fact

Configuração do executor do BigQuery

Nome da macro Exemplo
${ProjectID} sap_adaptor
${StagingDatasetName} sap_cdf_staging
${TargetDatasetName} sap_cdf_dimension

Conecte o Looker ao projeto do BigQuery

Para conectar o Looker ao BigQuery, consulte a documentação do Looker sobre conexões do BigQuery.

Instale o bloco

É possível acessar o SAP Looker Block no GitHub.

ABloqueio do Looker instala uma pré-configurada. LookML modelo com doisDescoberta ambientes e dois painéis.

A seguir