Nesta página, descrevemos como conectar seu pipeline de dados a uma fonte do SAP Ariba e a um coletor do BigQuery. É possível configurar e executar transferências de dados em massa da Ariba sem precisar de programação usando o plug-in de fonte em lote do SAP Ariba no hub do Cloud Data Fusion.
O plug-in extrai dados dos fatos de relatório fornecidos na fonte do SAP Ariba. Cada fato corresponde a um tipo de documento do SAP Ariba. As informações são exibidas em modelos de visualização, que são acessados pela API Analytical Reporting.
Para mais informações, consulte a referência de fontes em lote do SAP Ariba.
Antes de começar
Crie uma instância no Cloud Data Fusion versão 6.5.1 ou posterior. Se a instância usar uma versão anterior, faça upgrade do ambiente do Cloud Data Fusion.
Um usuário do SAP Ariba precisa fazer o seguinte:
- Crie um aplicativo e gere as credenciais do OAuth.
- Conceda acesso à API Analytical Reporting no portal para desenvolvedores da Ariba.
Recupere o nome do modelo de visualização de relatórios da API Analytical Reporting - View Management da SAP Ariba enviando uma solicitação
GET
. Consulte Como identificar modelos de exibição da API de relatórios analíticos.Opcional: para evitar falhas no pipeline devido a limitações de taxa, identifique a contagem de registros esperada. O plug-in extrai dados de fatos e dimensões por meio da API SAP Ariba Analytical Reporting, em que as limitações de taxa se aplicam. Para mais informações, consulte Gerenciar limites de taxa.
Implante e configure o plug-in
Implante o plug-in de fonte em lote do SAP Ariba na guia SAP do Hub. Para mais informações, consulte Implantar um plug-in do Hub.
Abra o pipeline na página Studio do Cloud Data Fusion e selecione Data Pipeline - Batch. O plug-in não oferece suporte a pipelines em tempo real.
No menu de origem, clique em SAP Ariba. O nó de origem em lote do SAP Ariba aparece no pipeline.
Vá até o nó e clique em Propriedades. Uma janela de propriedades do Ariba será aberta.
Clique em Validar e corrija os erros.
Clique em
Fechar.
Opcional: conecte o plug-in a um coletor do BigQuery
Na página do Studio do Cloud Data Fusion, acesse o menu Coletor e clique em BigQuery.
O nó do coletor do BigQuery aparece no pipeline.
Configure as propriedades necessárias do coletor.
Clique em Validar e corrija os erros.
Clique em
Fechar.
Opcional: gerenciar limites de taxa
Para verificar a contagem de registros para um período específico no SAP Ariba, consulte Filtros relacionados a datas para a API Analytical Reporting.
Para mais informações, consulte Limites do plug-in.
A tabela a seguir descreve maneiras de solucionar problemas com limites de taxa.
Exemplo de pipeline | Contagem de registros e chamadas de API necessárias | Limite diário restante | Solução de problemas |
---|---|---|---|
Quero extrair dados de um modelo de visualização para um período específico. | |||
1 | 2.020.000 registros, 41 chamadas | 1 de 40 | As chamadas de API necessárias para esse período e contagem de registros excedem o limite diário (40). Para reduzir o número de chamadas, selecione um período menor e diminua a contagem de registros. |
Quero extrair dados de vários modelos de visualização para um período específico. | |||
1 | 50.001 registros, 2 chamadas | 38 de 40 | |
2 | 100.000 registros, 2 chamadas | 36 de 40 | |
3 | 100 registros, 1 chamada | 35 de 40 | |
4 | 1.000.000 registros, 20 chamadas | 15 de 40 | |
5 | 500.000 registros, 10 chamadas | 5 de 40 | |
6 | 500.000 registros, 10 chamadas | -5 de 40 | O pipeline 6 excede o limite de chamadas de API. Para evitar erros, execute a extração um dia depois ou altere o período. |
A seguir
- Saiba mais sobre as integrações do Cloud Data Fusion para SAP.
- Consulte a referência de fontes em lote do SAP Ariba.