Esta página descreve como associar o seu pipeline de dados a uma origem do SAP Ariba e a um destino do BigQuery. Pode configurar e executar transferências de dados em massa a partir do Ariba sem programação através do plug-in de origem em lote do SAP Ariba do Hub do Cloud Data Fusion.
O plug-in extrai dados dos factos de relatórios fornecidos na origem do SAP Ariba. Cada facto corresponde a um tipo de documento do SAP Ariba. Os factos são expostos em modelos de visualização, que são acedidos através da API Analytical Reporting.
Para mais informações, consulte a referência da origem em lote do SAP Ariba.
Antes de começar
Crie uma instância na versão 6.5.1 ou posterior do Cloud Data Fusion. Se a sua instância usar uma versão anterior, atualize o ambiente do Cloud Data Fusion.
Um utilizador do SAP Ariba tem de fazer o seguinte:
- Crie uma aplicação e gere as credenciais do OAuth.
- Conceda acesso à API Analytical Reporting no portal de programadores do Ariba.
Obtenha o nome do modelo de vista de relatórios da API SAP Ariba Analytical Reporting - View Management enviando um pedido
GET
. Consulte o artigo Identificar modelos de visualização da API de relatórios de análise.Opcional: para evitar falhas no pipeline devido a limites de taxa, identifique a quantidade de registos esperada. O plug-in extrai dados de factos e dimensões através da API SAP Ariba Analytical Reporting, onde se aplicam limites de taxa. Para mais informações, consulte o artigo Faça a gestão dos limites de taxa.
Implemente e configure o plug-in
Implemente o plug-in SAP Ariba Batch Source a partir do separador SAP do Hub. Para mais informações, consulte o artigo Implemente um plug-in a partir do Hub.
Abra o pipeline na página Studio do Cloud Data Fusion e selecione Data Pipeline - Batch. O plugin não suporta pipelines em tempo real.
No menu de origem, clique em SAP Ariba. O nó de origem em lote do SAP Ariba é apresentado no pipeline.
Aceda ao nó e clique em Propriedades. É aberta uma janela de propriedades do Ariba.
Clique em Validar e resolva os erros.
Clique em
Fechar.
Opcional: associe o plug-in a um BigQuery Sink
Na página Studio do Cloud Data Fusion, aceda ao menu Destino e clique em BigQuery.
O nó BigQuery Sink aparece no pipeline.
Configure as propriedades necessárias do destino.
Clique em Validar e resolva os erros.
Clique em
Fechar.
Opcional: faça a gestão dos limites de taxas
Para verificar a contagem de registos para um intervalo de datas específico no SAP Ariba, consulte o artigo Filtros relacionados com datas para a API Analytical Reporting.
Para mais informações, consulte os Limites do plug-in.
A tabela seguinte descreve formas de resolver problemas com limites de taxa.
Exemplo de pipeline | Contagem de registos e chamadas API necessárias | Limite diário restante | Resolução de problemas |
---|---|---|---|
Quero extrair dados de um modelo de vista para um intervalo de datas específico. | |||
1 | 2 020 000 registos, 41 chamadas | -1 de 40 | As chamadas API necessárias para este intervalo de datas e número de registos excedem o limite diário (40). Para reduzir o número de chamadas, selecione um intervalo de datas mais pequeno para diminuir a contagem de registos. |
Quero extrair dados de vários modelos de visualização para um intervalo de datas específico. | |||
1 | 50 001 registos, 2 chamadas | 38 de 40 | |
2 | 100 000 registos, 2 chamadas | 36 de 40 | |
3 | 100 registos, 1 chamada | 35 de 40 | |
4 | 1 000 000 de registos, 20 chamadas | 15 de 40 | |
5 | 500 000 registos, 10 chamadas | 5 de 40 | |
6 | 500 000 registos, 10 chamadas | -5 de 40 | O pipeline 6 excede o limite de chamadas de API. Para evitar erros, execute a extração um dia depois ou altere o intervalo de datas. |
O que se segue?
- Saiba mais acerca das integrações do Cloud Data Fusion para SAP.
- Consulte a referência da origem de lotes da SAP Ariba.