Associe a uma origem de lote do SAP Ariba

Esta página descreve como associar o seu pipeline de dados a uma origem do SAP Ariba e a um destino do BigQuery. Pode configurar e executar transferências de dados em massa a partir do Ariba sem programação através do plug-in de origem em lote do SAP Ariba do Hub do Cloud Data Fusion.

O plug-in extrai dados dos factos de relatórios fornecidos na origem do SAP Ariba. Cada facto corresponde a um tipo de documento do SAP Ariba. Os factos são expostos em modelos de visualização, que são acedidos através da API Analytical Reporting.

Para mais informações, consulte a referência da origem em lote do SAP Ariba.

Antes de começar

  • Crie uma instância na versão 6.5.1 ou posterior do Cloud Data Fusion. Se a sua instância usar uma versão anterior, atualize o ambiente do Cloud Data Fusion.

  • Um utilizador do SAP Ariba tem de fazer o seguinte:

    • Crie uma aplicação e gere as credenciais do OAuth.
    • Conceda acesso à API Analytical Reporting no portal de programadores do Ariba.
  • Obtenha o nome do modelo de vista de relatórios da API SAP Ariba Analytical Reporting - View Management enviando um pedido GET. Consulte o artigo Identificar modelos de visualização da API de relatórios de análise.

  • Opcional: para evitar falhas no pipeline devido a limites de taxa, identifique a quantidade de registos esperada. O plug-in extrai dados de factos e dimensões através da API SAP Ariba Analytical Reporting, onde se aplicam limites de taxa. Para mais informações, consulte o artigo Faça a gestão dos limites de taxa.

Implemente e configure o plug-in

  1. Implemente o plug-in SAP Ariba Batch Source a partir do separador SAP do Hub. Para mais informações, consulte o artigo Implemente um plug-in a partir do Hub.

  2. Abra o pipeline na página Studio do Cloud Data Fusion e selecione Data Pipeline - Batch. O plugin não suporta pipelines em tempo real.

  3. No menu de origem, clique em SAP Ariba. O nó de origem em lote do SAP Ariba é apresentado no pipeline.

  4. Aceda ao nó e clique em Propriedades. É aberta uma janela de propriedades do Ariba.

  5. Configure as propriedades.

  6. Clique em Validar e resolva os erros.

  7. Clique em Fechar.

Opcional: associe o plug-in a um BigQuery Sink

  1. Na página Studio do Cloud Data Fusion, aceda ao menu Destino e clique em BigQuery.

    O nó BigQuery Sink aparece no pipeline.

  2. Configure as propriedades necessárias do destino.

  3. Clique em Validar e resolva os erros.

  4. Clique em Fechar.

Opcional: faça a gestão dos limites de taxas

Para verificar a contagem de registos para um intervalo de datas específico no SAP Ariba, consulte o artigo Filtros relacionados com datas para a API Analytical Reporting.

Para mais informações, consulte os Limites do plug-in.

A tabela seguinte descreve formas de resolver problemas com limites de taxa.

Exemplo de pipeline Contagem de registos e chamadas API necessárias Limite diário restante Resolução de problemas
Quero extrair dados de um modelo de vista para um intervalo de datas específico.
1 2 020 000 registos, 41 chamadas -1 de 40 As chamadas API necessárias para este intervalo de datas e número de registos excedem o limite diário (40). Para reduzir o número de chamadas, selecione um intervalo de datas mais pequeno para diminuir a contagem de registos.
Quero extrair dados de vários modelos de visualização para um intervalo de datas específico.
1 50 001 registos, 2 chamadas 38 de 40
2 100 000 registos, 2 chamadas 36 de 40
3 100 registos, 1 chamada 35 de 40
4 1 000 000 de registos, 20 chamadas 15 de 40
5 500 000 registos, 10 chamadas 5 de 40
6 500 000 registos, 10 chamadas -5 de 40 O pipeline 6 excede o limite de chamadas de API. Para evitar erros, execute a extração um dia depois ou altere o intervalo de datas.

O que se segue?