Conectar-se a uma fonte em lote da SAP Ariba

Nesta página, descrevemos como conectar seu pipeline de dados a uma fonte da SAP Ariba e um coletor do BigQuery. É possível configurar e executar transferências de dados em massa da Ariba sem programação usando o plug-in SAP Ariba Batch Source do Cloud Data Fusion Hub.

O plug-in extrai dados dos fatos informados no SAP Ariba Source. Cada fato corresponde a um tipo de documento da SAP Ariba. Os fatos são expostos em modelos de visualização, que são acessados por meio da API de relatórios.

Para mais informações, consulte a referência da fonte em lote da SAP Ariba.

Antes de começar

  • Crie uma instância no Cloud Data Fusion versão 6.5.1 ou posterior. Se a instância usa uma versão anterior, faça upgrade do ambiente do Cloud Data Fusion.

  • Um usuário da SAP Ariba precisa fazer o seguinte:

    • Crie um aplicativo e gere as credenciais do OAuth.
    • Conceder acesso à API de relatórios analíticos no portal do desenvolvedor da Ariba.
  • Recupere uma solicitação GET para recuperar o nome do modelo de visualização de relatório da API Aribaly Reporting da SAP Ariba. Consulte Como identificar modelos de vista da API de relatórios analíticos.

  • Opcional: para evitar falhas de pipeline devido a limites de taxa, identifique a contagem de registros esperada. O plug-in extrai dados de fatos e dimensões por meio da API de relatórios analíticos SAP Ariba, em que os limites de taxa se aplicam. Para mais informações, consulte Gerenciar limites de taxa.

Implantar e configurar o plug-in

  1. Implante o plug-in SAP Ariba Batch Source na guia SAP do Hub. Para mais informações, consulte Implantar um plug-in do hub.

  2. Abra o canal na página Studio do Cloud Data Fusion e selecione Pipeline de dados - Lote. O plug-in não é compatível com pipelines em tempo real.

  3. No menu de origem, clique em SAP Ariba. O nó de origem em lote SAP Ariba aparece no pipeline.

  4. Acesse o nó e clique em Propriedades. Uma janela de propriedades da Ariba será aberta.

  5. Configure as propriedades.

  6. Clique em Validar e resolva todos os erros.

  7. Clique em Fechar.

Opcional: conectar o plug-in a um coletor do BigQuery

  1. Na página Studio do Cloud Data Fusion, acesse o menu Coletor e clique em BigQuery.

    O nó do coletor do BigQuery aparece no pipeline.

  2. Configure as propriedades obrigatórias do coletor.

  3. Clique em Validar e resolva todos os erros.

  4. Clique em Fechar.

Opcional: gerenciar limites de taxa

Para verificar a contagem de registros para um período específico na SAP Ariba, consulte Filtros relacionados à data para a API de relatórios analíticos.

Para mais informações, consulte Limites do plug-in.

A tabela a seguir descreve maneiras de solucionar problemas com limites de taxa.

Exemplo de pipeline Contagem de registros e chamadas de API necessárias Limite diário restante Solução de problemas
Quero extrair dados de um modelo de visualização para um período específico.
1 2.020.000 registros, 41 chamadas -1 de 40 As chamadas de API necessárias para esse período e número de registros excedem o limite diário (40). Para reduzir o número de chamadas, selecione um período menor para diminuir a contagem de registros.
Quero extrair dados de vários modelos de visualização para um período específico.
1 50.001 registros, 2 chamadas 38 de 40
2 100.000 registros, 2 chamadas 36 de 40
3 100 registros, 1 chamada 35 de 40
4 1.000.000 de registros, 20 chamadas 15 de 40
5 500.000 registros, 10 chamadas 5 de 40
6 500.000 registros, 10 chamadas -5 de 40 O pipeline 6 excede o limite de chamadas de API. Para evitar erros, execute a extração um dia depois ou altere o período.

A seguir