Se connecter à une source par lot SAP Ariba

Cette page explique comment connecter votre pipeline de données à une source SAP Ariba et à un récepteur BigQuery. Vous pouvez configurer et exécuter des transferts de données groupés depuis Ariba sans aucun codage à l'aide du plug-in source par lot SAP Ariba de Cloud Data Fusion Hub.

Le plug-in extrait les données des faits de rapport fournis dans la source SAP Ariba. Chaque fait correspond à un type de document SAP Ariba. Les faits sont exposés dans des modèles de vue accessibles via l'API Analytics Reporting.

Pour en savoir plus, consultez la documentation de référence sur les sources par lot de SAP Ariba.

Avant de commencer

  • Créez une instance dans Cloud Data Fusion 6.5.1 ou version ultérieure. Si votre instance utilise une version antérieure, mettez à niveau votre environnement Cloud Data Fusion.

  • Un utilisateur SAP Ariba doit effectuer les opérations suivantes:

    • Créer une application et générer les identifiants OAuth
    • accorder l'accès à l'API Analytics Reporting sur le portail des développeurs Ariba ;
  • Récupérez le nom du modèle de vue de rapports à partir de l'API SAP Ariba Analytical Reporting - View Management en envoyant une requête GET. Consultez la section Identifier les modèles de vue de l'API de création de rapports analytiques.

  • Facultatif: Pour éviter les échecs de pipeline dus aux limites de débit, identifiez le nombre d'enregistrements attendu. Le plug-in extrait des données à partir de faits et de dimensions via l'API SAP Ariba Analytical Reporting, où des limites de débit s'appliquent. Pour en savoir plus, consultez la section Gérer les limites de débit.

Déployer et configurer le plug-in

  1. Déployez le plug-in par lot SAP Ariba à partir de l'onglet SAP du hub. Pour en savoir plus, consultez Déployer un plug-in depuis le hub.

  2. Ouvrez le pipeline sur la page Studio de Cloud Data Fusion, puis sélectionnez Pipeline de données – Lot. Le plug-in n'est pas compatible avec les pipelines en temps réel.

  3. Dans le menu de la source, cliquez sur SAP Ariba. Le nœud SAP Ariba Batch Source apparaît dans le pipeline.

  4. Accédez au nœud et cliquez sur Propriétés. Une fenêtre "Propriétés Ariba" s'ouvre.

  5. Configurez les propriétés.

  6. Cliquez sur Valider pour résoudre les erreurs.

  7. Cliquez sur Fermer.

Facultatif: Connecter le plug-in à un récepteur BigQuery

  1. Sur la page Studio de Cloud Data Fusion, accédez au menu Récepteur et cliquez sur BigQuery.

    Le nœud du récepteur BigQuery apparaît dans le pipeline.

  2. Configurez les propriétés requises pour le récepteur.

  3. Cliquez sur Valider pour résoudre les erreurs.

  4. Cliquez sur Fermer.

Facultatif: gérer les limites de débit

Pour vérifier le nombre d'enregistrements pour une plage de dates spécifique dans SAP Ariba, consultez la section Filtres associés à la date pour l'API Analytics Reporting.

Pour en savoir plus, consultez la section Limites du plug-in.

Le tableau suivant décrit comment résoudre les problèmes liés aux limites de débit.

Exemple de pipeline Nombre d'enregistrements et d'appels d'API requis Limite quotidienne restante Dépannage
Je souhaite extraire les données d'un modèle de vue pour une plage de dates spécifique.
1 2 020 000 enregistrements, 41 appels -1 sur 40 Le nombre d'appels d'API requis pour cette plage de dates et ce nombre d'enregistrements dépasse la limite quotidienne (40). Pour réduire le nombre d'appels, sélectionnez une plage de dates plus courte afin de réduire le nombre d'enregistrements.
Je souhaite extraire des données de plusieurs modèles de vue pour une plage de dates spécifique.
1 50 001 enregistrements, 2 appels 38 sur 40
2 100 000 enregistrements, 2 appels 36 sur 40
3 100 enregistrements, 1 appel 35 sur 40
4 1 000 000 d'enregistrements, 20 appels 15 sur 40
5 500 000 enregistrements, 10 appels 5 sur 40
6 500 000 enregistrements, 10 appels -5 sur 40 Le pipeline 6 dépasse la limite d'appels d'API. Pour éviter les erreurs, exécutez l'extraction un jour plus tard ou modifiez la plage de dates.

Étapes suivantes