Présentation du plug-in SAP OData

Ce guide explique comment déployer, configurer et exécuter des pipelines de données qui utilisent le plug-in SAP OData.

Vous pouvez utiliser SAP comme source pour l'extraction de données par lot dans Cloud Data Fusion à l'aide du protocole Open Data (OData). Le plug-in SAP OData vous aide à configurer et à exécuter les transferts de données depuis les services SAP OData Catalog, sans codage.

Pour en savoir plus sur les services et les sources de données SAP OData Catalog compatibles, consultez les questions fréquentes. Pour en savoir plus sur SAP sur Google Cloud, consultez la Présentation de SAP sur Google Cloud.

Objectifs

  • Configurez le système SAP ERP (activer DataSources dans SAP).
  • Déployez le plug-in dans votre environnement Cloud Data Fusion.
  • Téléchargez le transport SAP à partir de Cloud Data Fusion et installez-le dans SAP.
  • Utilisez Cloud Data Fusion et SAP OData pour créer des pipelines de données permettant d'intégrer des données SAP.

Avant de commencer

Pour utiliser ce plug-in, vous devez connaître les domaines suivants :

  • Créer des pipelines dans Cloud Data Fusion
  • Gestion des accès avec IAM
  • Configurer SAP Cloud et les systèmes de progiciels de gestion intégrés (ERP) sur site

Rôles utilisateur

Les tâches de cette page sont effectuées par les personnes disposant des rôles suivants dans Google Cloud ou dans leur système SAP:

Type d'utilisateur Description
Administrateur Google Cloud Les utilisateurs affectés à ce rôle sont des administrateurs de comptes Google Cloud.
Utilisateur Cloud Data Fusion Les utilisateurs auxquels ce rôle est attribué sont autorisés à concevoir et à exécuter des pipelines de données. Le rôle Lecteur de Data Fusion (roles/datafusion.viewer) leur est accordé au minimum. Si vous utilisez le contrôle des accès basé sur les rôles, vous aurez peut-être besoin de rôles supplémentaires.
Administrateur SAP Les utilisateurs affectés à ce rôle sont les administrateurs du système SAP. Ils ont accès au téléchargement du logiciel depuis le site de service SAP. Il ne s'agit pas d'un rôle IAM.
Utilisateur SAP Les utilisateurs auxquels ce rôle est attribué sont autorisés à se connecter à un système SAP. Il ne s'agit pas d'un rôle IAM.

Conditions préalables à l'extraction d'OData

  1. Le service OData Catalog doit être activé dans le système SAP.

  2. Les données doivent être renseignées dans le service OData.

Prérequis pour votre système SAP

  • Dans SAP NetWeaver 7.02 vers SAP NetWeaver 7.31, les fonctionnalités OData et SAP Gateway sont fournies avec les composants logiciels SAP suivants:

    • IW_FND
    • GW_CORE
    • IW_BEP
  • Dans SAP NetWeaver version 7.40 et ultérieure, toutes les fonctionnalités sont disponibles dans le composant SAP_GWFND, qui doit être disponible dans SAP NetWeaver.

Facultatif: Installer les fichiers de transport SAP

Les composants SAP nécessaires à l'équilibrage de charge sont fournis sous la forme de fichiers de transport SAP archivés sous la forme d'un fichier ZIP (une requête de transport comprenant un cofile et un fichier de données). Vous pouvez utiliser cette étape pour limiter plusieurs appels parallèles à SAP, en fonction des processus de travail disponibles dans SAP.

L'ID de la requête de transport et les fichiers associés sont fournis dans le tableau suivant :

ID de transport Fichier cofile Fichier de données Contenu
ED1K900360 K900360.ED1 R900360.ED1 Modules de fonction RFC exposés via OData

Lorsque vous importez les fichiers de transport dans SAP, les projets SAP OData suivants sont créés:

  • Projets OData

    • /GOOG/GET_STATISTIC
    • /GOOG/TH_WPINFO
  • Nœud de service FIC:GOOG

Pour installer le transport SAP, procédez comme suit :

Étape 1 : Importer les fichiers de requête de transport

  1. Connectez-vous au système SAP en tant qu'administrateur de système SAP.
  2. Copiez les fichiers cofile dans le dossier /usr/sap/trans/cofiles.
  3. Copiez les fichiers de données dans le dossier /usr/sap/trans/data.

Étape 2 : Importer les fichiers de requête de transport

L'administrateur SAP peut importer les fichiers de requête de transport à l'aide de l'une des options suivantes:

Option 1: Importer les fichiers de requête de transport à l'aide du système de gestion du transport SAP
  1. Connectez-vous au système SAP en tant qu'administrateur SAP.
  2. Saisissez le STMS de la transaction.
  3. Cliquez sur Vue d'ensemble des importations.
  4. Dans la colonne File d'attente, double-cliquez sur le SID actuel.
  5. Cliquez sur Autres options
  6. Sélectionnez l'ID de la demande de transport, puis cliquez sur Continuer.
  7. Sélectionnez la requête de transport dans la file d'attente, puis cliquez sur Demander l'importation.
  8. Saisissez le numéro client.
  9. Dans l'onglet Options, sélectionnez Remplacer les originaux et Ignorer la version du composant non valide (si disponible).

    (Facultatif) Pour planifier une importation des transports ultérieurement, sélectionnez Laisser les requêtes de transport en file d'attente en vue d'une importation ultérieure et Importer à nouveau les requêtes de transport. Cela est utile pour les mises à niveau du système SAP et les restaurations de sauvegarde.

  10. Cliquez sur Continuer.

  11. Pour vérifier l'importation, utilisez n'importe quelle transaction, telle que SE80 et SU01.

Option 2: Importer les fichiers de requête de transport au niveau du système d'exploitation
  1. Connectez-vous au système SAP en tant qu'administrateur système SAP.
  2. Ajoutez les requêtes appropriées au tampon d'importation en exécutant la commande suivante:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Par exemple : tp addtobuffer IB1K903958 DD1.

  3. Importez les requêtes de transport en exécutant la commande suivante:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Remplacez NNN par le numéro client. Par exemple, tp import IB1K903958 DD1 client=800 U1238.

  4. Vérifiez que le module de fonction et les rôles d'autorisation ont bien été importés à l'aide de transactions appropriées, telles que SE80 et SU01.

Obtenir la liste des colonnes filtrables d'un service de catalogue SAP

Seules certaines colonnes DataSource peuvent être utilisées pour les conditions de filtre (il s'agit d'une limitation SAP par nature).

Pour obtenir la liste des colonnes filtrables d'un service de catalogue SAP, procédez comme suit:

  1. Connectez-vous au système SAP.
  2. Accédez au t-code SEGW.
  3. Saisissez le nom du projet OData, qui est une sous-chaîne du nom du service. Exemple :

    • Nom du service : MM_PUR_POITEMS_MONI_SRV
    • Nom du projet: MM_PUR_POITEMS_MONI
  4. Appuyez sur Entrée.

  5. Accédez à l'entité que vous souhaitez filtrer, puis sélectionnez Propriétés.

    Vous pouvez utiliser les champs de la section Propriétés comme filtres. Les opérations acceptées sont Equal (Égal à) et Between (Entre : plage).

    Propriétés dans SAP

Pour obtenir la liste des opérateurs acceptés dans le langage d'expression, consultez la documentation Open Source OData : URI Conventions (version 2.0 d'OData).

Exemple d'URI avec filtres:

/sap/opu/odata/sap/MM_PUR_POITEMS_MONI_SRV/C_PurchaseOrderItemMoni(P_DisplayCurrency='USD')/Results/?$filter=(PurchaseOrder eq '4500000000')

Configurer le système ERP SAP

Le plug-in SAP Data utilise un service OData activé sur chaque serveur SAP à partir duquel les données sont extraites. Ce service OData peut être une norme fournie par SAP ou un service OData personnalisé développé sur votre système SAP.

Étape 1: Installez SAP Gateway 2.0

L'administrateur SAP (Basis) doit vérifier que les composants SAP Gateway 2.0 sont disponibles dans le système source SAP, en fonction de la version de Redis. Pour en savoir plus sur l'installation de SAP Gateway 2.0, connectez-vous à SAP ONE Support Launchpad et consultez la page Remarque 1569624 (connexion requise)

Étape 2: activer le service OData

Activez le service OData requis sur le système source. Pour en savoir plus, consultez Serveur frontend: activer les services OData.

Étape 3: Créez un rôle d'autorisation

Pour vous connecter à la source de données, créez un rôle d'autorisation avec les autorisations requises dans SAP, puis accordez-le à l'utilisateur SAP.

Pour créer le rôle d'autorisation dans SAP, procédez comme suit :

  1. Dans l'IUG SAP, saisissez le code de transaction PFCG pour ouvrir la fenêtre Maintenance des rôles.
  2. Dans le champ Rôle, saisissez un nom pour le rôle.

    Par exemple : ZODATA_AUTH

  3. Cliquez sur Rôle unique.

    La fenêtre Créer des rôles s'ouvre.

  4. Dans le champ Description, saisissez une description, puis cliquez sur Enregistrer.

    Exemple : Authorizations for SAP OData plugin.

  5. Cliquez sur l'onglet Autorisations. Le titre de la fenêtre passe à Modifier les rôles.

  6. Sous Modifier les données d'autorisation et générer des profils, cliquez sur Modifier les données d'autorisation.

    La fenêtre Choisir un modèle s'ouvre.

  7. Cliquez sur Ne pas sélectionner de modèles.

    La fenêtre Modifier le rôle : Autorisations s'ouvre.

  8. Cliquez sur Manuellement.

  9. Fournissez les autorisations indiquées dans le tableau suivant.

  10. Cliquez sur Enregistrer.

  11. Pour activer le rôle d'autorisation, cliquez sur l'icône Générer.

Autorisations SAP

Classe d'objet Texte de classe d'objet Objet d'autorisation Texte d'objet d'autorisation Autorisation Texte Valeur
AAAB Objets d'autorisation inter-applications S_SERVICE Vérifier au début des services externes SRV_NAME Nom du programme, de la transaction ou de la fonction *
AAAB Objets d'autorisation inter-applications S_SERVICE Vérifier au début des services externes SRV_TYPE Type de valeurs par défaut pour le drapeau de vérification et l'autorisation HT
FI Comptabilité financière F_UNIE_HIER Accès à la hiérarchie universelle ACTVT Activité 03
FI Comptabilité financière F_UNIE_HIER Accès à la hiérarchie universelle Type de fréquence cardiaque Type de hiérarchie *
FI Comptabilité financière F_UNIE_HIER Accès à la hiérarchie universelle HRYID ID de la hiérarchie *

Pour concevoir et exécuter un pipeline de données dans Cloud Data Fusion (en tant qu'utilisateur Cloud Data Fusion), vous devez utiliser les identifiants de l'utilisateur SAP (nom d'utilisateur et mot de passe) pour configurer le plug-in afin qu'il se connecte à la source de données.

L'utilisateur SAP doit être de type Communications ou Dialog. Pour éviter d'utiliser les ressources de la boîte de dialogue SAP, il est recommandé d'utiliser le type Communications. Les utilisateurs peuvent être créés à l'aide du code de transaction SU01 de SAP.

Étape 4 : Sécurisez la connexion

Vous pouvez sécuriser la communication sur le réseau entre votre instance Cloud Data Fusion privée et SAP.

Pour sécuriser la connexion, procédez comme suit:

  1. L'administrateur SAP doit générer un certificat X509. Pour générer le certificat, consultez la section Créer un environnement PSE SSL.
  2. L'administrateur Google Cloud doit copier le fichier X509 dans un bucket Cloud Storage lisible dans le même projet que l'instance Cloud Data Fusion et fournir le chemin d'accès au bucket à l'utilisateur Cloud Data Fusion, qui le saisit lors de la configuration du plug-in.
  3. L'administrateur Google Cloud doit accorder un accès en lecture pour le fichier X509 à l'utilisateur Cloud Data Fusion qui crée et exécute des pipelines.

Facultatif: Étape 5: Créez des services OData personnalisés

Vous pouvez personnaliser l'extraction des données en créant des services OData personnalisés dans SAP:

Configurer Cloud Data Fusion

Assurez-vous que la communication est activée entre l'instance Cloud Data Fusion et le serveur SAP. Pour les instances privées, configurez l'appairage de réseaux. Une fois l'appairage de réseaux établi avec le projet hébergeant les systèmes SAP, aucune configuration supplémentaire n'est requise pour la connexion à votre instance Cloud Data Fusion. Le système SAP et l'instance Cloud Data Fusion doivent se trouver dans le même projet.

Étape 1: Configurez votre environnement Cloud Data Fusion

Pour configurer votre environnement Cloud Data Fusion pour le plug-in, procédez comme suit :

  1. Dans Google Cloud Console, accédez à la page Instances de Cloud Data Fusion.

    Accéder à la page "Instances"

  2. Sélectionnez l'instance souhaitée.

    La page Détails de l'instance s'affiche.

  3. Assurez-vous que l'instance a été mise à niveau vers la version 6.4.0 ou une version ultérieure. Si l'instance utilise une version antérieure, vous devez la mettre à niveau.

  4. Ouvrez l'instance. Lorsque l'interface utilisateur de Cloud Data Fusion s'ouvre, cliquez sur Hub.

  5. Sélectionnez l'onglet SAP > SAP OData.

    Si l'onglet SAP n'est pas visible, consultez la section Résoudre les problèmes d'intégration de SAP.

  6. Cliquez sur Deploy SAP OData Plugin (Déployer le plug-in SAP Data).

    Le plug-in apparaît désormais dans le menu Source de la page Studio.

    Données dans le menu "Source" de la page Data Fusion Studio

Étape 2: Configurez le plug-in

Le plug-in SAP OData lit le contenu d'une source de données SAP.

Pour filtrer les enregistrements, vous pouvez configurer les propriétés suivantes sur la page des propriétés OData SAP.

Nom de propriété Description
De base
Nom de référence Nom permettant d'identifier de manière unique cette source pour la traçabilité, l'annotation de métadonnées, etc.
SAP OData Base URL URL de la base de données SAP Gateway
Version OData Version de SAP OData compatible
Nom du service : Nom du service SAP OData à partir duquel vous souhaitez extraire une entité
Nom de l'entité Nom de l'entité en cours d'extraction
Bouton Obtenir un schéma génère un schéma basé sur les métadonnées de SAP, avec le mappage automatique des types de données SAP vers les types de données Cloud Data Fusion correspondants (même fonctionnalité que le bouton Valider) ;
Identifiants*
Type de SAP Basique (via le nom d'utilisateur et le mot de passe)
Nom d'utilisateur de connexion SAP Nom d'utilisateur SAP
Recommandé: si le nom d'utilisateur de connexion SAP change régulièrement, utilisez une macro
Mot de passe d'authentification SAP Mot de passe utilisateur SAP
Recommandé : utilisez des macros sécurisées pour les valeurs sensibles, telles que les mots de passe
Certificat client SAP X.509
(Consultez la section Utiliser des certificats clients X.509 sur le serveur d'applications SAP NetWeaver pour ABAP
ID du projet GCP Identifiant unique de votre projet. Ce champ est obligatoire si le champ X.509 Certificate Cloud Storage Path (Chemin d'accès Cloud Storage du certificat X.509) ne contient pas de valeur de macro.
Chemin GCS Chemin d'accès au bucket Cloud Storage contenant le certificat X.509 importé par l'utilisateur, qui correspond au serveur d'applications SAP pour les appels sécurisés (selon vos exigences) (voir l'étape Sécuriser la connexion).
Phrase secrète Phrase secrète correspondant au certificat X.509 fourni
Avancé
Options de filtrage Indique la valeur à lire pour un champ. Utilisez cette condition de filtre pour limiter le volume de données de sortie. Par exemple, "Prix Gt 200" sélectionne les enregistrements dont la valeur du champ "Prix" est supérieure à "200". Consultez la section Obtenir une liste des colonnes filtrables pour un service de catalogue SAP.
Sélectionner des champs Champs à conserver dans les données extraites (par exemple, Catégorie, Prix, Nom, Fournisseur/Adresse
Développer des champs Liste des champs complexes à développer dans les données extraites (par exemple, "Produits/Fournisseurs")
Nombre de lignes à ignorer Nombre total de lignes à ignorer (10, par exemple)
Nombre de lignes à extraire Nombre total de lignes à extraire
Nombre de divisions à générer Nombre de divisions utilisées pour partitionner les données d'entrée. Plus les partitions sont nombreuses, plus le niveau de parallélisme est élevé, mais elles nécessitent plus de ressources et de surcharge.
Pour les systèmes sur site SAP, si ce paramètre n'est pas spécifié, la valeur par défaut est de 50% des processus de dialogue disponibles dans SAP. Si cet argument est spécifié, il est optimisé entre ce que vous avez spécifié et 50% des processus de travail disponibles dans SAP.
Pour le cloud SAP, s'il n'est pas spécifié, la valeur par défaut est 7. Tout nombre que vous spécifiez prévaut sur la valeur par défaut.
Taille du lot Nombre de lignes à extraire à chaque appel réseau vers SAP. Dans le cas d'une connexion de petite taille, des appels réseau fréquents se répètent dans la surcharge. Une taille importante peut ralentir la récupération des données et entraîner une utilisation excessive des ressources dans SAP. Si la valeur est définie sur 0, la valeur par défaut est 2500, et la limite de lignes à extraire dans chaque lot est de 5000.

* Les macros sont compatibles avec les propriétés d'identifiants. Vous pouvez les utiliser pour gérer vos connexions SAP de manière centralisée. Par exemple, vous pouvez définir des valeurs au moment de l'exécution, à l'aide de paramètres d'exécution ou d'un plug-in Argument Setter.

Types de données OData compatibles

Le tableau suivant présente le mappage entre les types de données OData v2 utilisés dans les applications SAP et les types de données Cloud Data Fusion.

Type OData Description (SAP) Type de données Cloud Data Fusion
Numérique
Sbyte Valeur entière signée de 8 bits int
Byte Valeur entière non signée de 8 bits int
Int16 Valeur entière signée de 16 bits int
Int32 Valeur entière signée de 32 bits int
Int64 Valeur entière de 64 bits signée avec le caractère: 'L'
Exemples: 64L, -352L
long
Single Nombre à virgule flottante avec une précision de sept chiffres pouvant représenter des valeurs dont la plage approximative est comprise entre ± 1,18e -38 et ± 3,40e + 38, précédée du caractère: 'f'
Exemple: 2.0f
float
Double Nombre à virgule flottante avec une précision de 15 chiffres pouvant représenter des valeurs dont les plages approximativement sont de ± 2,23e -308 à ± 1,79e + 308, ajoutées avec le caractère: 'd'
Exemples: 1E+10d, 2.029d, 2.0d
double
Decimal Valeurs numériques avec précision et échelle fixes, décrivant une valeur numérique comprise entre 10^255 + 1 et 10^255 -1 positive, précédée du caractère: 'M' ou 'm'
Exemple: 2.345M
decimal
Caractère
GUID Valeur d'identifiant unique de 16 octets (128 bits), commençant par le caractère: 'guid'
Exemple : guid'12345678-aaaa-bbbb-cccc-ddddeeeeffff'
string
Chaîne Données de caractère fixe ou de longueur variable encodées au format UTF-8 string
Byte
Binaire Données binaires fixes ou de longueur variable commençant par 'X' ou 'binary' (sensibles à la casse)
Exemple : X'23AB', binary'23ABFF'
bytes
Logique
Booléen Concept mathématique de logique à valeur binaire boolean
Date/Heure
Date/Heure Date et heure comprises entre 00:00:00 et le 1er janvier 1753 à 23:59:59 le 31 décembre 9999 timestamp
Chronologie Heure de la journée dont les valeurs vont de 0:00:00.x à 23:59:59.y, où 'x' et 'y' dépendent de la précision time
Décalage horaire Date et heure exprimées en décalage (en minutes) à partir de l'heure GMT, avec des valeurs allant du 1er janvier 1753 à 00h09 au 31 décembre 2099 à 23h59 timestamp
Complexe
Propriétés de la navigation et de la navigation (multiplicité = *) Collections d'un type simple, avec une multiplicité de un à plusieurs. array,
string,
int, etc.
Propriétés (multiplicité = 0,1) Références à d'autres types complexes avec une multiplication d'un à un record

Validation

Cliquez sur Valider en haut à droite ou sur Obtenir un schéma.

Le plug-in valide les propriétés et génère un schéma basé sur les métadonnées de SAP. Il mappe automatiquement les types de données SAP sur les types de données Cloud Data Fusion correspondants.

Exécuter un pipeline de données

  1. Après avoir déployé le pipeline, cliquez sur Configurer dans le panneau supérieur central.
  2. Sélectionnez Ressources.
  3. Si nécessaire, modifiez le processeur d'exécuteur et la mémoire en fonction de la taille globale des données et du nombre de transformations utilisées dans le pipeline.
  4. Cliquez sur Enregistrer.
  5. Pour démarrer le pipeline de données, cliquez sur Exécuter.

Performances

Le plug-in utilise les fonctionnalités de parallélisation de Cloud Data Fusion. Les instructions suivantes vous aideront à configurer l'environnement d'exécution afin de fournir suffisamment de ressources au moteur d'exécution pour atteindre le degré de parallélisme et de performances attendu.

Optimiser la configuration du plug-in

Approche conseillée:laissez les champs Nombre de divisions à générer et Taille de lot vides (sauf si vous connaissez les paramètres de mémoire de votre système SAP)

Pour améliorer les performances lorsque vous exécutez votre pipeline, utilisez les configurations suivantes:

  • Nombre de divisions à générer : les valeurs comprises entre 8 et 16 sont recommandées. Toutefois, elles peuvent passer à 32, voire à 64, avec des configurations appropriées côté SAP (allocation de ressources mémoire appropriées pour les processus de travail dans SAP). Cette configuration améliore le parallélisme du côté de Cloud Data Fusion. Le moteur d'exécution crée le nombre de partitions spécifié (et les connexions SAP) lors de l'extraction des enregistrements.

    • Pour les systèmes sur site SAP : lorsqu'il n'est pas spécifié, la valeur par défaut est 50% des processus de dialogue disponibles dans SAP. Si cet argument est spécifié, il est optimisé entre ce que vous avez spécifié et 50% des processus de travail disponibles dans SAP.

    • Pour les systèmes cloud SAP : lorsqu'il n'est pas spécifié, la valeur par défaut est 7. Tout nombre que vous spécifiez prévaut.

    • Pour les systèmes sur site et dans le cloud: lorsque le nombre d'enregistrements à extraire est inférieur à 2500, le nombre de répartitions est de 1.

  • Taille du lot: nombre d'enregistrements à récupérer à chaque appel réseau vers SAP. Une taille de lot plus petite entraîne de nombreux appels réseau, répétant les frais généraux. Par défaut, le nombre minimal est de 1000 et le maximum est de 50000.

Pour en savoir plus, consultez Limites des entités OData.

Paramètres de ressources Cloud Data Fusion

Recommandé : utilisez 1 processeur et 4 Go de mémoire par exécuteur (cette valeur s'applique à chaque processus de l'exécuteur). Définissez ces paramètres dans la boîte de dialogue Configurer > Ressources.

Optimiser les paramètres de ressource dans la fenêtre "Configurer" de Cloud Data Fusion

Paramètres du cluster Dataproc

Recommandé:au moins, allouez un total de processeurs (sur tous les nœuds de calcul) au-delà du nombre de divisions prévu (voir la section Configuration du plug-in).

Chaque nœud de calcul doit disposer d'au moins 6,5 Go de mémoire allouée par processeur dans les paramètres Dataproc (soit 4 Go ou plus disponibles par Cloud Data Fusion Executor). D'autres paramètres peuvent être conservés aux valeurs par défaut.

Recommandation : Utilisez un cluster Dataproc persistant pour réduire l'exécution du pipeline de données (cela élimine l'étape de provisionnement qui peut prendre quelques minutes ou plus). Définissez ce paramètre dans la section de configuration de Compute Engine.

Exemples de configuration et de débit

Exemples de configuration de développement et de test

  • Cluster Dataproc avec 8 nœuds de calcul, chacun disposant de 4 processeurs et de 26 Go de mémoire. Utilisez le nombre de divisions à générer jusqu'à 28.
  • Cluster Dataproc avec 2 nœuds de calcul, chacun avec 8 processeurs et 52 Go de mémoire. Utilisez le nombre de divisions à générer jusqu'à 12.

Exemples de configuration et de débit en production

  • Cluster Dataproc avec 8 nœuds de calcul, chacun disposant de 8 processeurs et de 32 Go de mémoire. Utilisez le nombre de divisions à générer jusqu'à 32 (moitié du nombre total de processeurs disponibles).
  • Cluster Dataproc avec 16 nœuds de calcul, chacun disposant de 8 processeurs et de 32 Go de mémoire. Utilisez le nombre de répartitions pour générer jusqu'à 64 processeurs (moitié le nombre total de processeurs disponibles).

Exemple de débit pour un système de source de production SAP S4HANA 1909

La table suivante présente un exemple de débit. Sauf indication contraire, le débit affiché n'est associé à aucune option de filtrage. Lorsque vous utilisez les options de filtrage, le débit est réduit.

Taille de lot Répartition Service OData Nombre total de lignes Lignes extraites Débit (lignes par seconde)
1000 4 ZACDOCA_CDS : 5,37 M 5,37 M 1069
2 500 10 ZACDOCA_CDS : 5,37 M 5,37 M 3384
5 000 8 ZACDOCA_CDS : 5,37 M 5,37 M 4630
5 000 9 ZACDOCA_CDS : 5,37 M 5,37 M 4817

Exemple de débit pour un système de source de production SAP S4HANA

Taille de lot Répartition Service OData Nombre total de lignes Lignes extraites Débit (Go/heure)
2 500 40 TEST_04_UOM_ODATA_CDS/ 201 M 10 M 25,48
5 000 50 TEST_04_UOM_ODATA_CDS/ 201 M 10 M 26,78

Questions fréquentes

Quels sont les produits et versions SAP compatibles ?

Les sources compatibles incluent SAP S4/HANA 1909 et versions ultérieures, S4/HANA dans le cloud SAP et toutes les applications SAP capables d'exposer les services OData.

Quelles sont les versions SAP OData compatibles ?

OData version 2 est compatible.

Quels sont les modèles de déploiement SAP compatibles ?

Le plug-in a été testé avec les serveurs SAP S/4HANA déployés sur Google Cloud.

Quels types de services SAP OData Catalog sont compatibles avec l'extraction ?

Le plug-in est compatible avec les types de source de données suivants :

  • Données de transaction
  • Nombre de vues CDS exposées via OData
  • Données de référence

    • Attributs
    • Textes
    • Hiérarchies

Faut-il mettre en œuvre des notes SAP avant d'utiliser ce plug-in ?

Non, mais assurez-vous que SAP Gateway est disponible dans le système SAP. Pour en savoir plus, consultez la note 1560585 (ce site externe nécessite une connexion SAP).

Le volume de données ou la largeur des enregistrements sont-ils limités ?

Le volume de données extraites n'est pas limité. Nous avons testé jusqu'à six millions de lignes extraites en un appel, avec une largeur d'enregistrement de 1 Ko. Pour SAP S4/HANA dans le cloud, nous avons testé jusqu'à 10 millions de lignes extraites en un appel, avec une largeur d'enregistrement de 1 Ko.

Quel est le débit attendu du plug-in ?

Pour un environnement configuré conformément aux consignes de la section Performances, le plug-in peut extraire environ 38 Go par heure. Les performances réelles peuvent varier en fonction des chargements de système ou du trafic réseau Cloud Data Fusion et SAP.

L'extraction delta (données modifiées) est-elle disponible ?

Non, l'extraction delta n'est pas compatible avec ce plug-in.

Scénarios d'erreur

Lors de l'exécution, le plug-in écrit des entrées dans le journal du pipeline de données Cloud Data Fusion. Ces entrées sont précédées du préfixe CDF_SAP pour faciliter l'identification.

Au moment de la conception, lorsque vous validez les paramètres du plug-in, les messages s'affichent dans l'onglet Propriétés et sont surlignés en rouge.

Le tableau suivant répertorie certains messages d'erreur courants (le texte sera remplacé par les valeurs réelles lors de l'exécution):

ID du message Message Action recommandée
Aucune Propriété obligatoire "" pour le type de connexion "" Saisissez une valeur réelle ou une variable de macro.
Aucune Valeur non valide pour la propriété ''. Saisissez un nombre entier non négatif (0 ou plus, sans décimale) ou une variable de macro.
CDF_SAP_ODATA_01505 Échec de la préparation du schéma de sortie Cloud Data Fusion. Veuillez vérifier la valeur des macros d'exécution fournies. Vérifiez que les valeurs de macro fournies sont correctes.
N/A Certificat SAP X509 certifié '<UI UI in GCS Path>' manquant. Veuillez vous assurer que le certificat X509 requis a été importé dans le bucket Google Cloud Storage &&39;<GCS bucket name >'. Assurez-vous que le chemin d'accès GCS fourni est correct.
CDF_SAP_ODATA_01532 Code d'erreur générique Tout problème lié à la connectivité SAP OData
Échec de l'appel du service SAP OData donné. Cause: <Message d'origine du service SAP OData >
Vérifiez la cause première affichée dans le message et prenez les mesures appropriées.
CDF_SAP_ODATA_01534 Code d'erreur générique qui renvoie à une erreur de service SAP OData.
Échec de la validation du service. Cause: Message de cause OAP pour le service racine>
Vérifiez la cause première affichée dans le message et prenez les mesures appropriées.
CDF_SAP_ODATA_01503 Échec de la récupération du nombre total d'enregistrements disponibles à partir de <nom de l'entité du service SAP OData>. Cause: <message d'origine du service SAP Odata> Vérifiez la cause première affichée dans le message et prenez les mesures appropriées.
CDF_SAP_ODATA_01506 Aucun enregistrement trouvé pour l'extraction au <nom de l'entité du service SAP OData>. Assurez-vous que l'entité fournie contient des enregistrements. Vérifiez la cause première affichée dans le message et prenez les mesures appropriées.
CDF_SAP_ODATA_01537 Échec du traitement des enregistrements pour <SAP OData service name> Cause: <SAP OData service cause message> Vérifiez la cause première affichée dans le message et prenez les mesures appropriées.
CDF_SAP_ODATA_01536 Échec de l'extraction des enregistrements à partir de <SAP OData service name>. Cause: <&SAP OData service root message message> Vérifiez la cause première affichée dans le message et prenez les mesures appropriées.
CDF_SAP_ODATA_01504 Échec de la génération de la chaîne de métadonnées encodée pour le service OData donné <SAP OData service name>. Cause: <&SAP OData service cause message Vérifiez la cause première affichée dans le message et prenez les mesures appropriées.
CDF_SAP_ODATA_01533 Échec du décodage des métadonnées à partir de la chaîne de métadonnées encodée pour le service <SAP OData service name>. Cause: <SAP OData service root message message> Vérifiez la cause première affichée dans le message et prenez les mesures appropriées.

Étapes suivantes