Présentation du plug-in SAP Table Batch

Ce guide explique comment déployer, configurer et exécuter des pipelines de données qui utilisent le plug-in SAP Table Batch Source.

Le plug-in SAP Table Batch Source permet l'intégration de données groupées à partir d'applications SAP avec Cloud Data Fusion. Vous pouvez configurer et exécuter des transferts de données groupées à partir de tables et de vues SAP sans aucun codage.

Consultez les questions fréquentes sur les applications, tables et vues SAP compatibles avec l'extraction. Pour en savoir plus sur SAP sur Google Cloud, consultez la présentation de SAP sur Google Cloud.

Objectifs

  • Configurez le système SAP ERP (activer DataSources dans SAP).
  • Déployez le plug-in dans votre environnement Cloud Data Fusion.
  • Téléchargez le transport SAP à partir de Cloud Data Fusion et installez-le dans SAP.
  • Utilisez Cloud Data Fusion et SAP Table Batch Source pour créer des pipelines de données afin d'intégrer des données SAP.

Avant de commencer

Pour utiliser ce plug-in, vous devez connaître les domaines suivants :

  • Créer des pipelines dans Cloud Data Fusion
  • Gestion des accès avec IAM
  • Configurer SAP Cloud et les systèmes de progiciels de gestion intégrés (ERP) sur site

Rôles utilisateur

Les tâches de cette page sont effectuées par les personnes disposant des rôles suivants dans Google Cloud ou dans leur système SAP:

Type d'utilisateur Description
Administrateur Google Cloud Les utilisateurs affectés à ce rôle sont des administrateurs de comptes Google Cloud.
Utilisateur Cloud Data Fusion Les utilisateurs auxquels ce rôle est attribué sont autorisés à concevoir et à exécuter des pipelines de données. Le rôle Lecteur de Data Fusion (roles/datafusion.viewer) leur est accordé au minimum. Si vous utilisez le contrôle des accès basé sur les rôles, vous aurez peut-être besoin de rôles supplémentaires.
Administrateur SAP Les utilisateurs affectés à ce rôle sont les administrateurs du système SAP. Ils ont accès au téléchargement du logiciel depuis le site de service SAP. Il ne s'agit pas d'un rôle IAM.
Utilisateur SAP Les utilisateurs auxquels ce rôle est attribué sont autorisés à se connecter à un système SAP. Il ne s'agit pas d'un rôle IAM.

Configurer le système SAP ERP

La source SAP Table Batch utilise un module de fonction distante (RFM), qui doit être installé sur chaque serveur SAP où les données sont extraites. Ce RFM est fourni en tant que transport SAP.

Pour configurer votre système SAP, procédez comme suit :

  1. L'utilisateur Cloud Data Fusion doit télécharger le fichier ZIP contenant le transport SAP et le fournir à l'administrateur SAP. Pour en savoir plus, consultez la page Configurer Cloud Data Fusion.
  2. L'administrateur SAP doit importer le transport SAP dans le système SAP et vérifier les objets créés. Pour en savoir plus sur l'installation, consultez la page Installer le transport SAP.

Installer le transport SAP

Pour concevoir et exécuter des pipelines de données dans Cloud Data Fusion, les composants SAP sont diffusés dans des fichiers de transport SAP, qui sont archivés dans un fichier ZIP. Le téléchargement est disponible lorsque vous déployez le plug-in dans Cloud Data Fusion Hub.

Télécharger le fichier ZIP de transport SAP Table

Les ID de requête de transport SAP et les fichiers associés sont fournis dans le tableau suivant:

ID de transport Fichier cofile Fichier de données Contenu
DE1K900159 K900159.DE1 R900159.DE1 Modules de fonctions compatibles RFC

Une fois le transport importé dans le système SAP, vérifiez la création du module de fonction compatible RFC, /GOOG/RFC_READ_TABLE.

Pour installer le transport SAP, procédez comme suit :

Étape 1 : Importer les fichiers de requête de transport

  1. Log into the operating system of the SAP Instance.
  2. Use the SAP transaction code AL11 to get the path for the DIR_TRANS folder. Typically, the path is /usr/sap/trans/.
  3. Copy the cofiles to the DIR_TRANS/cofiles folder.
  4. Copy the data files to the DIR_TRANS/data folder.
  5. Set the User and Group of data and cofile to <sid>adm and sapsys.

Étape 2 : Importer les fichiers de requête de transport

L'administrateur SAP peut importer les fichiers de requête de transport de l'une des façons suivantes :

Option 1 : Importer les fichiers de requête de transport à l'aide du système de gestion des transports SAP
  1. Connectez-vous au système SAP en tant qu'administrateur SAP.
  2. Saisissez le code STMS de la transaction.
  3. Cliquez sur Présentation > Importations.
  4. Double-cliquez sur le SID actuel dans la colonne File d'attente.
  5. Cliquez sur Extras > Autres requêtes > Ajouter.
  6. Sélectionnez l'ID de la requête de transport, puis cliquez sur Continuer.
  7. Sélectionnez la demande de transport dans la file d'attente d'importation, puis cliquez sur Demander > Importer.
  8. Saisissez le numéro client.
  9. Dans l'onglet Options, sélectionnez Écraser les versions d'origine et Ignorer la version de composant non valide (si disponible).

    Facultatif: Pour planifier une réimportation des transports pour une date ultérieure, sélectionnez Laisser les requêtes de transport en file d'attente pour une importation ultérieure et Réimporter les requêtes de transport. Cette fonctionnalité est utile pour les mises à niveau du système SAP et les restaurations de sauvegarde.

  10. Cliquez sur Continuer.

  11. Pour vérifier l'importation, utilisez des transactions, telles que SE80 et SU01.

Option 2 : Importer les fichiers de requête de transport au niveau du système d'exploitation
  1. Connectez-vous au système SAP en tant qu'administrateur de système SAP.
  2. Ajoutez les requêtes appropriées au tampon d'importation en exécutant la commande suivante :

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Par exemple : tp addtobuffer IB1K903958 DD1

  3. Importez les requêtes de transport en exécutant la commande suivante :

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Remplacez NNN par le numéro client. Exemple : tp import IB1K903958 DD1 client=800 U1238.

  4. Vérifiez que le module de fonction et les rôles d'autorisation ont bien été importés à l'aide des transactions appropriées, telles que SE80 et SU01.

Autorisations SAP requises

Pour exécuter un pipeline de données dans Cloud Data Fusion, vous avez besoin d'un utilisateur SAP. L'utilisateur SAP doit être de type Communications ou Dialog. Il est recommandé d'utiliser le type Communications pour éviter d'utiliser les ressources de boîte de dialogue SAP. Les utilisateurs peuvent être créés à l'aide du code de transaction SU01 SAP.

Pour créer le rôle d'autorisation dans SAP, procédez comme suit :

  1. Dans l'IUG SAP, saisissez le code de transaction PFCG pour ouvrir la fenêtre Maintenance des rôles.
  2. Dans le champ Rôle, saisissez un nom pour le rôle.

    Par exemple : zcdf_role

  3. Cliquez sur Rôle unique.

    La fenêtre Créer des rôles s'ouvre.

  4. Dans le champ Description, saisissez une description, puis cliquez sur Enregistrer.

    Exemple : Authorizations for Cloud Data Fusion SAP Table plugin.

  5. Cliquez sur l'onglet Autorisations. Le titre de la fenêtre passe à Modifier les rôles.

  6. Sous Modifier les données d'autorisation et générer des profils, cliquez sur Modifier les données d'autorisation.

    La fenêtre Choisir un modèle s'ouvre.

  7. Cliquez sur Ne pas sélectionner de modèles.

    La fenêtre Modifier le rôle : Autorisations s'ouvre.

  8. Cliquez sur Manuellement.

  9. Fournissez les autorisations indiquées dans le tableau suivant.

  10. Cliquez sur Enregistrer.

  11. Pour activer le rôle d'autorisation, cliquez sur l'icône Générer.

Tableau 3 : Autorisations SAP

Classe d'objet Texte de classe d'objet Objet d'autorisation Texte d'objet d'autorisation Autorisation Texte Valeur
AAAB Objets d'autorisation inter-applications S_RFC Objets d'autorisation inter-applications RFC_TYPE Type d'objet RFC auquel l'accès doit être autorisé FUNC
AAAB Objets d'autorisation inter-applications S_RFC Contrôle des autorisations pour l'accès RFC RFC_NAME Nom de l'objet RFC auquel l'accès est autorisé DDIF_FIELDINFO_GET,
RFCPING,
RFC_GET_FUNCTION_INTERFACE,
/GOOG/RFC_READ_TABLE,
SAPTUNE_GET_SUMMARY_STATISTIC,
TH_WPINFO
AAAB Objets d'autorisation inter-applications S_RFC Objets d'autorisation inter-applications ACTVT Activity 16
AAAB Objets d'autorisation inter-applications S_TCODE Vérification du code de transaction au début de la transaction TCD Code de transaction SM50
BC_A Base : administration S_TABU_NAM Accès à la table à l'aide d'outils standards génériques ACTVT Activité 03
BC_A Base : administration S_TABU_NAM Accès à la table à l'aide d'outils standards génériques TABLE Nom du tableau *
BC_A Base : administration S_ADMI_FCD Autorisations système S_ADMI_FCD Fonction d'administration système ST0R

Configurer Cloud Data Fusion

La communication doit être activée entre l'instance Cloud Data Fusion et le serveur SAP. Suivez la procédure d'appairage de réseaux pour les instances Cloud Data Fusion privées.

Pour configurer votre environnement Cloud Data Fusion pour le plug-in, procédez comme suit :

  1. L'utilisateur Cloud Data Fusion doit télécharger le plug-in SAP Table Batch Source depuis le hub. Le plug-in est disponible à partir de la version 6.3.0. Pour trouver le téléchargement, consultez la section Installer le transport SAP.

    1. Facultatif: Si vous avez créé une instance 6.3.0 avant le 22 mars 2021, il est possible que le plug-in ne s'affiche pas dans le Hub. Pour l'activer, exécutez la commande suivante.

      Utilisez la variable HUB_URLS pour SAP Hub. Si vous utilisez l'accélérateur Healthcare, incluez sa variable HUB_URLS (consultez les commentaires dans la commande).

      # Enter values for these variables
      PROJECT=PROJECT_ID
      REGION=REGION_CODE
      INSTANCE=INSTANCE
      
      # Select one of the following HUB_URLS
      HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub"
      # HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub+https://storage.googleapis.com/b999ec76-9e36-457b-bf30-753cb13a8c98" # Uncomment this line if the Healthcare accelerator is enabled
      
      # Run these commands (NOTE: This restarts your instance after the update)
      curl -X PATCH -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE -d "{ 'options':{'market.base.urls':\"$HUB_URLS\"}}"
      sleep 300 # Wait for update operation to succeed
      curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE:restart
      
    2. Cliquez sur Hub > SAP > SAP Table.

    3. Cliquez sur SAP Table Source > Déployer SAP Source.

      Facultatif: Vous pouvez télécharger le fichier de transport SAP si nécessaire.

      Sur la page Studio, le plug-in SAP Table apparaît dans le menu Source.

  2. L'administrateur SAP doit télécharger les artefacts JCo suivants sur le site d'assistance SAP et les transmettre à l'administrateur Google Cloud.

    La version minimale de JCo compatible est la version 3.1.2.

    • Une plate-forme indépendante (sapjco3.jar)
    • Une plate-forme dépendante (libsapjco3.so)

    Pour télécharger les fichiers, procédez comme suit :

    1. Accédez à la page Connecteurs SAP.
    2. Cliquez sur SAP Java Connector/Tools and services (Connecteur Java SAP/Outils et services). Vous trouverez des liens spécifiques à la plate-forme pour le téléchargement.
    3. Choisissez la plate-forme sur laquelle votre instance CDF s'exécute :
      1. Si vous utilisez des images Google Cloud standards pour les VM de votre cluster (option par défaut pour Cloud Data Fusion), sélectionnez Linux pour les processeurs compatibles Intel 64 bits x86.
      2. Si vous utilisez une image personnalisée, sélectionnez la plate-forme correspondante.
  3. L'administrateur Google Cloud doit copier les fichiers JCo dans un bucket Cloud Storage lisible. Indiquez le chemin d'accès du bucket à l'utilisateur Cloud Data Fusion.

  4. L'administrateur Google Cloud doit accorder un accès en lecture aux deux fichiers au compte de service Cloud Data Fusion pour l'environnement de conception et au compte de service Dataproc pour l'environnement d'exécution. Pour en savoir plus, consultez Comptes de service Cloud Data Fusion.

  5. Le chemin du bucket doit être fourni dans la propriété du plug-in correspondante chemin d'accès GCS de la bibliothèque SAP JCo.

Configurer le plug-in

Le plug-in SAP Table Batch Source (Source de données par lot SAP) lit le contenu d'une table ou d'une vue SAP (consultez la page Informations d'assistance). Diverses options de filtrage des enregistrements sont disponibles.

Vous pouvez configurer les propriétés suivantes pour le plug-in SAP Table Batch Source.

Basic

Nom de référence : nom utilisé pour identifier de manière unique cette source pour la traçabilité, l'annotation de métadonnées, etc.
Client SAP : client SAP à utiliser (par exemple, 100.)
Langage SAP: langage d'ouverture de session SAP (par exemple, EN.)
Type de connexion : type de connexion SAP (direct ou à équilibrage de charge). La sélection d'un type modifie les champs disponibles suivants :

Pour la connexion directe

Hôte de serveur d'application SAP : nom du serveur SAP ou adresse IP.
Numéro de système SAP : numéro du système SAP (par exemple, 00.)
Routeur SAP : chaîne du routeur.

Pour les connexions à équilibrage de charge

Hôte de serveur de messages SAP : nom ou adresse IP de l'hôte de message SAP.
Service de serveur de messages ou numéro de port SAP : service de serveur de messages ou numéro de port SAP (par exemple, sapms02.)
ID système SAP (SID) : ID de système SAP (par exemple, N75).
Nom du groupe d'ouvertures de session SAP : nom du groupe d'ouvertures de session SAP (par exemple, PUBLIC).
Nom de la table/vue SAP : nom de la table/vue SAP (par exemple, MARA).

Identifiants

Nom d'utilisateur de connexion SAP : nom d'utilisateur SAP. Recommandé : Si le nom d'utilisateur de connexion SAP change régulièrement, utilisez une macro.
Mot de passe d'ouverture de session SAP : mot de passe de l'utilisateur SAP. Recommandé : Utilisez des macros sécurisées pour les valeurs sensibles telles que le mot de passe utilisateur.

Détails de SAP JCo

GCP Project ID (ID de projet GCP) : ID de projet Google Cloud, qui identifie un projet de manière unique. Il est disponible dans le tableau de bord de la console Google Cloud.
Chemin d'accès GCS de la bibliothèque SAP JCo : chemin d'accès à Cloud Storage contenant les fichiers de bibliothèque SAP JCo importés par l'utilisateur.

Obtenir un schéma: le plug-in génère un schéma basé sur les métadonnées de SAP, avec le mappage automatique des types de données SAP aux types de données Cloud Data Fusion correspondants (même fonctionnalité que le bouton Valider).

Analyses

Options de filtre : conditions spécifiées dans la syntaxe OpenSQL qui seront utilisées comme conditions de filtrage dans la clause SQL WHERE (par exemple, KEY6 LT '25'). Les enregistrements peuvent être extraits en fonction de conditions telles que certaines colonnes ayant un ensemble de valeurs défini ou une plage de valeurs.

Nombre de lignes à extraire: utilisez cette option pour limiter le nombre d'enregistrements extraits. Saisissez un nombre entier positif. Si la valeur est 0 ou est vide, extrait tous les enregistrements de la table spécifiée. Si une valeur positive est fournie qui est supérieure au nombre réel d'enregistrements disponibles en fonction des options de filtre, seuls les enregistrements disponibles sont extraits.

Number of Splits to Generate (Nombre de divisions à générer) : utilisez cette option pour créer des partitions permettant d'extraire les enregistrements de table en parallèle. Saisissez un nombre entier positif. Le moteur d'exécution crée le nombre de partitions spécifié (et les connexions SAP requises) lors de l'extraction des enregistrements de la table. Soyez prudent lorsque vous définissez cette propriété sur un nombre supérieur à 16, car un degré de parallélisme plus important augmente le nombre de connexions simultanées avec SAP. Des valeurs comprises entre 8 et 16 sont recommandées.

Si la valeur est 0 ou est vide, le système choisit automatiquement une valeur appropriée en fonction du nombre de processus de travail SAP disponibles, des enregistrements à extraire et de la taille du package.

Taille du package: nombre d'enregistrements à extraire dans un seul appel réseau SAP. Il s'agit du nombre d'enregistrements que SAP stocke en mémoire lors de chaque appel d'extraction de réseau. Plusieurs pipelines de données extrayant des données peuvent augmenter l'utilisation de la mémoire et entraîner des échecs dus à des erreurs Out of Memory. Soyez prudent lorsque vous définissez cette propriété.

Saisissez un nombre entier positif. Si le champ est défini sur 0 ou n'est pas renseigné, le plug-in utilise une valeur standard de 70000 ou une valeur calculée de manière appropriée si le nombre d'enregistrements à extraire est inférieur à 70 000.

Si le pipeline de données échoue avec des erreurs Out of Memory, réduisez la taille du package ou augmentez la mémoire disponible pour vos processus de travail SAP.

Projection de schéma

La projection de schéma vous permet de sélectionner un sous-ensemble de colonnes de table pour l'extraction. Après avoir validé les propriétés du plug-in, cliquez sur Supprimer à côté des colonnes qui ne doivent pas être extraites. Leur suppression réduit la consommation de bande passante réseau et la consommation de ressources du système SAP.

Mappage des types de données

Tableau 4 : Mappage des types de données SAP aux types Cloud Data Fusion

Type ABAP Description (SAP) Type de données Cloud Data Fusion
Numérique
b Entier à 1 octet (INT1) int
s Entier à 2 octets (INT2) int
i Entier à 4 octets (INT4) int
(int8)
8
Entier à 8 octets (INT8) long
p Nombre compressé au format BCD (DEC) decimal
(decfloat16)
a
Virgule flottante décimale 8 octets IEEE 754r (DF16_DEC, DF16_RAW) decimal
(decfloat34)
e
Virgule flottante décimale 16 octets IEEE 754r (DF34_DEC, DF34_RAW) decimal
f Nombre à virgule flottante (FLTP) binaire double
Caractère
c Chaîne de caractères (CHAR/LCHR) string
string Chaîne de caractères (SSTRING, GEOM_EWKB) string
string Chaîne de caractères CLOB (STRING) bytes
n Texte numérique (NUMC/ACCP) string
Byte
x Données binaires (RAW/LRAW) bytes
xstring BLOB de la chaîne d'octets (RAWSTRING) bytes
Date/Heure
d Date (DATS) date
t Heure (TIMS) time
utclong/utcl Code temporel timestamp

Validation

Cliquez sur Valider en haut à droite ou sur Obtenir un schéma.

Le plug-in génère un schéma basé sur les métadonnées de SAP. Elle mappe automatiquement les types de données SAP aux types de données Cloud Data Fusion correspondants.

Exécuter un pipeline de données

  1. Après avoir déployé le pipeline, cliquez sur Configurer dans le panneau supérieur central.
  2. Sélectionnez Ressources.
  3. Si nécessaire, modifiez le processeur d'exécuteur et la mémoire en fonction de la taille globale des données et du nombre de transformations utilisées dans le pipeline.
  4. Cliquez sur Enregistrer.
  5. Pour démarrer le pipeline de données, cliquez sur Exécuter.

Optimiser les performances

Le plug-in utilise les fonctionnalités de parallélisation de Cloud Data Fusion. Les instructions suivantes vous aideront à configurer l'environnement d'exécution afin de fournir suffisamment de ressources au moteur d'exécution pour atteindre le degré de parallélisme et de performances attendu.

Configuration de SAP

Recommandé: Utilisez un utilisateur de communication SAP plutôt qu'un utilisateur de dialogue (cette méthode utilise moins de ressources système SAP). De plus, si un serveur de messagerie est disponible dans votre environnement, utilisez une connexion SAP à équilibrage de charge plutôt qu'une connexion directe.

Si vous spécifiez des valeurs pour le nombre de divisions et la taille du package, le plug-in peut ajuster ces valeurs afin de ne pas épuiser les processus de travail SAP et la mémoire disponible. Voici les limites supérieures des ressources SAP utilisées :

  • 50 % des processus de travail disponibles
  • 70 % de la mémoire disponible par processus de travail

Configuration du plug-in

Recommandé: Laissez les champs Nombre de divisions à générer et Taille de package vides, sauf si vous connaissez les paramètres de mémoire de votre système SAP. Par défaut, ces valeurs sont automatiquement ajustées pour améliorer les performances.

Utilisez les propriétés suivantes pour garantir des performances optimales lors de l'exécution du pipeline :

  • Number of Splits to Generate (Nombre de divisions à générer) : cette commande contrôle directement le parallélisme côté Cloud Data Fusion. Le moteur d'exécution crée le nombre de partitions spécifié (et les connexions SAP) lors de l'extraction des enregistrements de la table. Les valeurs comprises entre 8 et 16 sont recommandées, mais peuvent augmenter jusqu'à 30 ou même 64 avec la configuration appropriée côté SAP (allouer les ressources de mémoire appropriées pour les processus de travail dans SAP).

    Si la valeur est 0 ou est vide, le système choisit automatiquement une valeur appropriée en fonction du nombre de processus de travail SAP disponibles, des enregistrements à extraire et de la taille du package.

  • Taille du package: nombre d'enregistrements à extraire dans un seul appel réseau SAP. Il s'agit du nombre d'enregistrements que SAP stocke en mémoire lors de chaque appel d'extraction. Augmentez cette valeur (la valeur par défaut est 70000) si votre système SAP alloue une quantité de mémoire suffisante pour les processus de travail. Dans la plupart des configurations par défaut, vous pouvez augmenter jusqu'à 100000, mais les valeurs plus importantes peuvent nécessiter la reconfiguration du système SAP.

Paramètres de ressources Cloud Data Fusion

Recommandé : Utilisez 1 processeur et 4 Go de mémoire par exécuteur (cette valeur s'applique à chaque processus d'exécuteur). Définissez ces paramètres dans la boîte de dialogue Configurer > Ressources.

Paramètres du cluster Dataproc

Recommandé : attribuez au minimum un nombre total de processeurs (sur les nœuds de calcul) supérieur au nombre souhaité de divisions (consultez la section Configuration du plug-in). Par exemple, si vous avez 16 partitions, définissez au moins 20 processeurs au total pour l'ensemble des nœuds de calcul (4 processeurs principaux sont utilisés pour la coordination).

Informations relatives à l'assistance

Produits et versions SAP compatibles

Les sources compatibles sont SAP ERP6/NW7.5 et SAP S4HANA 1909 et 2020.

Vues et tables SAP compatibles pour l'extraction

Le plug-in est compatible avec les tables et vues transparentes SAP, les vues CDS et les vues HANA.Les objets sont lus via la couche d'application SAP et non via la couche de base de données. Les tables de pool et de cluster ne sont pas compatibles.

Limites applicables au volume de données ou à la largeur de l'enregistrement

La largeur de ligne acceptée est limitée à 30 Ko. Aucune limite ne s'applique au nombre d'enregistrements extraits ou à la taille de la table.

Débit attendu du plug-in

Pour un environnement correctement configuré, le plug-in peut extraire environ 9 000 lignes/s à partir d'une table de taille moyenne telle que EKKO et 6 500 lignes/s à partir d'une grande table telle que ACDOCA.

Extraction delta

L'extraction delta (données depuis la dernière exécution) n'est pas directement compatible avec le plug-in. Vous pouvez définir des pipelines de données qui filtrent les enregistrements en fonction de champs d'horodatage dans des tables transactionnelles (par exemple, le champ TIMESTAMP dans le tableau ACDOCA, le champ AEDAT dans le tableau EKKO). Utilisez la propriété Filter Options (Options de filtrage) du plug-in pour indiquer la condition de filtrage.

Exemple : TIMESTAMP >= '20210130100000' AND TIMESTAMP <= ' 20210226000000' (sélectionnez les enregistrements dans la table ACDOCA avec TIMESTAMP entre le 30 janvier 2021 à 10h00 UTC et le 26 février 2021 à 00h00 UTC).

Scénarios d'erreur

Au moment de l'exécution, le plug-in écrit des entrées de journal dans le journal de pipeline de données Cloud Data Fusion. Ces entrées sont précédées du préfixe CDF_SAP pour faciliter l'identification.

Au moment de la conception, lorsque l'utilisateur valide les paramètres du plug-in, les messages s'affichent dans la zone Propriétés, mise en surbrillance en rouge. Certains messages de validation spécifiques à une propriété s'affichent immédiatement sous la zone d'entrée utilisateur, en rouge. Ces messages d'erreur de validation de propriété n'ont pas d'ID de message spécifique.

Exemple de message d'erreur générique :

Message d'erreur

Le tableau suivant répertorie certains messages d'erreur courants (le texte d'espace réservé est remplacé par les valeurs réelles au moment de l'exécution) :

ID du message Message Action recommandée
N/A (UI) Required property UI_CONNECTION_PROPERTY_LABEL for connection type UI_CONNECTION_TYPE_RADIO_OPTION. Saisissez une valeur réelle ou une variable de macro.
N/A (UI) Invalid value for property UI_ADVANCED_OPTIONAL_PROPERTY_LABEL. Saisissez un nombre entier non négatif (0 ou supérieur, sans décimal) ou une variable de macro.
CDF_SAP_01412 One or more SAP JCo library files are missing or of incompatible version. Assurez-vous que la bibliothèque JCo requise (sapjco3.jar) et sa bibliothèque partagée dépendant du système d'exploitation associée (par exemple, libsapjco3.so) correspondent à la même version et ont été importées dans Cloud Data Fusion comme documenté dans le guide de l'utilisateur.
CDF_SAP_01500 Unable to retrieve SAP destination from Destination Manager. Cannot initiate connectivity test with SAP.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Vérifiez la cause fondamentale affichée dans le message et prenez les mesures appropriées.
CDF_SAP_01404 SAP connection test failed. Please verify the connection parameters.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Vérifiez la cause fondamentale affichée dans le message et prenez les mesures appropriées.
CDF_SAP_01512 Unable to retrieve JCo Repository from SAP Destination.
Root Cause: SAP_ERROR_CODE - SAP root cause message
Vérifiez la cause fondamentale affichée dans le message et prenez les mesures appropriées.
CDF_SAP_01513 Unable to retrieve JCo Function for SAP_RFM_NAME from SAP Repository.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Vérifiez la cause fondamentale affichée dans le message et prenez les mesures appropriées.
CDF_SAP_01501 Impossible de trouver RFM SAP_RFM_NAME. Vérifiez que la requête de transport appropriée est correctement importée dans SAP.
CDF_SAP_01406 Error while executing RFM SAP_RFM_NAME.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Vérifiez que les autorisations appropriées sont bien attribuées à l'utilisateur SAP.
CDF_SAP_01516 Table or View SAP_TABLE/VIEW_NAME could not be found. Vérifiez que la table ou la vue existe et qu'elle est active dans SAP
CDF_SAP_01517 SAP_TABLE/VIEW_NAME is not of type table or view. Assurez-vous qu'il s'agit d'une table ou d'une vue valide, et non d'une structure dans SAP.
CDF_SAP_1532 Filter Options syntax is not valid. Vérifiez que la syntaxe OpenSQL appropriée est suivie lors de la spécification des conditions de filtre.
CDF_SAP_1534 Data buffer in SAP exceeded while extracting records from table/view SAP_TABLE/VIEW_NAME. Diminuez la taille du package et/ou le nombre de divisions. Vous pouvez également demander à l'administrateur SAP d'augmenter les ressources de mémoire disponibles sur le serveur SAP.
CDF_SAP_1403 User is not authorized to access SAP_TABLE/VIEW_NAME table/view data in SAP. Vérifiez que l'autorisation de lecture appropriée sur le nom de la table/vue SAP est attribuée à l'utilisateur SAP.
CDF_SAP_1535 Query for the table/view AP_TABLE/VIEW_NAME failed to execute successfully. Vérifiez que des noms de colonne valides sont utilisés dans la condition du filtre.
CDF_SAP_01520 Failed to extract records #FROM_RECORD_INDEX to #TO_RECORD_INDEX, even after MAX_RETRY_COUNT retries. Erreur de communication avec SAP Server. Vérifiez votre connectivité réseau et l'accessibilité du serveur SAP à partir de Cloud Data Fusion.

Étapes suivantes