Utiliser le plug-in source SAP Table Batch

Ce guide explique comment déployer, configurer et exécuter des pipelines de données qui utilisent le plug-in source SAP Table Batch.

Le plug-in source Batch de SAP Table permet l'intégration groupée des données issues d'applications SAP avec Cloud Data Fusion. Vous pouvez configurer et exécuter des transferts de données groupés à partir de tables et de vues SAP sans aucun codage.

Consultez les questions fréquentes sur les applications, les tables et les vues SAP compatibles avec l'extraction. Pour en savoir plus sur SAP sur Google Cloud, consultez la page Présentation de SAP sur Google Cloud.

Objectifs

  • Configurer le système SAP ERP (installer le transport SAP fourni)
  • Déployez le plug-in dans votre environnement Cloud Data Fusion.
  • Servez-vous de Cloud Data Fusion et de SAP Table Source Source pour créer des pipelines de données afin d'intégrer des données SAP.

Avant de commencer

Pour utiliser ce plug-in, vous aurez besoin des connaissances en domaine suivantes:

Rôles utilisateur

Les tâches de configuration décrites sur cette page nécessitent des modifications de votre système SAP et de Google Cloud. Vous devez collaborer avec les administrateurs de ces systèmes pour effectuer les configurations.

Tableau 1: Rôles utilisateur

Type d'utilisateur Description
Administrateur SAP Les utilisateurs auxquels ce rôle est attribué sont des administrateurs du système SAP. Cet utilisateur a accès au site de service SAP pour télécharger les logiciels.
Administrateur GCP Les utilisateurs auxquels ce rôle est attribué sont des administrateurs de comptes Google Cloud.
Utilisateur CDF Les utilisateurs auxquels ce rôle est attribué sont autorisés à concevoir et à exécuter des pipelines de données.
Utilisateur SAP Les utilisateurs auxquels ce rôle est attribué sont autorisés à se connecter à un système SAP.

Configurer le système SAP ERP

La source de table SAP Table utilise un module de fonction distant (RFM), qui doit être installé sur chaque serveur SAP où les données sont extraites. Ce RFM est fourni en tant que transport SAP.

Pour configurer votre système SAP, procédez comme suit:

  1. L'utilisateur de Cloud Data Fusion doit télécharger le fichier ZIP contenant le transport SAP et le fournir à l'administrateur SAP. Pour effectuer un téléchargement, utilisez le lien fourni avec le plug-in dans le Hub. Consultez la section Configurer Cloud Data Fusion.
  2. L'administrateur SAP doit importer le transport SAP dans le système SAP et vérifier les objets créés. Pour plus d'informations sur l'installation, consultez la page Installer le transport SAP.

Installer SAP Transports

Les composants SAP sont nécessaires pour concevoir et exécuter des pipelines de données dans Cloud Data Fusion. Elles sont transmises sous forme de fichiers de transport SAP archivés sous forme de fichier ZIP (une requête de transport composée d'un cofile et d'un fichier de données).

L'ID de la requête de transport et les fichiers associés sont fournis dans le tableau suivant:

Tableau 2: Transport SAP

ID du transport Cofile Fichier de données
ABAK900043 K900043.ABA R900043.ABA

Une fois le transport importé dans le système SAP, vérifiez la création du module de fonction RFC activé, /GOOG/RFC_READ_TABLE.

Pour installer le transport SAP, procédez comme suit:

Étape 1: Importer les fichiers de demande de transport

  1. Connectez-vous au système SAP en tant qu'administrateur système SAP.
  2. Copiez le fichier cofile dans le dossier /usr/sap/trans/cofiles.
  3. Copiez le fichier de données dans le dossier /usr/sap/trans/data.

Étape 2: Importer les fichiers de requête de transport

L'administrateur SAP peut importer les fichiers de requête de transport à l'aide de l'une des options suivantes:

Option 1: Importer les fichiers de requête de transport à l'aide du système de gestion du transport SAP
  1. Connectez-vous au système SAP en tant qu'administrateur SAP.
  2. Saisissez le numéro STMS de la transaction.
  3. Cliquez sur Vue d'ensemble > Importations.
  4. Double-cliquez sur le SID actuel dans la colonne "File d'attente".
  5. Cliquez sur Extras > Autres demandes > Ajouter.
  6. Sélectionnez l'ID de la demande de transport, puis cliquez sur Continue (Continuer).
  7. Sélectionnez la demande de transport dans la file d'attente des importations, puis cliquez sur Demander > Importer.
  8. Saisissez le numéro client.
  9. Dans l'onglet Options, sélectionnez Remplacer les versions d'origine et Ignorer la version de composant non valide (le cas échéant).

    (Facultatif) Pour programmer une importation ultérieure des transports, sélectionnez Laisser les requêtes de transport en file d'attente pour importation ultérieure et Importer à nouveau les requêtes de transport. Cela est utile pour les mises à niveau du système SAP et les restaurations de sauvegarde.

  10. Cliquez sur Continuer.

  11. Pour vérifier l'importation, utilisez l'une des transactions, telles que SE80 et SU01.

Option 2: Importer les fichiers de requête de transport au niveau du système d'exploitation
  1. Connectez-vous au système SAP en tant qu'administrateur système SAP.
  2. Ajoutez les requêtes appropriées au tampon d'importation en exécutant la commande suivante:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Par exemple : tp addtobuffer IB1K903958 DD1

  3. Importez les requêtes de transport en exécutant la commande suivante:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Remplacez NNN par le numéro client. Exemple : tp import IB1K903958 DD1 client=800 U1238.

  4. Vérifiez que le module de fonction et les rôles d'autorisation ont bien été importés à l'aide de toutes les transactions appropriées, telles que SE80 et SU01.

Autorisations SAP requises

Pour exécuter un pipeline de données dans Cloud Data Fusion, vous avez besoin d'un utilisateur SAP. L'utilisateur SAP doit être de type Communications ou Dialog. Le type Communications est recommandé pour éviter d'utiliser les ressources de boîte de dialogue SAP. Les utilisateurs peuvent être créés à l'aide du code de transaction SU01 SAP.

Pour créer le rôle d'autorisation dans SAP, procédez comme suit:

  1. Dans l'IUG SAP, saisissez le code de transaction PFCG pour ouvrir la fenêtre Maintenance des rôles.
  2. Dans le champ Rôle, saisissez le nom du rôle.

    Par exemple : zcdf_role

  3. Cliquez sur Rôle unique.

    La fenêtre Créer des rôles s'affiche.

  4. Dans le champ Description, saisissez une description, puis cliquez sur Enregistrer.

    Exemple : Authorizations for Cloud Data Fusion SAP Table plugin.

  5. Cliquez sur l'onglet Autorisations. Le titre de la fenêtre est remplacé par Modifier les rôles.

  6. Sous Modifier les données d'autorisation et générer des profils, cliquez sur Modifier les données d'autorisation.

    La fenêtre Choose Template (Choisir un modèle) s'ouvre.

  7. Cliquez sur Ne pas sélectionner de modèles.

    La fenêtre Modifier le rôle: Autorisations s'affiche.

  8. Cliquez sur Manuellement.

  9. Fournissez les autorisations indiquées dans le tableau suivant.

  10. Cliquez sur Enregistrer.

  11. Pour activer le rôle d'autorisation, cliquez sur l'icône Générer.

Tableau 3: Autorisations SAP

Classe d'objets Texte de classe d'objet Objet d'autorisation Texte de l'objet autorisation Autorisation Texte Valeur
AAAB Objets d'autorisation inter-applications S_RFC Objets d'autorisation inter-applications RFC_TYPE Type d'objet RFC auquel l'accès doit être autorisé FUNC
AAAB Objets d'autorisation inter-applications S_RFC Objets d'autorisation inter-applications RFC_NAME Nom de l'objet RFC pour lequel l'accès est autorisé DDIF_FIELDINFO_GET,
RFCPING,
RFC_GET_FUNCTION_INTERFACE,
/GOOG/RFC_READ_TABLE,
SAPTUNE_GET_SUMMARY_STATISTIC,
TH_WPINFO
AAAB Objets d'autorisation inter-applications S_RFC Objets d'autorisation inter-applications TV connectée Activité 16
AAAB Objets d'autorisation inter-applications CODE_ST Vérification du code de transaction au début de la transaction TCD Code de transaction SM-50
BC_A Base: Administration S_TABU_NAM Accès à la table par des outils standards génériques TV connectée Activité 03
BC_A Base: Administration S_TABU_NAM Accès à la table par des outils standards génériques TABLE Nom du tableau *
BC_A Base: Administration S_ADMI_FCD Autorisations système S_ADMI_FCD Fonction d'administration système ST0R

Configurer Cloud Data Fusion

Assurez-vous que la communication est activée entre l'instance Cloud Data Fusion et le serveur SAP. Assurez-vous de suivre la procédure d'appairage de réseaux pour les instances privées Cloud Data Fusion.

Pour configurer votre environnement Cloud Data Fusion pour le plug-in, procédez comme suit:

  1. L'utilisateur de Cloud Data Fusion doit télécharger le plug-in source de table SAP Table Batch depuis le Hub. Le plug-in est disponible à partir de la version 6.3.0.

    1. (Facultatif) Si vous avez créé une instance 6.3.0 avant le 22 mars 2021, vous ne verrez peut-être pas le plug-in dans le Hub. Pour l'activer, exécutez la commande suivante.

      Utilisez la variable HUB_URLS pour SAP Hub. Si vous utilisez l'accélérateur Healthcare, incluez sa variable HUB_URLS (reportez-vous aux commentaires de la commande).

      # Enter values for these variables
      PROJECT=PROJECT_ID
      REGION=REGION_CODE
      INSTANCE=INSTANCE
      
      # Select one of the following HUB_URLS
      HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub"
      # HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub+https://storage.googleapis.com/b999ec76-9e36-457b-bf30-753cb13a8c98" # Uncomment this line if the Healthcare accelerator is enabled
      
      # Run these commands (NOTE: This restarts your instance after the update)
      curl -X PATCH -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE -d "{ 'options':{'market.base.urls':\"$HUB_URLS\"}}"
      sleep 300 # Wait for update operation to succeed
      curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE:restart
      
    2. Cliquez sur HUB et sélectionnez l'onglet SAP.

    3. Déployez le plug-in source de table SAP Table Batch.

  2. Vérifiez que le plug-in s'affiche dans la palette de la section "Source".

  3. L'administrateur SAP doit télécharger les artefacts JCo suivants à partir du site d'assistance SAP et les fournir à l'administrateur GCP.

    La version minimale de JCo compatible est 3.1.2.

    • Une plate-forme indépendante (sapjco3.jar)
    • Une plate-forme dépendante (libsapjco3.so)

    Pour télécharger les fichiers, procédez comme suit:

    1. Accédez à la page des connecteurs SAP.
    2. Cliquez sur SAP Java Connector/Outils et services. Vous trouverez des liens spécifiques à la plate-forme pour le téléchargement.
    3. Choisissez la plate-forme sur laquelle votre instance CDF est exécutée :
      1. Si vous utilisez des images Google Cloud standards pour les VM de votre cluster (valeur par défaut pour Cloud Data Fusion), sélectionnez Linux pour les processeurs compatibles 64 bits x86.
      2. Si vous utilisez une image personnalisée, sélectionnez la plate-forme correspondante.
  4. L'administrateur GCP doit copier les fichiers JCo dans un bucket Cloud Storage lisible. Indiquez le chemin d'accès du bucket à l'utilisateur Cloud Data Fusion.

  5. L'administrateur GCP doit accorder l'accès en lecture aux deux fichiers au compte de service Cloud Data Fusion pour l'environnement de conception et au compte de service Dataproc pour l'environnement d'exécution. Pour en savoir plus, consultez Comptes de service Cloud Data Fusion.

  6. Le chemin du bucket doit être fourni dans la propriété de plug-in Chemin d'accès GCS de la bibliothèque JCO SAP.

Configurer le plug-in

Le plug-in Source par lot SAP Table lit le contenu ou la vue SAP (consultez la section Questions fréquentes pour en savoir plus). Différentes options de filtrage des enregistrements sont disponibles. La capture d'écran suivante montre toutes les propriétés disponibles dans le plug-in:

Propriétés des tables SAP

Vous pouvez configurer les propriétés suivantes pour la source de table SAP Batch.

Basic

Nom de référence: nom permettant d'identifier de manière unique cette source de traçabilité, d'annotation des métadonnées, etc.
Client SAP: le client SAP à utiliser. (par exemple, 100).
SAP Language: langage de connexion SAP (par exemple, EN).
Type de connexion: Type de connexion SAP (direct ou à équilibrage de charge). Sélectionnez un type pour modifier les champs disponibles suivants:

Pour une connexion directe

SAP Application Server Host: nom du serveur SAP ou adresse IP.
SAP System Number: numéro du système SAP (par exemple, 00).
SAP Router: chaîne du routeur.

Pour une connexion avec équilibrage de charge

SAP Message Server Host: nom d'hôte ou adresse IP de l'outil SAP Message Server.
Service de serveur de messages SAP ou numéro de port: numéro de port ou service de serveur de messages SAP (par exemple, sapms02.
ID système SAP (SID): ID système SAP (par exemple, N75).
Nom du groupe SAP Logon: nom du groupe de connexion SAP (par exemple, PUBLIC).
Nom de la table ou de la vue SAP: nom de la table ou de la vue SAP (par exemple, MARA).

Obtenir le schéma Bouton: Le plug-in génère un schéma basé sur les métadonnées de SAP, avec un mappage automatique des types de données SAP vers les types de données Cloud Data Fusion correspondants (même fonctionnalité que lesValider .

Identifiants

SAP Logon Username (Nom d'utilisateur de connexion SAP) : nom d'utilisateur SAP. Recommandé: si le nom d'utilisateur SAP Logon change régulièrement, utilisez une macro.
Mot de passe de connexion SAP: mot de passe utilisateur SAP Recommandé: Utilisez des macros sécurisées pour les valeurs sensibles telles que le mot de passe utilisateur.

Détails de SAP JCo

GCP Project ID (ID du projet GCP) : identifie le projet de manière unique. Vous le trouverez sur le tableau de bord de Google Cloud Console.
Chemin d'accès GCS de la bibliothèque JCO SAP: chemin d'accès Cloud Storage contenant les fichiers de bibliothèque SAP JCo importés par l'utilisateur.

Avancé

Filter Options (Options de filtre) : conditions spécifiées dans la syntaxe OpenSQL qui seront utilisées comme conditions de filtrage dans la clause SQL WHERE (par exemple, KEY6 LT '25'). Les enregistrements peuvent être extraits en fonction de conditions telles que certaines colonnes, qui possèdent un ensemble de valeurs défini ou une plage de valeurs.

Nombre de lignes à extraire: permet de limiter le nombre d'enregistrements extraits. Saisissez un nombre entier positif. Si la valeur est 0 ou reste vide, les enregistrements sont extraits de la table spécifiée. Si une valeur positive est fournie, ce qui est supérieur au nombre réel d'enregistrements disponibles en fonction des options de filtrage, seuls les enregistrements disponibles sont extraits.

Nombre de divisions à générer: permet de créer des partitions pour extraire des enregistrements de table en parallèle. Saisissez un nombre entier positif. Le moteur d'exécution crée le nombre spécifié de partitions (et de connexions SAP) lors de l'extraction des enregistrements de la table. Soyez prudent lorsque vous définissez cette propriété sur un nombre supérieur à 16, car le parallélisme plus élevé augmente les connexions simultanées avec SAP. Nous recommandons des valeurs comprises entre 8 et 16.

Si la valeur est 0 ou vide, le système choisit automatiquement une valeur appropriée en fonction du nombre de processus SAP disponibles, des enregistrements à extraire et de la taille du package.

Taille du package: nombre d'enregistrements à extraire dans un appel réseau SAP unique. Il s'agit du nombre d'enregistrements stockés en mémoire par SAP lors de chaque appel d'extraction réseau. Plusieurs pipelines de données extraient les données, ce qui peut entraîner un pic d'utilisation de la mémoire et des échecs dus à des erreurs Out of Memory. Soyez prudent lorsque vous définissez cette propriété.

Saisissez un nombre entier positif. Si la valeur est 0 ou est vide, le plug-in utilise une valeur standard de 70000 ou une valeur calculée de manière appropriée si le nombre d'enregistrements à extraire est inférieur à 70 000.

Si le pipeline de données échoue avec des erreurs Out of Memory, réduisez la taille de package ou augmentez la mémoire disponible pour vos processus de travail SAP.

Mappage des types de données

Tableau 4: Mappage des types de données SAP aux types Cloud Data Fusion

Type ABAP Description (SAP) Type de données CDAP
Numérique
b Entier de 1 octet (INT1) INT
s Entier de 2 octets (INT2) INT
i Entier de 4 octets (INT4) INT
(int8)
8
Entier de 8 octets (INT8) LONG
p Nombre empaqueté au format BCD (DEC) DECIMAL
(décfloat16)
a
Virgule flottante décimale 8 octets IEEE 754r (DF16_DEC, DF16_RAW) DECIMAL
(decfloat34)
e
Virgule flottante décimale 16 octets IEEE 754r (DF34_DEC, DF34_RAW) DECIMAL
f Nombre à virgule flottante binaire (FLTP) DOUBLE
Caractère
c Chaîne de caractères (CHAR/LCHR) STRING
string Chaîne de caractères (SSTRING, GEOM_EWKB) STRING
string Chaîne de caractères CLOB (STRING) BYTES
n Texte numérique (NUMC/ACCP) STRING
Octet
x Données binaires (RAW/LRAW) BYTES
xstring Chaîne BLOB d'octets (RAWSTRING) BYTES
Date/Heure
d Date (DATS) DATE
t Heure (TIMS) TIME
utclong/utcl Horodatage TIMESTAMP

Validation

Cliquez sur Validate (Valider) en haut à droite ou sur Get Schema (Obtenir le schéma).

Le plug-in génère un schéma à partir des métadonnées de SAP. Il mappe automatiquement les types de données SAP avec les types de données Cloud Data Fusion correspondants.

Exécuter un pipeline de données

  1. Après avoir déployé le pipeline, cliquez sur Configure (Configurer) dans le panneau supérieur supérieur.
  2. Sélectionnez Ressources.
  3. Si nécessaire, modifiez le processeur de l'exécuteur et la mémoire en fonction de la taille globale des données et du nombre de transformations utilisées dans le pipeline.
  4. Cliquez sur Enregistrer.
  5. Pour démarrer le pipeline de données, cliquez sur Run (Exécuter).

Optimiser les performances

Le plug-in utilise les fonctionnalités de parallélisation de Cloud Data Fusion. Les instructions suivantes vous aident à configurer l'environnement d'exécution de manière à fournir suffisamment de ressources au moteur d'exécution pour atteindre le niveau de parallélisme et de performances souhaité.

Configuration SAP

Recommandé: Utilisez un utilisateur de communication SAP plutôt qu'un utilisateur de boîte de dialogue (ce qui utilise moins de ressources système SAP). De plus, si un serveur de messages est disponible dans votre environnement cloud, utilisez une connexion SAP à équilibrage de charge plutôt qu'une connexion directe.

Si vous spécifiez des valeurs pour Number of Splits and Package Size (Nombre de divisions et taille de package), le plug-in peut ajuster ces valeurs pour ne pas épuiser les processus de travail SAP et la mémoire disponible. Voici les limites supérieures des ressources SAP utilisées:

  • 50% des processus disponibles
  • 70% de la mémoire disponible par processus professionnel

Configuration du plug-in

Recommandé: laissez les champs Nombre de divisions à générer et Taille du package vide, sauf si vous connaissez les paramètres de mémoire de votre système SAP. Par défaut, ces valeurs sont automatiquement ajustées pour améliorer les performances.

Utilisez les propriétés suivantes pour garantir des performances optimales lorsque vous exécutez le pipeline:

  • Nombre de divisions à générer: contrôle directement le parallélisme du côté de Cloud Data Fusion. Le moteur d'exécution crée le nombre spécifié de partitions (et de connexions SAP) lors de l'extraction des enregistrements de la table. Nous vous recommandons d'utiliser des valeurs comprises entre 8 et 16, mais pouvant atteindre 30 ou 64 avec la configuration appropriée du côté SAP (allouant des ressources mémoire appropriées aux processus professionnels dans SAP).

    Si la valeur est 0 ou vide, le système choisit automatiquement une valeur appropriée en fonction du nombre de processus SAP disponibles, des enregistrements à extraire et de la taille du package.

  • Taille du package: nombre d'enregistrements à extraire dans un appel réseau SAP unique. Il s'agit du nombre d'enregistrements stockés en mémoire par SAP lors de chaque appel d'extraction. Augmentez cette valeur (par défaut (70000)) si votre système SAP alloue une mémoire suffisante pour les processus de travail. Dans la plupart des configurations par défaut, vous pouvez augmenter jusqu'à 100000, mais des tailles plus élevées peuvent nécessiter une reconfiguration du système SAP.

Paramètres des ressources Cloud Data Fusion

Recommandé: utilisez 1 processeur et 4 Go de mémoire par exécuteur (cette valeur s'applique à chaque processus d'exécuteur). Définissez-les dans la boîte de dialogue Configurer > Ressources.

Paramètres de cluster Dataproc

Recommandé: attribuez au minimum un nombre total de processeurs (sur les nœuds de calcul) supérieur au nombre prévu de divisions (consultez la section Configuration du plug-in). Par exemple, si vous avez 16 partitions, définissez 20 processeurs ou plus au total pour tous les nœuds de calcul (la surcharge de quatre processeurs est utilisée pour la coordination).

Questions fréquentes

Quels sont les produits et versions de SAP compatibles ?

Les sources compatibles sont SAP ERP6/NW7.5 et SAP S4HANA 1909 et 2020.

Quels types de tables et de vues SAP sont compatibles avec l'extraction ?

Le plug-in est compatible avec les vues et tables transparentes SAP, les vues CDS et les vues HANA.Les objets sont lus à l'aide de la couche d'application SAP et non de la couche de base de données. Les tables de pool et de cluster ne sont pas compatibles.

Le volume de données ou la largeur d'enregistrement sont-ils limités ?

La largeur de ligne autorisée est limitée à 30 Ko. Il n'y a pas de limite au nombre d'enregistrements extraits ou à la taille de la table.

Quel est le débit de plug-in attendu ?

Pour un environnement correctement configuré, le plug-in peut extraire environ 9 000 lignes/s à partir d'une table de taille moyenne comme EKKO et 6 500 lignes/s à partir d'une grande table, comme ACDOCA.

Comment puis-je optimiser les performances d'extraction ?

Consultez la section Optimiser les performances.

L'extraction delta est-elle acceptée ?

L'extraction de Delta (données depuis la dernière exécution) n'est pas possible directement dans le plug-in. Vous pouvez définir des pipelines de données qui filtrent les enregistrements en fonction des champs d'horodatage des tables transactionnelles (par exemple, le champ TIMESTAMP dans la table ACDOCA, le champ AEDAT dans la table EKKO). Utilisez la propriété du plug-in Options de filtre pour indiquer la condition de filtrage.

Exemple : TIMESTAMP >= '20210130100000' AND TIMESTAMP <= ' 20210226000000'(sélectionne les enregistrements du tableauACDOCA avec TIMESTAMP entre le 30 janvier 2021 à 10h00 UTC et le 26 février 2021 à 00h00 UTC).

Scénarios d'erreur

Au moment de l'exécution, le plug-in écrit des entrées dans le journal du pipeline de données Cloud Data Fusion. Ces entrées sont précédées du préfixe CDF_SAP pour faciliter l'identification.

Au moment de la conception, lorsque l'utilisateur valide les paramètres du plug-in, les messages s'affichent dans la zone Propriétés, mise en surbrillance en rouge. Certains messages de validation de propriété spécifiques s'affichent immédiatement sous la zone de saisie de l'utilisateur des propriétés, en rouge. Ces messages d'erreur de validation de propriété n'ont pas d'ID de message spécifique.

Exemple de message d'erreur générique:

Message d&#39;erreur

Le tableau suivant répertorie certains messages d'erreur courants (le texte d'espace réservé est remplacé par des valeurs réelles au moment de l'exécution):

ID du message Message Action recommandée
Non applicable (UI) Required property UI_CONNECTION_PROPERTY_LABEL for connection type UI_CONNECTION_TYPE_RADIO_OPTION. Saisissez une valeur réelle ou une variable de macro.
Non applicable (UI) Invalid value for property UI_ADVANCED_OPTIONAL_PROPERTY_LABEL. Saisissez un nombre entier non négatif (0 ou plus, sans décimale) ou une variable de macro.
CDF_SAP_01412 One or more SAP JCo library files are missing or of incompatible version. Assurez-vous que la bibliothèque JCo requise (sapjco3.jar) et la bibliothèque partagée dépendante de son système d'exploitation associée (par exemple, libsapjco3.so) correspondent à la même version et ont été importées dans Cloud Data Fusion, comme indiqué dans la documentation de l'utilisateur Guider
CDF_SAP_01500 Unable to retrieve SAP destination from Destination Manager. Cannot initiate connectivity test with SAP.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Vérifiez la cause première indiquée dans le message et prenez les mesures appropriées.
CDF_SAP_01404 SAP connection test failed. Please verify the connection parameters.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Vérifiez la cause première indiquée dans le message et prenez les mesures appropriées.
CDF_SAP_01512 Unable to retrieve JCo Repository from SAP Destination.
Root Cause: SAP_ERROR_CODE - SAP root cause message
Vérifiez la cause première indiquée dans le message et prenez les mesures appropriées.
CDF_SAP_01513 Unable to retrieve JCo Function for SAP_RFM_NAME from SAP Repository.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Vérifiez la cause première indiquée dans le message et prenez les mesures appropriées.
CDF_SAP_01501 RFM SAP_RFM_NAME introuvable. Vérifiez que la requête de transport appropriée est correctement importée dans SAP.
CDF_SAP_01406 Error while executing RFM SAP_RFM_NAME.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Vérifiez que les autorisations appropriées sont attribuées à l'utilisateur SAP.
CDF_SAP_01516 Table or View SAP_TABLE/VIEW_NAME could not be found. Vérifiez que la table ou la vue existe et qu'elle est active dans SAP.
CDF_SAP_01517 SAP_TABLE/VIEW_NAME is not of type table or view. Assurez-vous qu'il s'agit d'une table ou d'une vue valide, et non d'une structure dans SAP.
CDF_SAP_1532 Filter Options syntax is not valid. Vérifiez que la syntaxe OpenSQL est appliquée correctement lorsque vous fournissez des conditions de filtre.
CDF_SAP_1534 Data buffer in SAP exceeded while extracting records from table/view SAP_TABLE/VIEW_NAME. Diminuez la taille du package et/ou le nombre de divisions. Vous pouvez également demander à l'administrateur SAP d'augmenter les ressources de mémoire disponibles sur le serveur SAP.
CDF_SAP_1403 User is not authorized to access SAP_TABLE/VIEW_NAME table/view data in SAP. Vérifiez qu'une autorisation de lecture appropriée sur le nom de la table ou de la vue SAP/table est attribuée à l'utilisateur SAP.
CDF_SAP_1535 Query for the table/view AP_TABLE/VIEW_NAME failed to execute successfully. Vérifiez que la condition du filtre utilise des noms de colonne valides.
CDF_SAP_01520 Failed to extract records #FROM_RECORD_INDEX to #TO_RECORD_INDEX, even after MAX_RETRY_COUNT retries. Erreur de communication avec le serveur SAP. Vérifiez votre connectivité réseau et l'accessibilité du serveur SAP à partir de Cloud Data Fusion.

Étape suivante