Descripción general del complemento de fuente de lotes de tablas de SAP

En esta guía, se describe cómo implementar, configurar y ejecutar canalizaciones de datos que usan el complemento de fuente de lotes de tablas de SAP.

El complemento de fuente de lotes de tablas de SAP permite la integración masiva de datos desde aplicaciones de SAP con Cloud Data Fusion. Puedes configurar y ejecutar transferencias de datos masivas desde tablas y vistas de SAP sin programación.

Consulta las Preguntas frecuentes para obtener información sobre las aplicaciones, tablas y vistas compatibles con la extracción en SAP. Para obtener más información sobre SAP en Google Cloud, consulta la Descripción general de SAP en Google Cloud.

Objetivos

  • Configure the SAP ERP system (activate DataSources in SAP).
  • Deploy the plugin in your Cloud Data Fusion environment.
  • Download the SAP transport from Cloud Data Fusion and install it in SAP.
  • Usa Cloud Data Fusion y SAP Table Batch Source a fin de crear canalizaciones de datos para integrar datos de SAP.

Antes de comenzar

Para usar este complemento, necesitarás conocimientos de dominio en las siguientes áreas:

  • Compila canalizaciones en Cloud Data Fusion
  • Administración de acceso con IAM
  • Configurar sistemas de SAP Cloud y de planificación de recursos empresariales (ERP) local

Funciones de usuario

Las tareas de esta página las realizan personas con las siguientes funciones en Google Cloud o en su sistema SAP:

Tipo de usuario Descripción
Administrador de Google Cloud Los usuarios con esta función son administradores de cuentas de Google Cloud.
Usuario de Cloud Data Fusion Los usuarios a los que se les asigna esta función están autorizados para diseñar y ejecutar canalizaciones de datos. Se les otorga, como mínimo, la función de visualizador de Data Fusion (roles/datafusion.viewer). Si usas el control de acceso basado en funciones, es posible que necesites funciones adicionales.
Administrador de SAP Los usuarios con esta función son administradores del sistema SAP. Tienen acceso para descargar software del sitio de servicio de SAP. No es una función de IAM.
Usuario de SAP Los usuarios a los que se les asignó esta función están autorizados para conectarse a un sistema SAP. No es una función de IAM.

Configurar el sistema SAP ERP

La fuente por lotes de la tabla de SAP usa un módulo de función remota (RFM), que debe instalarse en cada servidor de SAP en el que se extraen los datos. Este RFM se entrega como un transporte de SAP.

Para configurar tu sistema SAP, sigue estos pasos:

  1. El usuario de Cloud Data Fusion debe descargar el archivo ZIP que contiene el transporte de SAP y proporcionárselo al administrador de SAP. Para descargarla, usa el vínculo proporcionado con el complemento en Hub. Consulta Cómo configurar Cloud Data Fusion.
  2. El administrador de SAP debe importar el transporte de SAP al sistema SAP y verificar los objetos creados. Para obtener más información sobre la instalación, consulta Instala SAP Transport.

Instalar transporte de SAP

Los componentes de SAP son necesarios para diseñar y ejecutar canalizaciones de datos en Cloud Data Fusion. Se entregan como archivos de transporte de SAP archivados como un archivo ZIP (una solicitud de transporte, que se compone de un coarchivo y un archivo de datos).

El ID de la solicitud de transporte y los archivos asociados se proporcionan en la siguiente tabla:

Tabla 2: Transporte de SAP

ID de transporte Coarchivo Archivo de datos
ABAK900043 K900043.ABA R900043.ABA

Después de importar el transporte en el sistema SAP, verifica la creación del módulo de funciones con RFC habilitado, /GOOG/RFC_READ_TABLE.

Para instalar el transporte de SAP, sigue estos pasos:

Paso 1: Sube los archivos de solicitud de transporte

  1. Accede al sistema SAP como administrador del sistema SAP.
  2. Copia el coarchivo a la carpeta /usr/sap/trans/cofiles.
  3. Copia el archivo de datos a la carpeta /usr/sap/trans/data.

Paso 2: Importa los archivos de solicitud de transporte

El administrador de SAP puede importar los archivos de solicitud de transporte mediante una de las siguientes opciones:

Opción 1: Importar los archivos de solicitud de transporte con el sistema de administración de transporte de SAP
  1. Accede al sistema de SAP como administrador de SAP.
  2. Ingresa el STMS de la transacción.
  3. Haz clic en Descripción general >Importaciones.
  4. Haz doble clic en el SID actual en la columna Cola.
  5. Haz clic en Adicionales > Otras solicitudes > Agregar.
  6. Seleccione el ID de solicitud de transporte y haga clic en Continuar.
  7. Selecciona la solicitud de transporte en la cola de importación y, luego, haz clic en Solicitud > Importar.
  8. Ingrese el número de cliente.
  9. En la pestaña Opciones, selecciona Reemplazar originales y, también, Ignorar versión de componente no válida (si está disponible).

    Opcional: A fin de programar una reimportación de los transportes para más adelante, selecciona Abandonar las solicitudes de transporte en la cola para importarlas más tarde y, luego, Importar solicitudes de transporte de nuevo. Esto es útil para actualizaciones del sistema SAP y restablecimientos de copias de seguridad.

  10. Haga clic en Continuar.

  11. Para verificar la importación, usa cualquier transacción, como SE80 y SU01.

Opción 2: Importa los archivos de solicitud de transporte a nivel del sistema operativo
  1. Accede al sistema SAP como administrador del sistema SAP.
  2. Agrega las solicitudes apropiadas al búfer de importación con la ejecución del siguiente comando:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Por ejemplo: tp addtobuffer IB1K903958 DD1.

  3. Importa las solicitudes de transporte mediante la ejecución del siguiente comando:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Reemplaza NNN por el número de cliente. Por ejemplo: tp import IB1K903958 DD1 client=800 U1238

  4. Verifica que el módulo de función y los roles de autorización se hayan importado de forma correcta mediante las transacciones adecuadas, como SE80 y SU01.

Autorizaciones necesarias de SAP

Para ejecutar una canalización de datos en Cloud Data Fusion, necesita un usuario de SAP. El usuario de SAP debe ser de tipo Communications o Dialog. Se recomienda usar el tipo Communications para evitar el uso de recursos de diálogo de SAP. Los usuarios se pueden crear con el código de transacción SU01 de SAP.

Para crear el rol de autorización en SAP, sigue estos pasos:

  1. En la GUI de SAP, ingresa el código de transacción PFCG para abrir la ventana Mantenimiento de roles.
  2. En el campo Rol, ingresa un nombre para el rol.

    Por ejemplo: zcdf_role.

  3. Haz clic en Rol único.

    Se abre la ventana Crear roles.

  4. En el campo Descripción, ingrese una descripción y haga clic en Guardar.

    Por ejemplo: Authorizations for Cloud Data Fusion SAP Table plugin.

  5. Haga clic en la pestaña Autorizaciones. El título de la ventana cambia a Change Roles.

  6. En Editar autorización y generar perfiles, haz clic en Cambiar datos de autorización.

    Se abrirá la ventana Choose Template.

  7. Haga clic en No seleccionar plantillas.

    Se abrirá la ventana Cambiar rol: autorizaciones.

  8. Haga clic en Manualmente.

  9. Proporciona las autorizaciones que se muestran en la siguiente tabla de autorización de SAP.

  10. Haz clic en Guardar.

  11. Para activar el rol de autorización, haz clic en el ícono Generar.

Tabla 3: Autorizaciones de SAP

Clase del objeto Texto de la clase de objeto Objeto de autorización Texto del objeto de autorización Autorización Texto Valor
AAAB (AAAB) Objetos de autorización de varias aplicaciones S_RFC Objetos de autorización de varias aplicaciones RFC_TYPE Tipo de objeto RFC al que se permite el acceso FUNC
AAAB (AAAB) Objetos de autorización de varias aplicaciones S_RFC Objetos de autorización de varias aplicaciones RFC_NAME Nombre del objeto RFC para el que se permite el acceso DDIF_FIELDINFO_GET,
RFCPING,
RFC_GET_FUNCTION_INTERFACE,
/GOOG/RFC_READ_TABLE,
SAPTUNE_GET_SUMMARY_STATISTIC,
TH_WPINFO
AAAB (AAAB) Objetos de autorización de varias aplicaciones S_RFC Objetos de autorización de varias aplicaciones ACTVT Actividad 16
AAAB (AAAB) Objetos de autorización de varias aplicaciones S_TCODE Verificación del código de transacciones al inicio de la transacción TCD Código de transacción SM50
BC_A Base: Administración S_TABU_NAM Acceso a tablas por herramientas estándar genéricas ACTVT Actividad 03
BC_A Base: Administración S_TABU_NAM Acceso a tablas por herramientas estándar genéricas TABLA Nombre de la tabla *
BC_A Base: Administración S_ADMI_FCD Autorizaciones del sistema S_ADMI_FCD Función de administración del sistema ST0R

Cómo configurar Cloud Data Fusion

Asegúrate de que la comunicación esté habilitada entre la instancia de Cloud Data Fusion y el servidor SAP. Asegúrate de seguir los pasos del intercambio de tráfico entre redes para las instancias privadas de Cloud Data Fusion.

Para configurar el entorno de Cloud Data Fusion para el complemento, sigue estos pasos:

  1. El usuario de Cloud Data Fusion debe descargar el complemento de origen de lote de tabla de SAP desde Hub. El complemento está disponible a partir de la versión 6.3.0.

    1. Opcional: Si creaste una instancia 6.3.0 antes del 22 de marzo de 2021, es posible que no veas el complemento en Hub. Para habilitarlo, ejecuta el siguiente comando:

      Usa la variable HUB_URLS para SAP Hub. Si usas el acelerador de Healthcare, incluye su variable HUB_URLS (consulta los comentarios en el comando).

      # Enter values for these variables
      PROJECT=PROJECT_ID
      REGION=REGION_CODE
      INSTANCE=INSTANCE
      
      # Select one of the following HUB_URLS
      HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub"
      # HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub+https://storage.googleapis.com/b999ec76-9e36-457b-bf30-753cb13a8c98" # Uncomment this line if the Healthcare accelerator is enabled
      
      # Run these commands (NOTE: This restarts your instance after the update)
      curl -X PATCH -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE -d "{ 'options':{'market.base.urls':\"$HUB_URLS\"}}"
      sleep 300 # Wait for update operation to succeed
      curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE:restart
      
    2. Haz clic en HUB y selecciona la pestaña SAP.

    3. Usa el complemento SAP Table Batch Source

  2. Confirma que el complemento se muestre en la paleta, en la sección Fuente.

  3. El administrador de SAP debe descargar los siguientes artefactos de JCo del sitio de asistencia de SAP y proporcionárselos al administrador de GCP.

    La versión mínima de JCo que se admite es 3.1.2.

    • Uno independiente de la plataforma (sapjco3.jar)
    • Uno dependiente de la plataforma (libsapjco3.so)

    Para descargar los archivos, sigue estos pasos:

    1. Ve a Conectores de SAP.
    2. Haz clic en Conector Java de SAP/Herramientas y servicios. Puedes encontrar vínculos específicos de cada plataforma para la descarga.
    3. Elige la plataforma en la que se ejecuta tu instancia de CDF:
      1. Si usas imágenes estándar de Google Cloud para las VM en tu clúster (el valor predeterminado es Cloud Data Fusion), selecciona Linux para procesadores Intel compatibles de 64 bits x86.
      2. Si usas una imagen personalizada, selecciona la plataforma correspondiente.
  4. El administrador de GCP debe copiar los archivos JCo en un bucket legible de Cloud Storage. Proporciona la ruta de acceso del bucket al usuario de Cloud Data Fusion.

  5. El administrador de GCP debe otorgar acceso de lectura para los dos archivos a la cuenta de servicio de Cloud Data Fusion para el entorno de diseño y la cuenta de servicio de Dataproc para el entorno de ejecución. Para obtener más información, consulta Cuentas de servicio de Cloud Data Fusion.

  6. La ruta de acceso del bucket debe proporcionarse en la propiedad correspondiente del complemento Ruta de acceso de GCS de la biblioteca de SAP JCo.

Configura el complemento

El complemento de SAP Table Batch Source lee el contenido de una tabla o vista de SAP (consulta la sección Preguntas frecuentes para obtener detalles adicionales de asistencia). Hay disponibles varias opciones de filtro de registros.

Puedes configurar las siguientes propiedades para la fuente de lotes de tablas de SAP.

Básico

Nombre de referencia: Es el nombre que se usa para identificar de forma exclusiva este origen para el linaje, anotar metadatos, etcétera.
SAP Client: El cliente de SAP que se usará (p.ej., 100).
Lenguaje de SAP: lenguaje de acceso de SAP (p.ej., EN).
Tipo de conexión: Tipo de conexión de SAP (directo o con balanceo de cargas). Si seleccionas un tipo, se cambiarán los siguientes campos disponibles:

Para conexión directa

SAP Application Server Host: Dirección IP o nombre del servidor de SAP.
Número de sistema SAP: El número de sistema SAP (p. ej., 00).
Router SAP: La string del router.

Para la conexión con balanceo de cargas

Host del servidor de mensajes de SAP: La dirección IP o el nombre del host de mensajes de SAP.
Número de puerto o servicio del servidor de mensajes de SAP: El número de puerto o servicio del servidor de mensajes de SAP (p. ej., sapms02.
ID del sistema SAP (SID): El ID del sistema SAP (p. ej., N75.
Nombre del grupo de inicio de sesión de SAP: El nombre del grupo de inicio de sesión de SAP (p. ej., PUBLIC.
Nombre de la tabla/vista de SAP: El nombre de la tabla o la vista de SAP (p. ej., MARA).

Botón Obtener esquema: El complemento genera un esquema basado en los metadatos de SAP, con asignación automática de tipos de datos de SAP a tipos de datos de Cloud Data Fusion correspondientes (la misma funcionalidad que el botón Validar).

Credenciales

Nombre de usuario de inicio de sesión de SAP: Nombre de usuario de SAP. Recomendación: Si el nombre de usuario de inicio de sesión de SAP cambia de forma periódica, usa una macro.
Contraseña de inicio de sesión de SAP: Contraseña de usuario de SAP. Recomendación: Usa macros seguras para valores sensibles, como la Contraseña de usuario.

Detalles de SAP JCo

ID del proyecto de GCP: Es el ID del proyecto de Google Cloud, que identifica de forma única un proyecto. Se puede encontrar en el panel de Google Cloud Console.
Ruta de acceso de GCS de la biblioteca de JCo de SAP: La ruta de acceso de Cloud Storage que contiene los archivos de la biblioteca de JCo de SAP que subió el usuario.

Avanzado

Opciones de filtro: Condiciones especificadas en la sintaxis de OpenSQL que se usarán como condiciones de filtro en la cláusula WHERE de SQL (p. ej., KEY6 LT '25'). Los registros se pueden extraer en función de condiciones como que ciertas columnas tengan un conjunto de valores definido o un rango de valores.

Cantidad de filas que se recuperarán: Use esta opción para limitar la cantidad de registros extraídos. Ingrese un número entero positivo. Si se deja 0 o se deja en blanco, se extraen todos los registros de la tabla especificada. Si se proporciona un valor positivo, que es mayor que la cantidad real de registros disponibles según las opciones de filtro, solo se extraen los registros disponibles.

Cantidad de divisiones que se generarán: Se usa para crear particiones a fin de extraer registros de tablas en paralelo. Ingrese un número entero positivo. El motor de tiempo de ejecución crea la cantidad especificada de particiones (y conexiones SAP) mientras se extraen los registros de la tabla. Ten cuidado cuando configures esta propiedad en un número superior a 16, ya que un paralelismo mayor aumenta las conexiones simultáneas con SAP. Se recomiendan los valores comprendidos entre 8 y 16.

Si el valor es 0 o se deja en blanco, el sistema elige automáticamente un valor apropiado según la cantidad de procesos de trabajo de SAP disponibles, los registros que se van a extraer y el tamaño del paquete.

Tamaño del paquete: Cantidad de registros que se extraerán en una sola llamada de red de SAP. Esta es la cantidad de registros que SAP almacena en la memoria durante cada llamada de extracción de red. Si hay varias canalizaciones de datos que extraen datos, se puede llegar al máximo de la memoria, lo que puede generar fallas debido a errores Out of Memory. Ten cuidado cuando configures esta propiedad.

Ingrese un número entero positivo. Si se configura 0 o se deja en blanco, el complemento usa un valor estándar de 70000 o un valor calculado correctamente si la cantidad de registros que se extraerán es menor que 70,000.

Si la canalización de datos falla con errores Out of Memory, disminuye el tamaño del paquete o aumenta la memoria disponible para los procesos de trabajo de SAP.

Asignación de tipo de datos

Tabla 4: Mapas de tipos de datos de SAP a tipos de Cloud Data Fusion

Tipo de ABAP Descripción (SAP) Tipo de datos de Cloud Data Fusion
Numérico
b Número entero de 1 byte (INT1) int
s Número entero de 2 bytes (INT2) int
i Número entero de 4 bytes (INT4) int
(int8)
8
Número entero de 8 bytes (INT8) long
p Número empaquetado en formato de BCD (DEC) decimal
(decfloat16)
a
Punto flotante decimal 8 bytes IEEE 754r (DF16_DEC, DF16_RAW) decimal
(decfloat34)
e
Punto flotante decimal 16 bytes IEEE 754r (DF34_DEC, DF34_RAW) decimal
f Número de punto flotante binario (FLTP) double
Regla
c String de caracteres (CHAR/LCHR) string
string String de caracteres (SSTRING, GEOM_EWKB) string
string String de caracteres CLOB (STRING) bytes
n Texto numérico (NUMC/ACCP) string
Byte
x Datos binarios (RAW/LRAW) bytes
xstring BLOB de string de bytes (RAWSTRING) bytes
fecha/hora
d Fecha (DATS) date
t Hora (TIMS) time
utclong/utcl Marca de tiempo timestamp

Validación

En la esquina superior derecha, haga clic en Validar o en Obtener esquema.

El complemento genera un esquema basado en los metadatos de SAP. Asigna de forma automática los tipos de datos de SAP a los tipos de datos de Cloud Data Fusion correspondientes.

Ejecuta una canalización de datos

  1. Después de implementar la canalización, haz clic en Configurar, en el panel superior central.
  2. Selecciona Recursos.
  3. Si es necesario, cambia la CPU del ejecutor y la memoria según el tamaño general de los datos y la cantidad de transformaciones usadas en la canalización.
  4. Haz clic en Guardar.
  5. Para iniciar la canalización de datos, haga clic en Ejecutar.

Optimiza el rendimiento

El complemento usa las capacidades de paralelización de Cloud Data Fusion. Los siguientes lineamientos te ayudarán a configurar el entorno de ejecución a fin de proporcionar suficientes recursos al motor de tiempo de ejecución para lograr el grado de paralelismo y rendimiento previstos.

Configuración de SAP

Recomendación: Usa un usuario de SAP Communication en lugar de un diálogo (esto usa menos recursos del sistema SAP). Además, si un servidor de mensajes está disponible en tu entorno, usa una conexión SAP con balanceo de cargas en lugar de una conexión directa.

Si especificas valores para la cantidad de divisiones y el tamaño del paquete, el complemento puede ajustar estos valores a fin de no agotar los procesos de trabajo de SAP y la memoria disponible. Estos son los límites superiores de los recursos de SAP que se usan:

  • El 50% de los procesos de trabajo disponibles
  • El 70% de la memoria disponible por proceso de trabajo

Configuración de complementos

Recommended: Deja la Number of Splits to Generate y Package Size en blanco, a menos que estés familiarizado con la configuración de memoria de tu sistema SAP. De forma predeterminada, estos valores se ajustan de manera automática para mejorar el rendimiento.

Usa las siguientes propiedades para garantizar un rendimiento óptimo cuando ejecutes la canalización:

  • Cantidad de divisiones que se generarán: Esta opción controla directamente el paralelismo en el lado de Cloud Data Fusion. El motor de tiempo de ejecución crea la cantidad especificada de particiones (y conexiones SAP) mientras se extraen los registros de la tabla. Se recomiendan los valores entre 8 y 16, pero pueden aumentar hasta 30 o incluso 64 con la configuración adecuada del SAP (asignando recursos de memoria adecuados para los procesos de trabajo en SAP).

    Si el valor es 0 o se deja en blanco, el sistema elige automáticamente un valor apropiado según la cantidad de procesos de trabajo de SAP disponibles, los registros que se van a extraer y el tamaño del paquete.

  • Tamaño del paquete: Cantidad de registros que se extraerán en una sola llamada de red de SAP. Esta es la cantidad de registros que SAP almacena en la memoria durante cada llamada de extracción. Aumenta esto (desde el valor predeterminado de 70000) si tu sistema SAP asigna suficiente memoria para los procesos de trabajo. En la mayoría de las configuraciones predeterminadas, puedes aumentar hasta 100000, pero es posible que los tamaños más grandes requieran volver a configurar el sistema SAP.

Configuración de recursos de Cloud Data Fusion

Recomendación: Usa 1 CPU y 4 GB de memoria por ejecutor (este valor se aplica a cada proceso del ejecutor). Configúralos en el diálogo Configure > Resources.

Configuración del clúster de Dataproc

Recomendación: Como mínimo, asigna un total de CPU (entre trabajadores) mayor que la cantidad prevista de divisiones (consulta la sección Configuración del complemento). Por ejemplo, si tienes 16 grupos, define 20 CPU o más en total entre todos los trabajadores (con una sobrecarga de 4 CPU usadas para la coordinación).

Preguntas frecuentes

¿Qué productos y versiones de SAP son compatibles?

Las fuentes compatibles son SAP ERP6/NW7.5, SAP S4HANA 1909 y 2020.

¿Qué tipos de tablas y vistas de SAP se admiten para la extracción?

El complemento admite tablas y vistas transparentes de SAP, vistas de CDS y vistas de SAML.Los objetos se leen a través de la capa de la aplicación de SAP, no de la capa de la base de datos. No se admiten las tablas de grupos y clústeres.

¿Hay un límite para el volumen de datos o el ancho del registro?

El ancho de fila admitido es de 30 KB. No hay límite en la cantidad de registros extraídos ni el tamaño de tabla.

¿Cuál es la capacidad de procesamiento esperada del complemento?

En un entorno con la configuración correcta, el complemento puede extraer alrededor de 9,000 filas/s de una tabla de tamaño medio, como EKKO, y 6,500 filas/s, de una tabla grande, como ACDOCA.

¿Cómo puedo optimizar el rendimiento de la extracción?

Consulta Optimiza el rendimiento.

¿Se admite la extracción delta?

La extracción delta (datos desde la última ejecución) no se admite directamente en el complemento. Puedes definir canalizaciones de datos que filtren registros según los campos de marca de tiempo de las tablas transaccionales (p.ej., el campo TIMESTAMP en la tabla ACDOCA y el campo AEDAT en la tabla EKKO). Usa la propiedad de complemento Filter Options para indicar la condición del filtro.

Ejemplo: TIMESTAMP >= '20210130100000' AND TIMESTAMP <= ' 20210226000000' (selecciona los registros en la tabla ACDOCA con TIMESTAMP entre el 30 de enero de 2021 a las 10:00 UTC y el 26 de febrero de 2021 a las 00:00 UTC).

Situaciones de error

En el entorno de ejecución, el complemento escribe entradas de registro en el registro de canalizaciones de datos de Cloud Data Fusion. Estas entradas tienen el prefijo CDF_SAP para facilitar su identificación.

En el momento del diseño, cuando el usuario valida la configuración del complemento, los mensajes se muestran en el área Propiedades, destacados en rojo. Algunos mensajes de validación de propiedades específicas se muestran de inmediato debajo del cuadro de entrada del usuario de las propiedades, resaltados en rojo. Estos mensajes de error de validación de propiedades no tienen un ID de mensaje específico.

Ejemplo de mensaje de error genérico:

Mensaje de error

En la tabla siguiente se enumeran algunos mensajes de error comunes (el texto marcador de posición se reemplaza por los valores reales en el entorno de ejecución):

ID de mensaje Mensaje Acción recomendada
N/A (IU) Required property UI_CONNECTION_PROPERTY_LABEL for connection type UI_CONNECTION_TYPE_RADIO_OPTION. Ingrese un valor real o una variable de macro.
N/A (IU) Invalid value for property UI_ADVANCED_OPTIONAL_PROPERTY_LABEL. Ingresa un número entero no negativo (0 o más, sin decimal) o una variable de macro.
CDF_SAP_01412 One or more SAP JCo library files are missing or of incompatible version. Asegúrate de que la biblioteca JCo necesaria (sapjco3.jar) y su biblioteca compartida dependiente del SO asociada (p. ej., libsapjco3.so) correspondan a la misma versión y se hayan subido a Cloud Data Fusion como se documenta en la guía del usuario.
CDF_SAP_01500 Unable to retrieve SAP destination from Destination Manager. Cannot initiate connectivity test with SAP.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Verifica la causa raíz que se muestra en el mensaje y toma las medidas necesarias.
CDF_SAP_01404 SAP connection test failed. Please verify the connection parameters.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Verifica la causa raíz que se muestra en el mensaje y toma las medidas necesarias.
CDF_SAP_01512 Unable to retrieve JCo Repository from SAP Destination.
Root Cause: SAP_ERROR_CODE - SAP root cause message
Verifica la causa raíz que se muestra en el mensaje y toma las medidas necesarias.
CDF_SAP_01513 Unable to retrieve JCo Function for SAP_RFM_NAME from SAP Repository.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Verifica la causa raíz que se muestra en el mensaje y toma las medidas necesarias.
CDF_SAP_01501 No se pudo encontrar la RFM SAP_RFM_NAME. Verifica que la solicitud de transporte adecuada se haya importado correctamente a SAP.
CDF_SAP_01406 Error while executing RFM SAP_RFM_NAME.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
Verifica que se hayan asignado las autorizaciones adecuadas al usuario de SAP.
CDF_SAP_01516 Table or View SAP_TABLE/VIEW_NAME could not be found. Asegúrate de que la tabla o vista exista y esté activa en SAP.
CDF_SAP_01517 SAP_TABLE/VIEW_NAME is not of type table or view. Asegúrate de que sea una tabla o vista válida, y no una estructura en SAP.
CDF_SAP_1532 Filter Options syntax is not valid. Verifica que se siga la sintaxis correcta de OpenSQL mientras se proporcionen condiciones de filtro.
CDF_SAP_1534 Data buffer in SAP exceeded while extracting records from table/view SAP_TABLE/VIEW_NAME. Disminuir el tamaño o la cantidad de divisiones del paquete Como alternativa, notifica al administrador de SAP para aumentar los recursos de memoria disponibles en el servidor de SAP.
CDF_SAP_1403 User is not authorized to access SAP_TABLE/VIEW_NAME table/view data in SAP. Verifica que se haya asignado la autorización de lectura adecuada en el nombre de la tabla o vista de SAP para el usuario de SAP.
CDF_SAP_1535 Query for the table/view AP_TABLE/VIEW_NAME failed to execute successfully. Verifica que se usen nombres de columna válidos en la condición del filtro.
CDF_SAP_01520 Failed to extract records #FROM_RECORD_INDEX to #TO_RECORD_INDEX, even after MAX_RETRY_COUNT retries. Error de comunicación con el servidor de SAP. Verifica la accesibilidad y la conectividad de red del servidor de SAP desde Cloud Data Fusion.

¿Qué sigue?