Fuente por lotes de Open Hub para SAP BW

En esta guía se describe cómo implementar, configurar y ejecutar canalizaciones de datos que usan el complemento de fuente por lotes de Open Hub para SAP BW. Puede usar SAP como fuente para la extracción de datos basada en lotes y en deltas en Cloud Data Fusion a través del servicio Open Hub para BW.

Este complemento habilita la integración de datos en bloque desde aplicaciones SAP con Cloud Data Fusion. Puede configurar y ejecutar transferencias de datos en bloque desde DataSources de SAP sin necesidad de escribir código.

Para ver las aplicaciones y los objetos de SAP admitidos para la extracción, consulta los detalles de la asistencia. Para obtener más información sobre cómo ejecutar SAP en Google Cloud, consulta la información general sobre SAP en Google Cloud.

Objetivos

  • Configura el sistema SAP BW.
  • Despliega el complemento en tu entorno de Cloud Data Fusion.
  • Descarga el transporte de SAP desde Cloud Data Fusion e instálalo en SAP.
  • Usa Cloud Data Fusion y la fuente por lotes de Open Hub para SAP BW para crear flujos de procesamiento de datos que integren datos de SAP.

Antes de empezar

Para usar este complemento, debes tener conocimientos sobre los siguientes temas:

  • Crear flujos de procesamiento en Cloud Data Fusion
  • Configurar sistemas SAP BW o BW4HANA

Funciones de usuario

Las tareas de esta página las realizan usuarios con los siguientes roles en Google Cloud o en su sistema SAP:

Tipo de usuario Descripción
Administrador de Google Cloud Los usuarios a los que se les asigna este rol son administradores de cuentas de Google Cloud.
Usuario de Cloud Data Fusion Los usuarios a los que se les asigna este rol pueden diseñar y ejecutar flujos de procesamiento de datos. Como mínimo, se les asigna el rol Lector de Data Fusion ( roles/datafusion.viewer). Si usas el control de acceso basado en roles, es posible que necesites roles adicionales.
Administrador de SAP Los usuarios a los que se les asigna este rol son administradores del sistema SAP. Tienen acceso para descargar software del sitio de servicios de SAP. No es un rol de gestión de identidades y accesos.
Usuario de SAP Los usuarios a los que se les asigna este rol tienen autorización para conectarse a un sistema SAP. No es un rol de gestión de identidades y accesos.

Requisitos previos de SAP BW

Necesita SAP HANA Studio para crear y editar procesos de transferencia de datos y cadenas de procesos.

Requisitos previos de Cloud Data Fusion

  • Se necesita una red de VPC para crear una instancia de Cloud Data Fusion.
  • Se necesita una instancia de Cloud Data Fusion con la versión 6.8.0 o posterior de cualquier edición.
  • Se deben conceder los roles obligatorios a la cuenta de servicio asignada a la instancia de Cloud Data Fusion. Para obtener más información, consulta Conceder permisos de usuario a una cuenta de servicio.
  • Debes usar una conexión de emparejamiento entre tu VPC y la red de VPC compartida de Google.

Configurar el sistema SAP BW

La fuente por lotes de Open Hub para SAP BW usa un módulo de función remota (RFM), que debe instalarse en cada servidor de SAP desde el que se extraigan datos. Este RFM se entrega como un transporte de SAP.

Para configurar tu sistema SAP, sigue estos pasos:

  1. El usuario de Cloud Data Fusion debe descargar el archivo ZIP que contiene el transporte de SAP y proporcionárselo al administrador de SAP. Para obtener más información, consulta el artículo sobre cómo configurar Cloud Data Fusion.
  2. El administrador de SAP debe importar el transporte de SAP al sistema SAP y verificar los objetos creados. Para obtener más información, consulta Instalar el transporte de SAP.
  3. Opcional: El usuario de SAP puede modificar los objetos de autorización estándar de SAP del rol /GOOG/BWOH_CDF_AUTH proporcionado en función de las políticas de seguridad de su organización.

Instalar los archivos de transporte de SAP

Para diseñar y ejecutar flujos de datos en Cloud Data Fusion, los componentes de SAP se proporcionan en archivos de transporte de SAP, que se archivan en un archivo ZIP. La descarga está disponible cuando despliega el complemento en el centro de Cloud Data Fusion.

Para instalar el transporte de SAP, sigue estos pasos:

Paso 1: Sube los archivos de solicitud de transporte

  1. Inicia sesión en el sistema operativo de la instancia de SAP.
  2. Usa el código de transacción de SAP AL11 para obtener la ruta de la carpeta DIR_TRANS. Normalmente, la ruta es /usr/sap/trans/.
  3. Copia los archivos de co en la carpeta DIR_TRANS/cofiles.
  4. Copia los archivos de datos en la carpeta DIR_TRANS/data.
  5. Define el usuario y el grupo de datos y el coarchivo como <sid>adm y sapsys.

Paso 2: Importa los archivos de solicitud de transporte

El administrador de SAP puede importar los archivos de solicitud de transporte mediante una de las siguientes opciones:

Opción 1: Importar los archivos de solicitud de transporte mediante el sistema de gestión de transporte de SAP
  1. Inicia sesión en el sistema SAP como administrador de SAP.
  2. Introduce el STMS de la transacción.
  3. Haga clic en Resumen > Importaciones.
  4. En la columna Cola, haz doble clic en el SID actual.
  5. Haz clic en Extras > Otras solicitudes > Añadir.
  6. Selecciona el ID de solicitud de transporte y haz clic en Continuar.
  7. Seleccione la solicitud de transporte en la cola de importación y, a continuación, haga clic en Solicitud > Importar.
  8. Introduce el número de cliente.
  9. En la pestaña Opciones, selecciona Sobrescribir originales e Ignorar versión de componente no válida.

    Opcional: Selecciona Dejar solicitudes de transporte en la cola para importarlas más adelante. De esta forma, las solicitudes se importarán de nuevo en el orden correcto en la siguiente importación de todas las solicitudes. Esta opción es útil si tienes que hacer importaciones preliminares para solicitudes individuales.

  10. Haz clic en Continuar.

  11. Verifica que el módulo de funciones y los roles de autorización se han importado correctamente mediante las transacciones adecuadas, como SE80 y PFCG.

Opción 2: Importar los archivos de solicitud de transporte a nivel del sistema operativo
  1. Inicia sesión en el sistema SAP como administrador de SAP.
  2. Añade las solicitudes adecuadas al búfer de importación:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Por ejemplo: tp addtobuffer BW1K900054 DD1

  3. Importa las solicitudes de transporte:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Sustituye NNN por el número de cliente. Por ejemplo:

    tp import BW1K900054 DD1 client=100 U1238
    
  4. Verifica que el módulo de funciones y los roles de autorización se han importado correctamente mediante las transacciones adecuadas, como SE80 y PFCG.

Autorizaciones de SAP necesarias

Para ejecutar un flujo de procesamiento de datos en Cloud Data Fusion, necesitas un usuario de SAP. El usuario de SAP debe ser de tipo Communications o Dialog. Para evitar usar recursos de diálogo de SAP, se recomienda el tipo Communications. El administrador de SAP puede crear usuarios con el código de transacción de SAP SU01.

Se necesitan autorizaciones de SAP para configurar el conector de SAP. Los objetos de autorización de SAP específicos del conector se envían como parte de la solicitud de transporte. Importa el transporte de rol de autorización tal como se describe en Instalar el transporte de SAP para incorporar el rol a tu sistema y generar el rol a partir del código de transacción PFCG.

En el caso de los objetos de autorización estándar de SAP, tu organización gestiona los permisos con su propio mecanismo de seguridad. Puedes mantener objetos de autorización en función de las políticas de seguridad de tu organización.

Crear una cadena de procesos (PC) y un proceso de transferencia de datos (DTP)

Para crear una cadena de procesos y un proceso de transferencia de datos, se necesitan algunas habilidades y conocimientos básicos adicionales.

Conceptos generales

Para crear o editar un PC y un DTP, usa SAP HANA Studio.

Habilidades necesarias

  • Has usado transformaciones para definir el flujo de datos entre el origen y el objeto de destino.
  • Tienes un buen dominio de los conceptos básicos de BW y HANA, como los objetos DataStore (DSO), las transformaciones de datos, los InfoCubes, la optimización de consultas, el modelado de HANA y las funciones de la base de datos de HANA con HANA Studio. Para obtener más información sobre estos conceptos, consulta los tutoriales de SAP sobre BW y HANA.

Tipo de extracción

Hay dos modos de extracción de datos para un proceso de transferencia de datos: completo y delta.

  • Completo: selecciona todos los datos disponibles en la fuente en función de las condiciones de filtro mencionadas en el DTP. Si la fuente de datos es uno de los siguientes InfoProviders, solo está disponible el modo de extracción completa:

    • InfoObjects
    • InfoSets
    • Objetos DataStore para la actualización directa
  • Delta: a diferencia de InfoPackage, la transferencia delta mediante un DTP no requiere una inicialización explícita. Cuando se ejecuta un DTP con el modo de extracción delta por primera vez, todas las solicitudes existentes hasta el momento de la extracción se recuperan de la fuente y, a continuación, se inicializa automáticamente el delta.

    Las siguientes opciones están disponibles para un DTP con el modo de extracción Delta:

    • Solo obtener delta una vez
    • Get All New Data Request By Request
    • Recuperar hasta que no haya más datos nuevos

Tamaño del paquete: es el número de registros de datos que hay en un paquete de datos concreto. El valor predeterminado es 50,000.

Crear una cadena de procesos

Para crear una cadena de procesos, usa la transacción RSPC en la interfaz gráfica de usuario de SAP. Define un proceso de inicio y, a continuación, añade los pasos del proceso y el DTP. Para obtener más información, consulta la documentación de SAP sobre creación de cadenas de procesos.

En HANA Studio hay varias opciones para monitorizar y administrar PCs. Para obtener más información, consulta Operaciones de cadenas de procesos de SAP BW/4HANA.

Crear un proceso de transferencia de datos mediante una cadena de procesos

Ve a la vista Planificación de la cadena de procesos que quieras usar para el proceso de transferencia de datos. En la vista Planificación, puedes crear el DTP con HANA Studio. Para obtener más información, consulta la documentación de SAP sobre cómo crear un proceso de transferencia de datos.

Para obtener más información sobre las opciones de configuración, consulta el artículo Todo sobre el proceso de transferencia de datos (DTP) – SAP BW 7.

Conexión RFC

Para notificar al sistema de retrollamada, como el complemento de fuente por lotes de Open Hub para SAP BW, que los datos están disponibles, la cadena de procesos debe actualizarse para usar un destino RFC:

  1. En SM59, crea una conexión RFC de tipo Conexiones TCP/IP para notificar al sistema de destino desde BW una vez que se haya completado la carga de datos en BI.

  2. Asegúrate de que el ID de programa esté configurado en la conexión RFC. Para ello, haz doble clic en la conexión RFC. El ID de programa debe ser único para cada destino RFC para evitar conflictos de escucha en tiempo de ejecución.

  3. Usa la conexión TCP/IP recién creada en la cadena de procesos para enviar una notificación cuando se complete un trabajo por lotes de Cloud Data Fusion. El nombre de la cadena de procesos no distingue entre mayúsculas y minúsculas. Debe especificarse correctamente en mayúsculas en el proceso de integración de extremo a extremo.

Mostrar los registros de las cadenas de procesos y los procesos de transferencia de datos

  1. Ve a la transacción RSPC y haz clic en Cadenas de procesos.

  2. Haz clic con el botón derecho en la cadena de procesos de la que quieras ver los registros y, a continuación, haz clic en Mostrar registros.

Configurar el clúster de Dataproc al usar Process Chain

Para habilitar la comunicación a través del servidor RFC, debe añadir las entradas del puerto de SAP Gateway en el archivo /etc/services de los nodos del clúster de Dataproc. Se recomienda usar un init action, la secuencia de comandos que se ejecutará cuando se inicialice el clúster. Para obtener más información, consulta Acciones de inicialización.

Crea un archivo de secuencia de comandos y guárdalo en un segmento de Cloud Storage. En el siguiente ejemplo se muestra el contenido del archivo de secuencia de comandos:

gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services

En el ejemplo anterior, ten en cuenta lo siguiente:

  • Las entradas tienen el formato sapgwxx 33xx/tcp, donde XX es el número de instancia de SAP.

  • Se añaden los puertos de las instancias de SAP 00 a 04.

Sigue estos pasos si usas un clúster de Dataproc efímero, un clúster persistente recién creado o un clúster persistente que ya tengas.

Clúster de Dataproc efímero

Si usas un clúster de Dataproc efímero, añade la ruta de la secuencia de comandos init a las propiedades del clúster:

  1. En el monitor de tareas, en la página de la canalización de Cloud Data Fusion, haga clic en Configurar.
  2. Selecciona el perfil de computación y haz clic en Personalizar.
  3. En Configuración avanzada, en el campo Acciones de inicialización, introduzca la ruta de acceso a la secuencia de comandos init.

Nuevo clúster de Dataproc persistente

Si usas un clúster de Dataproc persistente recién creado, usa la initsecuencia de comandos en el comando de gcloud para crear el clúster. Por ejemplo:

gcloud dataproc clusters create cluster-name \
  --region=${REGION} \
  --initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
  ... other flags ...

Clúster de Dataproc persistente

Si usas un clúster de Dataproc persistente, sigue estos pasos:

Si el clúster ya se ha creado sin usar la secuencia de comandos init, añade las entradas manualmente en los nodos maestro y de trabajo del clúster de Dataproc.

  1. Conéctate mediante SSH al nodo maestro y al nodo de clúster.
  2. Inicia sesión con el ID de usuario raíz.
  3. Ve a /etc/ y abre el archivo /etc/services en un editor VI.
  4. Añade la entrada sapgwxx 33xx/tcp. Sustituye xx por el número de tu instancia de SAP.
  5. Guarda el archivo /etc/services.

Configurar Cloud Data Fusion

Asegúrate de que la comunicación esté habilitada entre la instancia de Cloud Data Fusion y el servidor SAP. En el caso de las instancias privadas, configura el peerings de red. Una vez que se haya establecido el peering de red con el proyecto en el que se alojan los sistemas SAP, no se requiere ninguna configuración adicional para conectarse a su instancia de Cloud Data Fusion. Tanto el sistema SAP como la instancia de Cloud Data Fusion deben estar en el mismo proyecto.

Pasos para los usuarios de Cloud Data Fusion

  1. Ve a los detalles de la instancia:
    1. En la Google Cloud consola, ve a la página de Cloud Data Fusion.

    2. Haz clic en Instancias y, a continuación, en el nombre de la instancia para ir a la página Detalles de la instancia.

      Ir a Instancias

  2. Comprueba que la instancia se haya actualizado a la versión 6.8.0 o a una posterior. Si la instancia tiene una versión anterior, debes actualizarla.
  3. Abre la instancia. Cuando se abra la interfaz de usuario de Cloud Data Fusion, haz clic en Hub.
  4. Selecciona la pestaña SAP > SAP BW. Si no ves la pestaña SAP, consulta el artículo Solucionar problemas de integración de SAP.
  5. Haz clic en Desplegar el complemento SAP BW. El complemento aparece en el menú Fuente de la página de Studio.

Pasos para el administrador de SAP y el administrador de Google Cloud

El administrador de SAP descarga los siguientes artefactos de JCo del sitio de asistencia de SAP y se los proporciona al administrador de Google Cloud .

  • Una independiente de la plataforma (sapjco3.jar)
  • Una dependiente de la plataforma (libsapjco3.so en Unix)

Para descargar los archivos, sigue estos pasos:

  1. Ve a la página Conectores de SAP.
  2. Haz clic en SAP Java Connector/Herramientas y servicios. Puedes seleccionar enlaces específicos de la plataforma para la descarga.
  3. Selecciona la plataforma en la que se ejecuta tu instancia de Cloud Data Fusion:

    1. Si usas imágenes estándar Google Cloud para las VMs de tu clúster, que es la opción predeterminada de Cloud Data Fusion, selecciona Linux para procesadores compatibles con Intel de 64 bits x86.
    2. Si usas una imagen personalizada, selecciona la plataforma correspondiente.
  4. El administrador debe copiar los archivos JCo en un segmento de Cloud Storage de lectura. Google Cloud Proporciona la ruta del bucket al usuario de Cloud Data Fusion para que la introduzca en la propiedad del complemento correspondiente en Cloud Data Fusion: Ruta de GCS de la biblioteca JCo de SAP. Consulta Configurar el complemento.

  5. El Google Cloud administrador debe conceder acceso de lectura a los dos archivos a la cuenta de servicio de Cloud Data Fusion para el entorno de diseño y a la cuenta de servicio de Dataproc para el entorno de ejecución. Para obtener más información, consulta el artículo sobre las cuentas de servicio de Cloud Data Fusion.

Configurar el complemento

El complemento de origen por lotes de Open Hub para SAP BW lee el contenido de un origen de datos de SAP.

Para filtrar los registros, puede configurar las siguientes propiedades de la fuente por lotes de Open Hub para SAP BW.

Para definir los campos, se usan los siguientes indicadores:

  • (M): indica que se admiten macros en el campo correspondiente.
  • (O): campo opcional

Etiqueta: etiqueta del complemento en el lienzo.

Básico

En la siguiente lista de propiedades, (M) significa que la opción admite macros y que se pueden usar para gestionar de forma centralizada las conexiones SAP. Por ejemplo, puedes usar macros para las propiedades de conexión y definir los valores en tiempo de ejecución mediante parámetros de tiempo de ejecución o un complemento Argument Setter.

  • Nombre de referencia: nombre que se usa para identificar de forma única esta fuente para el linaje y para anotar metadatos.
  • Usar conexión (interruptor): indica si se debe usar una conexión existente (consulta Gestionar conexiones). Si decides usar una conexión ya creada, no tienes que proporcionar ningún detalle de conexión de SAP.

  • Conexión (explorar conexiones): elige la conexión que quieras usar. También puedes usar la función de macro ${conn(connection-name)}.

  • Cliente de SAP (M): el cliente de SAP que se va a usar. Por ejemplo, 100.

  • Idioma de SAP (M): idioma de inicio de sesión de SAP. Por ejemplo, EN.

  • Tipo de conexión: tipo de conexión SAP (directa o con balanceo de carga). No se admiten las conexiones con balanceo de carga para la extracción basada en cadenas de procesos. Para obtener más información, consulta Detalles de la asistencia.

    Al seleccionar un tipo de conexión, cambian los campos disponibles.

    En el caso de las conexiones directas, están disponibles los siguientes campos:

    • Host del servidor de aplicaciones SAP (M): nombre o dirección IP del servidor SAP.
    • Número de sistema SAP (M): número del sistema SAP. Por ejemplo, 00.
    • SAP Router (M, O): la cadena del router.

    En una conexión con balanceo de carga, están disponibles los siguientes campos:

    • Host del servidor de mensajes de SAP (M): nombre de host o dirección IP del servidor de mensajes de SAP.
    • Número de puerto o servicio del servidor de mensajes de SAP (M): el número de puerto o el servicio del servidor de mensajes de SAP. Por ejemplo, sapms02.
    • ID de sistema SAP (SID) (obligatorio): el ID de sistema SAP. Por ejemplo, N75.
    • Nombre del grupo de inicio de sesión de SAP (obligatorio): nombre del grupo de inicio de sesión de SAP. Por ejemplo, PUBLIC.
  • Usar cadena de procesos (M): este campo contiene dos opciones.

    Si habilitas Cadena de procesos con la opción , se habilitarán las siguientes propiedades:

    • Resolver automáticamente los errores de PC y DTP: controla el comportamiento cuando se identifica una ejecución que ha fallado anteriormente. Si está inhabilitado, el complemento falla en la pipeline con los errores pertinentes. Cuando está habilitado (valor predeterminado), el complemento comprueba el estado de la cadena de procesos y del proceso de transferencia de datos en SAP. Si se identifica alguno de los siguientes errores, el complemento intentará resolverlo automáticamente:

    • Data Transfer Process in error state: el complemento elimina la solicitud anterior

    • Cadena de procesos en estado Rojo con error previous request status has not been set: El complemento elimina la solicitud de bloqueo después de obtener el ID de solicitud del registro de la cadena de procesos y, a continuación, intenta ejecutar la cadena de procesos.

    • Tiempo de espera de la notificación de estado de la cadena de procesos (en minutos) (M, O): espera el tiempo indicado, en minutos, para que la cadena de procesos complete la fase de preparación de los datos y notifique a la canalización que inicie la extracción. Si especificas 0 o lo dejas en blanco, el valor será de 10 minutos, que es el valor predeterminado.

    • Cadena de procesos (M): nombre de la cadena de procesos de SAP. Por ejemplo, PC_RFC.

    Si inhabilitas Cadena de procesos con la opción No, se habilitarán las siguientes propiedades:

    • Abrir destino de Hub (M): nombre del destino de Hub que se va a leer.
    • ID de solicitud (M,O): ID de solicitud del proceso de transferencia de datos que ya se ha ejecutado.

Credenciales

  • Nombre de usuario de inicio de sesión de SAP (obligatorio): nombre de usuario de SAP. Recomendación: Si el nombre de usuario de inicio de sesión de SAP cambia periódicamente, utilice una macro.
  • Contraseña de inicio de sesión de SAP (M): contraseña de usuario de SAP. Recomendación: Para valores sensibles, como Contraseña de usuario, usa macros seguras.

Detalles de SAP JCo

  • ID de proyecto de GCP (obligatorio): el ID del proyecto, que identifica de forma única un proyecto. Google Cloud Puedes encontrarlo en el panel de control de laGoogle Cloud consola.
  • Ruta de GCS de la biblioteca SAP JCo (obligatorio): la ruta de Cloud Storage que contiene los archivos de la biblioteca SAP JCo que ha subido el usuario.
  • Obtener esquema: haz clic en esta opción si quieres que el complemento genere un esquema basado en los metadatos de SAP, con la asignación automática de los tipos de datos de SAP a los tipos de datos de Cloud Data Fusion correspondientes. Esta función es la misma que la del botón Validar.

Para obtener más información sobre los certificados de cliente, consulta Using X.509 Client Certificates on SAP NetWeaver Application Server for ABAP (en inglés).

Avanzado

  • Número de divisiones que se van a generar (M, O): el número de divisiones se usa para particionar los datos de entrada. Cuantas más particiones haya, mayor será el nivel de paralelismo, pero se necesitarán más recursos y sobrecarga. En el caso de un sistema local de SAP, si el valor no se especifica en la interfaz de usuario, las divisiones serán el 50% de los procesos de trabajo de diálogo disponibles en SAP. De lo contrario, las divisiones se optimizan entre lo especificado por el usuario y el 50% de los procesos de trabajo disponibles.

    Recomendación: Deje la propiedad en blanco, a menos que esté familiarizado con los ajustes de su sistema SAP.

  • Propiedades de conexión SAP adicionales (M, O): define propiedades de SAP JCo adicionales que anulan los valores predeterminados de SAP JCo. Por ejemplo, si se define jco.destination.pool_capacity = 10, se anula la capacidad predeterminada del grupo de conexiones.

    En la siguiente tabla se indican las propiedades de SAP JCo admitidas:

Propiedad Descripción
jco.destination.peak_limit Número máximo de conexiones activas que se pueden crear para un destino simultáneamente.
jco.destination.pool_capacity Número máximo de conexiones inactivas que mantiene abierto el destino. Un valor de 0 implica que no hay agrupación de conexiones, es decir, las conexiones se cerrarán después de cada solicitud.
jco.destination.expiration_time Tiempo en ms tras el cual se pueden cerrar las conexiones mantenidas por el grupo interno.
jco.destination.expiration_check_period Intervalo en ms con el que el subproceso de comprobación de tiempo de espera comprueba si las conexiones del grupo han caducado.
jco.destination.max_get_client_time Tiempo máximo en ms que se espera una conexión si la aplicación asigna el número máximo de conexiones permitidas.

Comportamiento de los modos de extracción de datos

El modo de extracción de datos se controla mediante la configuración del proceso de transferencia de datos. El comportamiento es diferente si se usa una cadena de procesos o un destino Open Hub.

Al usar una cadena de procesos

Los ajustes a nivel de proceso de transferencia de datos controlan si se realiza una carga completa o incremental. El ID de solicitud llega como una notificación de SAP al complemento. El complemento lee los datos de paquetes asociados a este ID de solicitud único.

Cuando se usa Open Hub Destination sin ID de solicitud

Carga completa: al ejecutar la canalización por primera vez, se obtienen todos los IDs de solicitud disponibles en la tabla Open Hub. El complemento lee los datos de los paquetes asociados a estos IDs de solicitud.

Carga incremental: si vuelves a ejecutar la misma canalización, se obtendrán todos los IDs de solicitud incrementales disponibles después del último ID de solicitud obtenido. El complemento lee los datos de los paquetes asociados a estos IDs de solicitud.

Cuando se usa Open Hub Destination con un ID de solicitud

Carga completa: al ejecutar el flujo de procesamiento por primera vez, se obtienen todos los IDs de solicitud disponibles que sean superiores al ID de solicitud especificado. El complemento lee los datos de los paquetes asociados a estos IDs de solicitud.

Carga incremental: si vuelves a ejecutar la misma canalización, se obtendrán todos los IDs de solicitud delta disponibles después del último ID de solicitud obtenido. El complemento lee los datos de paquetes asociados a estos IDs de solicitud.

Asignación de tipos de datos

En la siguiente tabla se muestra la asignación entre los tipos de datos que se usan en SAP BW y Cloud Data Fusion.

Tipo de datos de BW Tipo ABAP Descripción (SAP) Tipo de datos de Cloud Data Fusion
Numérico
INT1 b Entero de 1 byte integer
INT2 s Entero de 2 bytes integer
INT4 i Entero de 4 bytes integer
INT8 8 Entero de 8 bytes long
DIC p Número empaquetado en formato BCD (DEC) decimal
DF16_DEC
DF16_RAW
a Punto flotante decimal de 8 bytes IEEE 754r decimal
DF34_DEC
DF34_RAW
e Punto flotante decimal de 16 bytes IEEE 754r decimal
FLTP f Número de punto flotante binario. double
Carácter
CHAR
LCHR
c Cadena de caracteres string
SSTRING
GEOM_EWKB
string Cadena de caracteres string
STRING string CLOB de cadena de caracteres bytes
NUMC
ACCP
n Texto numérico string
Byte
RAW
LRAW
x Datos binarios bytes
RAWSTRING xstring BLOB de cadena de bytes bytes
Fecha y hora
DATS d Fecha date
TIMS t Hora time
TIMESTAMP utcl Marca de tiempo
Utclong
timestamp

Validación

Haga clic en Validar o en Obtener el esquema.

El complemento valida las propiedades y genera un esquema basado en los metadatos de SAP. Asigna automáticamente los tipos de datos de SAP a los tipos de datos de Cloud Data Fusion correspondientes.

Ejecutar un flujo de datos

  1. Después de implementar la canalización, haz clic en Configurar.
  2. Selecciona Recursos.
  3. Si es necesario, cambia la CPU del ejecutor y la memoria en función del tamaño total de los datos y del número de transformaciones que se usen en la canalización.
  4. Haz clic en Guardar.
  5. Para iniciar la canalización de datos, haga clic en Ejecutar.

Optimización del rendimiento

Configuración del complemento de Optimize

Usa las siguientes propiedades para obtener un rendimiento óptimo al ejecutar la canalización:

  • Número de divisiones que se van a generar en las propiedades del complemento de Cloud Data Fusion: controla directamente el paralelismo en Cloud Data Fusion. El motor de tiempo de ejecución crea el número especificado de particiones y conexiones SAP al extraer los registros de la tabla. Se recomiendan valores entre 8 y 16, pero puedes aumentar hasta 32 o 64 con la configuración adecuada en SAP, asignando los recursos de memoria apropiados a los procesos de trabajo en SAP.

    Si el valor es 0 o se deja en blanco (opción recomendada), el sistema elige automáticamente un valor adecuado en función del número de procesos de trabajo de SAP disponibles, los registros que se van a extraer y el tamaño del paquete.

  • Tamaño del paquete en las propiedades del proceso de transferencia de datos de BW: controla el número de registros de datos presentes en un paquete de datos individual. El valor predeterminado es 50,000. Si aumentas este valor, el rendimiento podría mejorar, pero la carga de recursos sería mayor. Si ya estás usando valores más altos, redúcelo para permitir una mejor paralelización de la extracción.

Configuración de recursos de Cloud Data Fusion

Recomendación: Usa 1 CPU y 4 GB de memoria por ejecutor. Este valor se aplica a cada proceso de ejecutor. Defina estos valores en el cuadro de diálogo Configurar > Recursos.

Configuración de clústeres de Dataproc

Recomendación: Asigna un número total de CPUs a los trabajadores que sea superior al número de divisiones que quieras hacer. Consulta Configuración de complementos.

Por ejemplo, si tienes 16 divisiones, define 20 o más CPUs en total en todos los trabajadores. Se usan 4 CPUs para la coordinación.

Recomendación: Usa un clúster de Dataproc persistente para reducir el tiempo de ejecución del flujo de datos. De esta forma, se elimina el paso de aprovisionamiento, que puede tardar unos minutos o más. Para ello, ve a la sección de configuración de Compute Engine.

Información de asistencia

Productos y versiones de SAP compatibles

Fuentes admitidas:

  • SAP NW BW 7.5 y versiones posteriores
  • SAP BW4HANA 2.0 SP9 (para incluir la API de destino de Open Hub; las versiones anteriores de BW4HANA no admiten la API de destino de Open Hub)

Compatibilidad con la conexión de SAP con balanceo de carga (servidor de mensajes)

La conexión de SAP con balanceo de carga (servidor de mensajes) se admite en la extracción basada en el destino de Open Hub, donde no se usa un servidor RFC.

No se admite la conexión de SAP con equilibrio de carga (servidor de mensajes) para la extracción basada en cadenas de procesos. Esto se debe a una limitación de SAP al proporcionar notificaciones data ready al sistema cliente, lo que requiere registrar el servidor RFC (listener de complementos) en cada servidor SAP del entorno de BW, lo que aumenta el tamaño del conector y puede afectar al rendimiento de SAP y al uso de recursos. Para obtener más información, consulta la nota de SAP 2572564 (se requiere iniciar sesión en el sitio de asistencia de SAP para verla).

Modelos de despliegue de SAP admitidos

El complemento se ha probado con servidores SAP implementados en Google Cloud.

Objetos de SAP admitidos

Fuentes de datos de Open Hub Destination: InfoProviders (InfoObjeto, InfoCubo, Objeto DataStore, Objeto DataStore avanzado y CompositeProvider)

Cadenas de procesos para ejecutar automáticamente el proceso de transferencia de datos en el destino de Open Hub.

Licencia independiente para usar Oracle HTTP Server y extraer datos de SAP

No necesitas una licencia independiente para usar Oracle HTTP Server (OHS) para extraer datos de SAP. Sin embargo, consulta con tu representante de SAP el acuerdo específico y el caso práctico.

Rendimiento esperado del complemento

En un entorno configurado según las directrices de Optimizar el rendimiento, el complemento puede extraer unos 38 GB por hora. El rendimiento real puede variar en función de la carga del sistema de Cloud Data Fusion y SAP, o del tráfico de red.

Siguientes pasos