Fuente de lotes de SAP BW Open Hub

En esta guía, se describe cómo implementar, configurar y ejecutar canalizaciones de datos que usan el complemento de fuente de lotes de SAP BW Open Hub. Puedes usar SAP como fuente para la extracción de datos por lotes y en el delta en Cloud Data Fusion a través del servicio de BW Open Hub.

Este complemento permite la integración masiva de datos desde aplicaciones de SAP con Cloud Data Fusion. Puedes configurar y ejecutar transferencias de datos masivas desde DataSources de SAP sin programación.

Para conocer las aplicaciones y los objetos de SAP admitidos para la extracción, consulta Detalles de la asistencia. Para obtener más información sobre cómo ejecutar SAP en Google Cloud, consulta Descripción general de SAP en Google Cloud.

Objetivos

  • Configura el sistema SAP BW.
  • Implementa el complemento en tu entorno de Cloud Data Fusion.
  • Descarga el transporte de SAP desde Cloud Data Fusion y, luego, instálalo en SAP.
  • Usa Cloud Data Fusion y la fuente de lotes de SAP BW Open Hub para crear canalizaciones de datos que permitan integrar datos de SAP.

Antes de comenzar

Para usar este complemento, necesitas conocimientos de dominio en las siguientes áreas:

Funciones de usuario

Las tareas de esta página las realizan personas con los siguientes roles en Google Cloud o en su sistema SAP:

Tipo de usuario Descripción
Administrador de Google Cloud Los usuarios con este rol son administradores de cuentas de Google Cloud.
Usuario de Cloud Data Fusion Los usuarios a los que se les asignó este rol están autorizados para diseñar y ejecutar canalizaciones de datos. Se les otorga, como mínimo, el rol de Visualizador de Data Fusion ( roles/datafusion.viewer). Si usas el control de acceso basado en roles, es posible que necesites roles adicionales.
Administrador de SAP Los usuarios con este rol son administradores del sistema SAP. Tiene acceso para descargar software desde el sitio del servicio de SAP. No es un rol de IAM.
Usuario de SAP Los usuarios con este rol están autorizados a conectarse a un sistema SAP. No es un rol de IAM.

Requisitos previos para SAP BW

Necesitas SAP HANA Studio para crear y editar procesos de transferencia de datos y cadenas de procesos.

Requisitos previos para Cloud Data Fusion

  • Se requiere una red de VPC para crear instancias de Cloud Data Fusion.
  • Se requiere una instancia de Cloud Data Fusion, versión 6.8.0 o posterior, de cualquier edición.
  • Se deben otorgar los roles requeridos a la cuenta de servicio asignada a la instancia de Cloud Data Fusion. Para obtener más información, consulta Otorga permiso de usuario de cuenta de servicio.
  • Debes usar una conexión de intercambio de tráfico entre tu VPC y la red de VPC compartida de Google.

Configura el sistema SAP BW

La fuente de lotes de SAP BW Open Hub usa un módulo de función remota (RFM), que se debe instalar en cada servidor de SAP desde el que se extraen los datos. Este RFM se entrega como un transporte de SAP.

Para configurar tu sistema SAP, sigue estos pasos:

  1. El usuario de Cloud Data Fusion debe descargar el archivo ZIP que contiene el transporte de SAP y proporcionarlo al administrador de SAP. Para obtener más información, consulta Configura Cloud Data Fusion.
  2. El administrador de SAP debe importar el transporte SAP al sistema SAP y verificar los objetos creados. Para obtener más información, consulta Cómo instalar el transporte de SAP.
  3. Opcional: El usuario de SAP puede modificar los objetos de autorización estándar de SAP del rol entregado /GOOG/BWOH_CDF_AUTH según las políticas de seguridad de su organización.

Instala los archivos de transporte de SAP

Para diseñar y ejecutar canalizaciones de datos en Cloud Data Fusion, los componentes de SAP se entregan en archivos de transporte de SAP, que se archivan en un archivo ZIP. La descarga estará disponible cuando implementes el complemento en el Centro de noticias de Cloud Data Fusion.

Para instalar el transporte de SAP, sigue estos pasos:

Paso 1: Sube los archivos de solicitud de transporte

  1. Accede al sistema operativo de la instancia de SAP.
  2. Usa el código de transacción AL11 de SAP para obtener la ruta de acceso de la carpeta DIR_TRANS. Por lo general, la ruta es /usr/sap/trans/.
  3. Copia los coarchivos a la carpeta DIR_TRANS/cofiles.
  4. Copia los archivos de datos a la carpeta DIR_TRANS/data.
  5. Establece el usuario y el grupo de datos y el archivo compartido en <sid>adm y sapsys.

Paso 2: Importa los archivos de solicitud de transporte

El administrador de SAP puede importar los archivos de solicitud de transporte con una de las siguientes opciones:

Opción 1: Importar los archivos de solicitud de transporte con el sistema de administración de transporte de SAP
  1. Accede al sistema SAP como administrador de SAP.
  2. Ingresa el STMS de la transacción.
  3. Haz clic en Descripción general > Importaciones.
  4. En la columna Cola, haz doble clic en el SID actual.
  5. Haz clic en Adicionales > Otras solicitudes > Agregar.
  6. Selecciona el ID de la solicitud de transporte y haz clic en Continuar.
  7. Selecciona la solicitud de transporte en la cola de importación y, luego, haz clic en Solicitud > Importar.
  8. Ingresa el número de cliente.
  9. En la pestaña Opciones, selecciona Reemplazar originales y Ignorar versión de componente no válida.

    Opcional: Selecciona Dejar las solicitudes de transporte en la cola para importarlas más adelante. Esto hace que las solicitudes se vuelvan a importar en el orden correcto con la próxima importación de todas las solicitudes. Esta opción es útil si tienes que realizar importaciones preliminares para solicitudes individuales.

  10. Haz clic en Continuar.

  11. Verifica que el módulo de función y los roles de autorización se hayan importado de forma correcta mediante las transacciones adecuadas, como SE80 y PFCG.

Opción 2: Importa los archivos de solicitud de transporte a nivel del sistema operativo
  1. Accede al sistema SAP como administrador de SAP.
  2. Agrega las solicitudes adecuadas al búfer de importación:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Por ejemplo: tp addtobuffer BW1K900054 DD1

  3. Importa las solicitudes de transporte:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Reemplaza NNN por el número de cliente. Por ejemplo:

    tp import BW1K900054 DD1 client=100 U1238
    
  4. Verifica que el módulo de función y los roles de autorización se hayan importado de forma correcta mediante las transacciones adecuadas, como SE80 y PFCG.

Autorizaciones necesarias de SAP

Para ejecutar una canalización de datos en Cloud Data Fusion, necesitas un usuario de SAP. El usuario de SAP debe ser de los tipos Communications o Dialog. Para evitar usar recursos de diálogo de SAP, se recomienda el tipo Communications. El administrador de SAP puede crear usuarios con el código de transacción SU01 de SAP.

Se requieren autorizaciones de SAP para configurar el conector para SAP. Los objetos de autorización de SAP específicos del conector se envían como parte de la solicitud de transporte. Importa el transporte de roles de autorización como se describe en Cómo instalar el transporte de SAP para incorporar el rol a tu sistema y generarlo a partir del código de transacción PFCG.

En el caso de los objetos de autorización estándar de SAP, tu organización administra los permisos con su propio mecanismo de seguridad. Puedes mantener objetos de autorización según las políticas de seguridad de tu organización.

Crea una cadena de procesos (PC) y un proceso de transferencia de datos (DTP)

Crear una cadena de procesos y un proceso de transferencia de datos requiere algunas habilidades y conocimientos previos adicionales.

Conceptos de fondo

Para crear o editar un PC y DTP, usa SAP HANA Studio.

Habilidades previas

  • Usaste transformaciones para definir el flujo de datos entre la fuente y el objeto de destino.
  • Conoces bien los conceptos básicos de BW y HANA, como los objetos de Datastore (DSO), las transformaciones de datos, los InfoCubes, la optimización de consultas, el modelado de HANA y las funciones de la base de datos de HANA con HANA Studio. Para obtener más información sobre estos conceptos, consulta los instructivos de SAP sobre BW y HANA.

Tipo de extracción

Existen dos modos de extracción de datos para un proceso de transferencia de datos: completo y delta.

  • Completa: Selecciona todos los datos disponibles en la fuente según las condiciones de filtro que se mencionan en el DTP. Si la fuente de datos es uno de los siguientes InfoProviders, solo estará disponible el modo de extracción completa:

    • InfoObjects
    • InfoSets
    • Objetos de DataStore para la actualización directa
  • Delta: A diferencia de InfoPackage, la transferencia Delta con un DTP no requiere una inicialización explícita. Cuando se ejecuta un DTP con el modo de extracción de delta por primera vez, se recuperan de la fuente todas las solicitudes existentes hasta el momento de la extracción y, luego, se inicializa delta automáticamente.

    Las siguientes opciones están disponibles para un DTP con el modo de extracción Delta:

    • Cómo obtener delta solo una vez
    • Obtén todas las solicitudes de datos nuevas por solicitud
    • Cómo recuperar datos hasta que no haya más datos nuevos

Tamaño del paquete: Es la cantidad de registros de datos presentes en un paquete de datos individual. El valor predeterminado es 50,000.

Crea una cadena de procesos

Para crear una cadena de procesos (PC), usa la transacción RSPC en la GUI de SAP. Define un proceso de inicio y, luego, agrega los pasos del proceso y el DTP. Para obtener más información, consulta la documentación de SAP sobre cómo crear cadenas de procesos.

En HANA Studio, hay varias opciones disponibles para supervisar y administrar PCs. Para obtener más información, consulta Operaciones de cadena de procesos de SAP BW/4HANA.

Crea un proceso de transferencia de datos con una cadena de procesos

Ve a la vista Planificación de la cadena de procesos que deseas usar para el proceso de transferencia de datos. En la vista Planning, puedes crear el DTP con HANA Studio. Para obtener más información, consulta la documentación de SAP sobre cómo crear un proceso de transferencia de datos.

Para obtener más información sobre las opciones de configuración, consulta Todo sobre el proceso de transferencia de datos (DTP) – SAP BW 7.

Conexión de RFC

Para notificar al sistema de devolución de llamada, como el complemento de la fuente de lotes de SAP BW Open Hub, que los datos están disponibles, se debe actualizar la cadena de procesos para usar un destino de RFC:

  1. En SM59, crea una conexión de RFC del tipo Conexiones TCP/IP para notificar al sistema de destino desde BW una vez que se complete la carga de datos en BI.

  2. Haz doble clic en la conexión RFC para asegurarte de que el ID de programa esté configurado en ella. El ID de programa debe ser único para cada destino de RFC para evitar conflictos de objetos de escucha del entorno de ejecución.

  3. Usa la conexión TCP/IP recién creada en la cadena de procesos para enviar una notificación para que se complete una tarea por lotes de Cloud Data Fusion. El nombre de la cadena de procesos no distingue mayúsculas de minúsculas. Se debe especificar correctamente en letras mayúsculas en el proceso de integración de extremo a extremo.

Cómo mostrar los registros de las cadenas de procesos y los procesos de transferencia de datos

  1. Ve al código T : RSPC y haz clic en Process Chains.

  2. Haz clic con el botón derecho en la cadena de procesos para la que deseas mostrar los registros y haz clic en Mostrar registros.

Configura el clúster de Dataproc cuando uses la cadena de procesos

Para habilitar la comunicación a través del servidor de RFC, debes agregar las entradas de puerto de SAP Gateway en el archivo /etc/services en los nodos del clúster de Dataproc. Se recomienda usar un init action, que es la secuencia de comandos que se ejecutará cuando se inicialice el clúster. Para obtener más información, consulta Acciones de inicialización.

Crea un archivo de secuencia de comandos y guárdalo en un bucket de Cloud Storage. En el siguiente ejemplo, se muestra el contenido del archivo de secuencia de comandos:

gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services

En el ejemplo anterior, ten en cuenta lo siguiente:

  • Las entradas tienen el formato sapgwxx 33xx/tcp, en el que XX es el número de instancia de SAP.

  • Se agregan los puertos de las instancias de SAP 00 a 04.

Realiza los siguientes pasos si usas un clúster de Dataproc efímero, uno persistente recién creado o uno existente.

Clúster efímero de Dataproc

Si usas un clúster efímero de Dataproc, agrega la ruta de acceso de la secuencia de comandos init a las propiedades del clúster:

  1. En el monitor de trabajos, en la página de la canalización de Cloud Data Fusion, haz clic en Configurar.
  2. Selecciona el perfil de procesamiento y haz clic en Personalizar.
  3. En Configuración avanzada, en el campo Acciones de inicialización, ingresa la ruta de acceso a la secuencia de comandos init.

Nuevo clúster persistente de Dataproc

Si usas un clúster de Dataproc persistente recién creado, usa la secuencia de comandos init en el comando gcloud para crearlo. Por ejemplo:

gcloud dataproc clusters create cluster-name \
  --region=${REGION} \
  --initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
  ... other flags ...

Clúster persistente de Dataproc existente

Si usas un clúster de Dataproc persistente existente, sigue estos pasos:

Si el clúster ya se creó sin usar la secuencia de comandos init, agrega las entradas de forma manual en los nodos principal y trabajador del clúster de Dataproc.

  1. Establece una conexión SSH al nodo principal y al del clúster.
  2. Accede al ID de usuario raíz.
  3. Navega a /etc/ y abre el archivo /etc/services en un editor VI.
  4. Agrega la entrada sapgwxx 33xx/tcp. Reemplaza xx por el número de instancia de SAP.
  5. Guarda el archivo /etc/services.

Configura Cloud Data Fusion

Asegúrate de que la comunicación esté habilitada entre la instancia de Cloud Data Fusion y el servidor de SAP. Para las instancias privadas, configura el intercambio de tráfico de red. Una vez que se establece el aprovisionamiento de red con el proyecto en el que se alojan los sistemas de SAP, no se requiere ninguna configuración adicional para conectarse a tu instancia de Cloud Data Fusion. Tanto el sistema SAP como la instancia de Cloud Data Fusion deben estar dentro del mismo proyecto.

Pasos para los usuarios de Cloud Data Fusion

  1. Ve a los detalles de la instancia:
    1. En la consola de Google Cloud, ve a la página de Cloud Data Fusion.

    2. Haz clic en Instancias y, luego, en el nombre de la instancia para ir a la página Detalles de la instancia.

      Ir a Instancias

  2. Verifica que la instancia se haya actualizado a la versión 6.8.0 o una posterior. Si la instancia está en una versión anterior, debes actualizarla.
  3. Abre la instancia. Cuando se abra la IU de Cloud Data Fusion, haz clic en Centro de noticias.
  4. Selecciona la pestaña SAP > SAP BW. Si no ves la pestaña SAP, consulta Solución de problemas de las integraciones de SAP.
  5. Haz clic en Implementar complemento de SAP BW. El complemento aparecerá en el menú Source de la página de Studio.

Pasos para el administrador de SAP y el Google Cloud administrador

El administrador de SAP descarga los siguientes artefactos de JCo del sitio de asistencia de SAP y los entrega al administrador de Google Cloud .

  • Uno independiente de la plataforma (sapjco3.jar)
  • Uno dependiente de la plataforma (libsapjco3.so en Unix)

Para descargar los archivos, sigue estos pasos:

  1. Ve a la página Conectores de SAP.
  2. Haz clic en Conector Java de SAP/Herramientas y servicios. Puedes seleccionar vínculos específicos de cada plataforma para la descarga.
  3. Selecciona la plataforma en la que se ejecuta tu instancia de Cloud Data Fusion:

    1. Si usas imágenes Google Cloud estándar para las VMs de tu clúster, que es la opción predeterminada de Cloud Data Fusion, selecciona Linux para procesadores Intel compatibles de 64 bits x86.
    2. Si usas una imagen personalizada, selecciona la plataforma correspondiente.
  4. El Google Cloud administrador debe copiar los archivos JCo en un bucket de Cloud Storage que se pueda leer. Proporciona la ruta de acceso del bucket al usuario de Cloud Data Fusion para que la ingrese en la propiedad del complemento correspondiente en Cloud Data Fusion: Ruta de acceso de GCS de la biblioteca de SAP JCo. Consulta Configura el complemento.

  5. El Google Cloud administrador debe otorgar acceso de lectura a los dos archivos a la cuenta de servicio de Cloud Data Fusion para el entorno de diseño y a la cuenta de servicio de Dataproc para el entorno de ejecución. Para obtener más información, consulta Cuentas de servicio de Cloud Data Fusion.

Configura el complemento

El complemento de fuente de lotes de SAP BW Open Hub lee el contenido de una fuente de datos de SAP.

Para filtrar los registros, puedes configurar las siguientes propiedades para la fuente de lotes de SAP BW Open Hub.

Los siguientes indicadores se usan para definir los campos:

  • (M): Indica que las macros son compatibles con el campo correspondiente.
  • (O): Campo opcional

Etiqueta: Etiqueta del complemento en el lienzo.

Básico

En la siguiente lista de propiedades, (M) significa que la opción admite macros y se pueden usar para administrar de forma centralizada las conexiones de SAP. Por ejemplo, puedes usar macros para las propiedades de conexión y establecer los valores en el entorno de ejecución con parámetros de entorno de ejecución o un complemento de Argument Setter.

  • Nombre de referencia: Es el nombre que se usa para identificar de forma única esta fuente para el linaje y anotar los metadatos.
  • Usar conexión (botón de activación de encendido/apagado): Se usa una conexión existente (consulta Administra conexiones). Si decides usar una conexión existente, no tienes que proporcionar detalles de conexión de SAP.

  • Conexión (Explorar conexiones): Elige la conexión existente que deseas usar. También puedes usar la función de macro ${conn(connection-name)}.

  • Cliente de SAP (M): Es el cliente de SAP que se usará. Por ejemplo, 100

  • Lenguaje de SAP (M): Es el lenguaje de inicio de sesión de SAP. Por ejemplo, EN

  • Tipo de conexión: Es el tipo de conexión de SAP, ya sea directa o con balanceo de cargas. Las conexiones con balanceo de cargas no son compatibles con la extracción basada en cadenas de procesos. Para obtener más información, consulta Detalles de la asistencia.

    Si seleccionas un tipo de conexión, se cambiarán los campos disponibles.

    Para una conexión directa, están disponibles los siguientes campos:

    • Host del servidor de aplicaciones de SAP (M): Es la dirección IP o el nombre del servidor de SAP.
    • Número de sistema SAP (M): Es el número de sistema SAP. Por ejemplo, 00
    • Router SAP (M, O): Es la cadena del router.

    Para una conexión con balanceo de cargas, están disponibles los siguientes campos:

    • Host del servidor de mensajes de SAP (M): Es la dirección IP o el nombre de host del mensaje de SAP.
    • Número de puerto o servicio del servidor de mensajes de SAP (M): Es el número de puerto o servicio del servidor de mensajes de SAP. Por ejemplo, sapms02
    • ID del sistema SAP (SID) (M): Es el ID del sistema SAP. Por ejemplo, N75
    • Nombre del grupo de inicio de sesión de SAP (M): Es el nombre del grupo de inicio de sesión de SAP. Por ejemplo, PUBLIC
  • Use Process Chain (M): Este campo contiene dos opciones.

    Si habilitas la cadena de procesos con la opción , se habilitan las siguientes propiedades:

    • Automatically Resolve PC and DTP Errors: Controla el comportamiento cuando se identifica una ejecución que falló anteriormente. Cuando se inhabilita, el complemento falla en la canalización con errores relevantes. Cuando está habilitado (configuración predeterminada), el complemento verifica la cadena de procesos y el estado del proceso de transferencia de datos en SAP. Si se identifica alguno de los siguientes errores, el complemento intentará resolverlos automáticamente:

    • Data Transfer Process in error state: El complemento borra la solicitud anterior.

    • Cadena de procesos en estado rojo con error previous request status has not been set: El complemento borra la solicitud de bloqueo después de obtener el ID de solicitud del registro de la cadena de procesos y, luego, intenta ejecutar la PC.

    • Tiempo de espera de la notificación de estado de la cadena de procesos (en minutos) (M, O): Espera el tiempo determinado, en minutos, para que la cadena de procesos complete la etapa de preparación de datos y notifique a la canalización que inicie la extracción. Si especificas 0 o lo dejas en blanco, el valor se toma como 10 minutos, que es el valor predeterminado.

    • Cadena de procesos (M): Es el nombre de la cadena de procesos de SAP. Por ejemplo, PC_RFC

    Si inhabilitas la cadena de procesos con la opción No, se habilitarán las siguientes propiedades:

    • Open Hub Destination (M): Es el nombre del destino de Open Hub que se debe leer.
    • ID de solicitud (M,O): Es el ID de solicitud del proceso de transferencia de datos que ya se ejecutó.

Credenciales

  • Nombre de usuario de inicio de sesión de SAP (M): Es el nombre de usuario de SAP. Recomendación: Si el nombre de usuario de inicio de sesión de SAP cambia de forma periódica, usa una macro.
  • Contraseña de inicio de sesión de SAP (M): Contraseña de usuario de SAP. Recomendación: Para valores sensibles, como la Contraseña de usuario, usa macros seguras.

Detalles de SAP JCo

  • ID del proyecto de GCP (M): El Google Cloud ID del proyecto, que identifica de forma única un proyecto. Puedes encontrarlo en el panel de la consola de Google Cloud.
  • Ruta de acceso de GCS de la biblioteca de SAP JCo (M): Es la ruta de acceso de Cloud Storage que contiene los archivos de la biblioteca de SAP JCo subidos por el usuario.
  • Obtener esquema: Haz clic en esta opción si deseas que el complemento genere un esquema basado en los metadatos de SAP, con asignación automática de tipos de datos de SAP a los tipos de datos de Cloud Data Fusion correspondientes. Su funcionalidad es la misma que la del botón Validar.

Para obtener más información sobre los certificados de cliente, consulta Cómo usar certificados de cliente X.509 en el servidor de aplicaciones SAP NetWeaver para ABAP.

Avanzado

  • Cantidad de divisiones que se generarán (M, O): La cantidad de divisiones se usa para particionar los datos de entrada. Más particiones aumentan el nivel de paralelismo, pero requieren más recursos y sobrecarga. En el caso de un sistema SAP on-premise, si el valor no se especifica en la IU, las divisiones son el 50% de los procesos de trabajo de diálogo disponibles en SAP. De lo contrario, las divisiones se optimizan entre lo que especifica el usuario y el 50% de los procesos de trabajo disponibles.

    Recomendación: Deja la propiedad en blanco, a menos que estés familiarizado con la configuración de tu sistema SAP.

  • Propiedades de conexión de SAP adicionales (M, O): Establece propiedades adicionales de SAP JCo que anulen los valores predeterminados de SAP JCo. Por ejemplo, la configuración de jco.destination.pool_capacity = 10 anula la capacidad predeterminada del grupo de conexiones.

    En la siguiente tabla, se enumeran las propiedades de SAP JCo admitidas:

Propiedad Descripción
jco.destination.peak_limit Es la cantidad máxima de conexiones activas que se pueden crear para un destino de forma simultánea.
jco.destination.pool_capacity Es la cantidad máxima de conexiones inactivas que mantiene abiertas el destino. Un valor de 0 tiene el efecto de que no hay un grupo de conexiones, es decir, las conexiones se cerrarán después de cada solicitud.
jco.destination.expiration_time Es el tiempo en ms después del cual se pueden cerrar las conexiones que mantiene el grupo interno.
jco.destination.expiration_check_period Es el intervalo en ms con el que el subproceso de verificación de tiempo de espera verifica si las conexiones del grupo están vencidas.
jco.destination.max_get_client_time Es el tiempo máximo en ms para esperar una conexión, si la aplicación asigna la cantidad máxima de conexiones permitidas.

Comportamiento de los modos de extracción de datos

El modo de extracción de datos se controla a través de la configuración del proceso de transferencia de datos. El comportamiento es diferente cuando se usa una cadena de procesos en comparación con un destino de Open Hub.

Cuándo usar una cadena de procesos

La configuración a nivel del proceso de transferencia de datos controla si se realiza una carga completa o diferencial. El ID de solicitud llega como una notificación de SAP al complemento. El complemento lee los datos de paquetes asociados con este ID de solicitud único.

Cuando se usa el destino de Open Hub sin un ID de solicitud

Carga completa: Cuando se ejecuta la canalización por primera vez, se obtienen todos los IDs de solicitud disponibles en la tabla de Open Hub. El complemento lee los datos de paquetes asociados con estos IDs de solicitud.

Carga delta: Ejecutar la misma canalización la próxima vez recupera todos los IDs de solicitud delta disponibles después del último ID de solicitud recuperado. El complemento lee los datos de paquetes asociados con estos IDs de solicitud.

Cuando se usa el destino de Open Hub con el ID de solicitud

Carga completa: Cuando se ejecuta la canalización por primera vez, se obtienen todos los siguientes IDs de solicitud disponibles que sean mayores que el ID de solicitud especificado. El complemento lee los datos de los paquetes asociados con estos IDs de solicitud.

Carga delta: Ejecutar la misma canalización la próxima vez recupera todos los IDs de solicitud delta disponibles después del último ID de solicitud recuperado. El complemento lee los datos de paquetes asociados con estos IDs de solicitud.

Asignación de tipos de datos

En la siguiente tabla, se muestra la asignación entre los tipos de datos que se usan en SAP BW y Cloud Data Fusion.

Tipo de datos de BW Tipo de ABAP Descripción (SAP) Tipo de datos de Cloud Data Fusion
Numérico
INT1 b Número entero de 1 byte integer
INT2 s Número entero de 2 bytes integer
INT4 i Número entero de 4 bytes integer
INT8 8 Entero de 8 bytes long
DIC p Número empaquetado en formato BCD (DEC) decimal
DF16_DEC
DF16_RAW
a Punto flotante decimal de 8 bytes, IEEE 754r decimal
DF34_DEC
DF34_RAW
e Punto flotante decimal de 16 bytes, IEEE 754r decimal
FLTP f Número de punto flotante binario double
Regla
CHAR
LCHR
c Cadena de caracteres string
SSTRING
GEOM_EWKB
string Cadena de caracteres string
STRING string CLOB de string de caracteres bytes
NUMC
ACCP
n Texto numérico string
Byte
RAW
LRAW
x Datos binarios bytes
STRING SIN PROCESAR xstring BLOB de cadena de bytes bytes
fecha/hora
DATS d Fecha date
TIMS t Hora time
TIMESTAMP utcl TimeStamp
Utclong
timestamp

Validación

Haz clic en Validar o Obtener esquema.

El complemento valida las propiedades y genera un esquema basado en los metadatos de SAP. Asigna automáticamente los tipos de datos de SAP a los tipos de datos de Cloud Data Fusion correspondientes.

Ejecuta una canalización de datos

  1. Después de implementar la canalización, haz clic en Configurar.
  2. Selecciona Recursos.
  3. Si es necesario, cambia la CPU del ejecutor y la memoria según el tamaño general de los datos y la cantidad de transformaciones usadas en la canalización.
  4. Haz clic en Guardar.
  5. Para iniciar la canalización de datos, haz clic en Run.

Optimiza el rendimiento

Cómo optimizar la configuración del complemento

Usa las siguientes propiedades para obtener un rendimiento óptimo cuando ejecutes la canalización:

  • Cantidad de divisiones que se deben generar en las propiedades del complemento de Cloud Data Fusion: Esta opción controla directamente el paralelismo en el lado de Cloud Data Fusion. El motor de tiempo de ejecución crea la cantidad especificada de particiones y conexiones de SAP mientras extrae los registros de la tabla. Se recomiendan valores entre 8 y 16, pero puedes aumentar hasta 32 o 64 con la configuración adecuada en el lado de SAP. Para ello, asigna los recursos de memoria adecuados para los procesos de trabajo en SAP.

    Si el valor es 0 o se deja en blanco (recomendado), el sistema elige automáticamente un valor apropiado en función de la cantidad de procesos de trabajo de SAP disponibles, los registros que se extraerán y el tamaño del paquete.

  • Tamaño del paquete en las propiedades del proceso de transferencia de datos de BW: Controla la cantidad de registros de datos presentes en un paquete de datos individual. El valor predeterminado es 50,000. Aumentar este valor podría mejorar el rendimiento, pero aumentaría la carga de recursos. Si ya usas valores más altos, réducelos para permitir una mejor paralelización de la extracción.

Configuración de recursos de Cloud Data Fusion

Recomendado: Usa 1 CPU y 4 GB de memoria por ejecutor. Este valor se aplica a cada proceso del ejecutor. Establece estos valores en el diálogo Configurar > Recursos.

Configuración del clúster de Dataproc

Recomendado: Como mínimo, asigna un total de CPUs a los trabajadores, mayor que la cantidad de divisiones prevista. Consulta Configuración del complemento.

Por ejemplo, si tienes 16 divisiones, define 20 o más CPUs en total en todos los trabajadores. Hay una sobrecarga de 4 CPU que se usan para la coordinación.

Recomendado: Usa un clúster de Dataproc persistente para reducir el tiempo de ejecución de la canalización de datos. Esto elimina el paso de aprovisionamiento, que puede tardar unos minutos o más. Establece esta opción en la sección de configuración de Compute Engine.

Detalles de la asistencia

Productos y versiones de SAP compatibles

Fuentes compatibles:

  • SAP NW BW 7.5 y versiones posteriores
  • SAP BW4HANA 2.0 SP9 (para incluir la API de Open Hub Destination; las versiones anteriores de BW4HANA no admiten la API de Open Hub Destination)

Compatibilidad con la conexión con balanceo de cargas (servidor de mensajes) de SAP

La conexión SAP con balanceo de cargas (servidor de mensajes) es compatible con la extracción basada en destinos de Open Hub, en la que no se usa un servidor de RFC.

La conexión con balanceo de cargas de SAP (servidor de mensajes) no es compatible con la extracción basada en cadenas de procesos. El motivo es una limitación de SAP cuando se proporciona una notificación data ready al sistema cliente, lo que requiere registrar el servidor RFC (objeto de escucha de complementos) en cada servidor SAP del entorno de BW, lo que aumenta el espacio en disco del conector y puede afectar el rendimiento de SAP y el uso de recursos. Para obtener más información, consulta la Nota de SAP 2572564 (se requiere acceso a la asistencia de SAP para verla).

Modelos de implementación de SAP compatibles

El complemento se prueba con servidores SAP implementados en Google Cloud.

Objetos de SAP compatibles

Fuentes de datos para el destino de Open Hub: InfoProviders (InfoObject, InfoCube, DataStore Object, Advanced Data Store Object, Composite Provider)

Cadenas de procesos para ejecutar automáticamente el proceso de transferencia de datos en el destino de Open Hub

Licencia independiente para usar el servidor HTTP de Oracle para extraer datos de SAP

No necesitas una licencia independiente para usar Oracle HTTP Server (OHS) para extraer datos de SAP. Sin embargo, consulta con tu representante de SAP sobre tu caso de uso y acuerdo específicos.

Capacidad de procesamiento del complemento esperada

Para un entorno configurado de acuerdo con los lineamientos de Optimiza el rendimiento, el complemento puede extraer alrededor de 38 GB por hora. El rendimiento real puede variar con la carga del sistema SAP y Cloud Data Fusion, o el tráfico de red.

¿Qué sigue?