En esta página, se describe cómo habilitar la replicación de datos en tiempo real desde SAP aplicaciones a Google Cloud con SAP Landscape Transformation (SLT). El contenido se aplica a los complementos SAP SLT Replication y SAP SLT No RFC Replication, que están disponibles en el centro de Cloud Data Fusion. Muestra el parámetros de configuración para SAP Source System, SLT, Cloud Storage y Cloud Data Fusion para realizar las siguientes tareas:
- Envía metadatos y datos de tablas de SAP a Google Cloud con SAP SLT.
- Crea un trabajo de replicación de Cloud Data Fusion que lea los datos de un bucket de Cloud Storage.
La replicación SLT de SAP te permite replicar sus datos de forma continua y en tiempo real desde fuentes de SAP a en BigQuery. Puedes configurar y ejecutar transferencias de datos desde sistemas de SAP sin programación.
El proceso de replicación de SLT de Cloud Data Fusion es el siguiente:
- Los datos provienen de un sistema de origen de SAP.
- La SLT realiza un seguimiento de los datos, los lee y los envía a Cloud Storage.
- Cloud Data Fusion extrae datos del bucket de almacenamiento y los escribe en BigQuery.
Puedes transferir datos desde sistemas SAP compatibles, incluidos los sistemas SAP alojados en Google Cloud.
Para obtener más información, consulta la Descripción general de SAP en Google Cloud. y detalles de asistencia.
Antes de comenzar
Para usar este complemento, necesitarás conocimientos de dominio en las siguientes áreas:
- Compila canalizaciones en Cloud Data Fusion
- Administración de acceso con IAM
- Configurar sistemas de SAP Cloud y de planificación de recursos empresariales (ERP) local
Administradores y usuarios que realizan las configuraciones
Las tareas de esta página las realizan personas con las siguientes funciones en Google Cloud o en su sistema SAP:
Tipo de usuario | Descripción |
---|---|
Administrador de Google Cloud | Los usuarios con esta función son administradores de cuentas de Google Cloud. |
Usuario de Cloud Data Fusion | Los usuarios a los que se les asigna esta función están autorizados para diseñar y ejecutar canalizaciones de datos. Se les otorga, como mínimo, la función de visualizador de Data Fusion (roles/datafusion.viewer ). Si usas el control de acceso basado en funciones, es posible que necesites funciones adicionales.
|
Administrador de SAP | Los usuarios con esta función son administradores del sistema SAP. Tienen acceso para descargar software del sitio de servicio de SAP. No es una función de IAM. |
Usuario de SAP | Los usuarios a los que se les asignó esta función están autorizados para conectarse a un sistema SAP. No es una función de IAM. |
Operaciones de replicación compatibles
El complemento de replicación de SAP SLT admite las siguientes operaciones:
Modelado de datos: todas las operaciones de modelado de datos (registro insert
, delete
y
update
) son compatibles con este complemento.
Definición de datos: Como se describe en la Nota de SAP 2055599 (se requiere acceso a la asistencia de SAP para verla), existen limitaciones en cuanto a los cambios en la estructura de la tabla del sistema de origen que SLT replica automáticamente. Algunos datos no se admiten operaciones de definición en el complemento (debes propagarlos).
- Compatible:
- Agrega un campo sin clave (después de realizar cambios en SE11, activa la tabla con SE14).
- No compatibles:
- Agregar/borrar campo de clave
- Borrar campo sin clave
- Modifica los tipos de datos
Requisitos de SAP
Los siguientes elementos son obligatorios en tu sistema SAP:
- Debes tener instalada la versión 2011 SP17 del servidor SLT o una posterior en la fuente. Sistema SAP (incorporado) o como sistema de concentrador SLT dedicado
- Tu sistema de SAP de origen es SAP ECC o SAP S/4HANA, que admite DMIS 2011 SP17 o versiones posteriores, como DMIS 2018 y DMIS 2020.
- Tu complemento de la interfaz de usuario de SAP debe ser compatible con tu versión de SAP Netweaver.
Tu paquete de asistencia admite la clase
/UI2/CL_JSON
PL 12
o una posterior. De lo contrario, implementa la nota de SAP más reciente para la clase/UI2/CL_JSON
corrections
según la versión de complemento de la interfaz de usuario, como SAP Nota 2798102 paraPL12
.Se implementó la siguiente seguridad:
Requisitos de Cloud Data Fusion
- Necesitas una instancia de Cloud Data Fusion, versión 6.4.0 o posterior, de cualquier edición.
- A la cuenta de servicio asignada a la instancia de Cloud Data Fusion se le otorgan los roles necesarios (consulta Cómo otorgar permiso de usuario a la cuenta de servicio).
- Para las instancias privadas de Cloud Data Fusion, se requiere el intercambio de tráfico entre VPC.
Requisitos de Google Cloud
- Habilita la API de Cloud Storage en tu proyecto de Google Cloud.
- Se debe otorgar permiso al usuario de Cloud Data Fusion para crear carpetas en el bucket de Cloud Storage (consulta Roles de IAM para Cloud Storage).
- Opcional: Si es necesario, establece la política de retención por tu organización.
Crea el bucket de almacenamiento
Antes de crear un trabajo de replicación SLT, crea el bucket de Cloud Storage. El trabajo transfiere datos al bucket y actualiza el bucket de etapa de pruebas cada cinco minutos. Cuando ejecutas el trabajo, Cloud Data Fusion lee los datos bucket de almacenamiento y lo escribe en BigQuery.
Si SLT está instalado en Google Cloud
El servidor SLT debe tener permiso para crear y modificar datos de Cloud Storage objetos en el bucket que creaste.
Como mínimo, otorga los siguientes roles a la cuenta de servicio:
- Creador de tokens de cuenta de servicio (
roles/iam.serviceAccountTokenCreator
) - Consumidor de Service Usage (
roles/serviceusage.serviceUsageConsumer
) - Administrador de objetos de almacenamiento (
roles/storage.objectAdmin
)
Si SLT no está instalado en Google Cloud
Instalar Cloud VPN o Cloud Interconnect entre la VM de SAP y Google Cloud para permitir la conexión a un extremo de metadatos interno (consulta Configura el Acceso privado a Google para hosts locales.
Si no se pueden asignar metadatos internos:
Instala Google Cloud CLI según el sistema operativo de la infraestructura en el que se ejecuta SLT.
Crea una cuenta de servicio en el proyecto de Google Cloud en el que está habilitado Cloud Storage.
En el sistema operativo SLT, autoriza el acceso a Google Cloud con una cuenta de servicio.
Crea una clave de API para la cuenta de servicio y autoriza el permiso relacionado con Cloud Storage.
Importa la clave de API a la CLI de gcloud que instalaste antes con la CLI.
Para habilitar el comando de gcloud CLI que imprime el token de acceso, haz lo siguiente: configurar el comando del sistema operativo SAP en la herramienta SM69 de transacción en el sistema SLT.
Cómo imprimir un token de acceso
El administrador de SAP configura el comando del sistema operativo, SM69
, que
recupera un token de acceso de Google Cloud.
Crea una secuencia de comandos para imprimir un token de acceso y configurar un sistema operativo SAP
comando para llamar a la secuencia de comandos como el usuario <sid>adm
desde SAP LT Replication Server
host.
Linux
Para crear un comando del SO, haz lo siguiente:
En el host de SAP LT Replication Server, en un directorio al que pueda acceder
<sid>adm
, crea una secuencia de comandos bash que contenga las siguientes líneas:PATH_TO_GCLOUD_CLI/bin/gcloud auth print-access-token SERVICE_ACCOUNT_NAME
Con la interfaz de usuario de SAP, crea un comando de SO externo:
- Ingresa la transacción
SM69
. - Haz clic en Crear.
- En la sección Comando del panel Comando externo, ingresa el nombre del comando, como
ZGOOGLE_CDF_TOKEN
. En la sección Definición:
- En el campo Comando del sistema operativo, ingresa
sh
como la extensión del archivo de secuencia de comandos. En el campo Parámetros para el comando del sistema operativo, ingresa lo siguiente:
/PATH_TO_SCRIPT/FILE_NAME.sh
- En el campo Comando del sistema operativo, ingresa
Haz clic en Guardar.
Para probar la secuencia de comandos, haz clic en Ejecutar.
Haz clic de nuevo en Ejecutar.
Se devuelve un token de Google Cloud que se muestra en la parte inferior de la Panel de la interfaz de usuario de SAP.
- Ingresa la transacción
Windows
Con la interfaz de usuario de SAP, crea un comando de sistema operativo externo:
- Ingresa la transacción
SM69
. - Haz clic en Crear.
- En la sección Comando del panel Comando externo, ingresa el
nombre del comando, como
ZGOOGLE_CDF_TOKEN
. En la sección Definición:
- En el campo Comando del sistema operativo, ingresa
cmd /c
. En el campo Parámetros para el comando del sistema operativo, ingresa lo siguiente:
gcloud auth print-access-token SERVICE_ACCOUNT_NAME
- En el campo Comando del sistema operativo, ingresa
Haz clic en Guardar.
Para probar la secuencia de comandos, haz clic en Ejecutar.
Haz clic de nuevo en Ejecutar.
Se muestra un token de Google Cloud en la parte inferior del panel de la interfaz de usuario de SAP.
Requisitos de SLT
El conector SLT debe tener la siguiente configuración:
- El conector es compatible con SAP ECC NW 7.02, DMIS 2011 SP17 y versiones posteriores.
- Configurar una conexión RFC o base de datos entre el SLT y el sistema de Cloud Storage.
- Configura los certificados SSL:
- Descarga los siguientes certificados de AC del repositorio de Google Trust Services:
- GTS Root R1
- GTS CA 1C3
- En la interfaz de usuario de SAP, usa la transacción
STRUST
para importar el certificado raíz y el subordinado a la carpetaSSL Client (Standard) PSE
.
- Descarga los siguientes certificados de AC del repositorio de Google Trust Services:
- El Administrador de comunicaciones en Internet (ICM) se debe configurar para HTTPS. Asegúrate de que los puertos HTTP y HTTPS se mantengan y activen en el sistema SAP SLT.
Puede verificarse a través del código de transacción
SMICM > Services
. - Habilita el acceso a las APIs de Google Cloud en la VM en la que se ejecuta SAP SLT de que un sistema esté alojado. Esto permite una comunicación privada entre los servicios de Google Cloud sin enrutamiento a través de la Internet pública.
- Asegúrate de que la red pueda admitir el volumen y la velocidad necesarios de la transferencia de datos entre la infraestructura de SAP y Cloud Storage. Para un una instalación exitosa, Cloud VPN o Cloud Interconnect son se recomienda. La capacidad de procesamiento de la API de transmisión depende de las cuotas del cliente que se otorgaron a tu proyecto de Cloud Storage.
Configura el servidor de replicación de SLT
El usuario de SAP realiza los siguientes pasos.
En los siguientes pasos, conectarás el servidor SLT al sistema de origen y al en Cloud Storage, especificando el sistema de origen, las tablas de datos para replicar y el bucket de almacenamiento de destino.
Configura el SDK de ABAP de Google
Para configurar SLT para la replicación de datos (una vez por instancia de Cloud Data Fusion), sigue estos pasos:
Para configurar el conector de SLT, el usuario de SAP ingresa la siguiente información en la pantalla de configuración (transacción de SAP
/GOOG/CDF_SETTINGS
) sobre la clave de la cuenta de servicio de Google Cloud para transferir datos a Cloud Storage. Configura las siguientes propiedades en la tabla /GOOG/CDF_CLT_KY con la transacción SE16 y toma nota de esta clave:- NAME: Es el nombre de la clave de tu cuenta de servicio (por ejemplo,
CDFSLT
). - SERVICE ACCOUNT NAME: Es el nombre de la cuenta de servicio de IAM.
- ALCANCE: El alcance de la cuenta de servicio
- PROJECT ID: El ID de tu proyecto de Google Cloud
- Opcional: Comando EXT OS: Usa este campo solo si el SLT no está instalado en Google Cloud
AUTH CLASS: Si el comando del SO está configurado en la tabla
/GOOG/CDF_CLT_KY
, usa el valor fijo:/GOOG/CDF_CL_GCP_AUTH
.TOKEN REFRESH SEC: Es la duración de la actualización del token de autorización.
- NAME: Es el nombre de la clave de tu cuenta de servicio (por ejemplo,
Crea la configuración de replicación
Crea una configuración de replicación en el código de transacción: LTRC
.
- Antes de continuar con la configuración de LTRC, asegúrate de que la conexión RFC entre el SLT y el sistema SAP de origen.
- Para una configuración de SLT, puede haber varias tablas SAP asignadas para la replicación.
Ve al código de transacción
LTRC
y haz clic en Configuración nueva.Ingresa el Nombre de configuración y la Descripción, y haz clic en Siguiente.
Especifica la conexión RFC del sistema de origen de SAP y haz clic en Siguiente.
En Target System Connection Details, selecciona Other.
Expande el campo Situación para la comunicación de RFC, selecciona SDK de SLT y haz clic en Siguiente.
Ve a la ventana Specify Transfer Settings y, luego, ingresa la aplicación. nombre:
ZGOOGLE_CDF
.Ingresa la cantidad de trabajos de transferencia de datos, la cantidad de trabajos de carga iniciales y la cantidad de trabajos de cálculo. Para obtener más información sobre el rendimiento, consulta la Guía de optimización del rendimiento de SAP LT Replication Server.
Haz clic en Tiempo real > Siguiente.
Revisa la configuración y haz clic en Guardar. Anota el ID de transferencia masiva para los siguientes pasos.
Para mantener el ID de transferencia masiva y los detalles de la tabla de SAP, ejecuta la transacción de SAP:
/GOOG/CDF_SETTINGS
.Haz clic en Ejecutar o presiona
F8
.Crea una entrada nueva haciendo clic en el ícono Agregar fila.
Ingresa el ID de transferencia masiva, la clave de transferencia masiva, el nombre de clave de GCP y el bucket de GCS de destino. Selecciona la casilla de verificación Is Active y guarda los cambios. los cambios.
Selecciona la configuración en la columna Configuration Name y haz clic en Data Provisioning.
Opcional: Personaliza los nombres de la tabla y de los campos.
Haz clic en Nombres personalizados y guárdalos.
Haz clic en Pantalla.
Para crear una entrada nueva, haz clic en los botones Agregar fila o Crear.
Ingresa el nombre de la tabla de SAP y el nombre de la tabla externa para usar en BigQuery y guarda los cambios.
Haz clic en el botón Ver en la columna Campos de visualización para mantener la asignación de los campos de la tabla.
Se abrirá una página con asignaciones sugeridas. Opcional: Edita el campo Temp. Name y Field Description y, luego, guarda las asignaciones.
Ve a la transacción de LTRC.
Selecciona el valor en la columna Configuration Name y haz clic en Data provisioning.
Ingresa el nombre de la tabla en el campo Table Name in Database y selecciona de replicación.
Haz clic en Ejecutar. Esto activa la implementación del SDK de SLT y comienza a transferir los datos al bucket de destino en Cloud Storage.
Instala archivos de transporte de SAP
Para diseñar y ejecutar trabajos de replicación en Cloud Data Fusion, los componentes de SAP se entregan como archivos de transporte de SAP que se archivan en un archivo ZIP. La descarga estará disponible cuando implementes el complemento en el Centro de noticias de Cloud Data Fusion.
Descarga el archivo ZIP de transporte de SAP SLT
Los IDs de solicitud de transporte de SAP y los archivos asociados se proporcionan en la siguiente tabla:
ID de transporte | Coarchivo | Archivo de datos | Contenido |
---|---|---|---|
ED1K900520 | K900520.ED1 | R900520.ED1 | Implementación de SAP BADI ES_IUUC_REPL_RUNTIME_OLO_EXIT |
ED1K900337 | K900337.ED1 | R900337.ED1 | Rol de autorización /GOOG/SLT_CDF_AUTH |
Para instalar los transportes de SAP, sigue estos pasos:
Paso 1: Sube los archivos de solicitud de transporte
- Accede al sistema operativo de la instancia de SAP.
- Usa el código de transacción
AL11
de SAP para obtener la ruta de acceso de la carpetaDIR_TRANS
. Por lo general, la ruta es/usr/sap/trans/
. - Copia los coarchivos a la carpeta
DIR_TRANS/cofiles
. - Copia los archivos de datos en la carpeta
DIR_TRANS/data
. - Configura el usuario y el grupo de datos, y copia en
<sid>adm
ysapsys
.
Paso 2: Importa los archivos de solicitud de transporte
El administrador de SAP puede importar los archivos de solicitud de transporte con el SAP el sistema de administración de transporte o el sistema operativo:
Sistema de administración de transporte de SAP
- Accede al sistema SAP como administrador de SAP.
- Ingresa el STMS de la transacción.
- Haz clic en Descripción general > Importaciones.
- En la columna Cola, haz doble clic en el SID actual.
- Haz clic en Adicionales > Otras solicitudes > Agregar.
- Selecciona el ID de la solicitud de transporte y haz clic en Continuar.
- Selecciona la solicitud de transporte en la cola de importación y, luego, haz clic en Solicitud > Importar.
- Ingresa el número de cliente.
En la pestaña Opciones, selecciona Reemplazar originales y, también, Ignorar versión de componente no válida (si está disponible).
Opcional: Para volver a importar los transportes más tarde, haz clic en Leave Transports requests in Queue for Later Import. Vuelve a importar las solicitudes de transporte. Esto es útil para las actualizaciones del sistema SAP y las restauraciones de copias de seguridad.
Haga clic en Continuar.
Verifica que el módulo de función y los roles de autorización se hayan importado de forma correcta mediante transacciones, como
SE80
yPFCG
.
Sistema operativo
- Accede al sistema SAP como administrador de SAP.
Agrega solicitudes al búfer de importación:
tp addtobuffer TRANSPORT_REQUEST_ID SID
Por ejemplo:
tp addtobuffer IB1K903958 DD1
Importa las solicitudes de transporte:
tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
Reemplaza
NNN
por el número de cliente. Por ejemplo:tp import IB1K903958 DD1 client=800 U1238
Verifica que el módulo de función y los roles de autorización se hayan importado de forma correcta mediante las transacciones adecuadas, como
SE80
yPFCG
.
Autorizaciones necesarias de SAP
Para ejecutar una canalización de datos en Cloud Data Fusion, necesitas un usuario de SAP. El SAP
El usuario debe ser del tipo Communications o Dialog. Para evitar el uso de recursos de diálogo de SAP, se recomienda el tipo de comunicación. El administrador de SAP puede crear usuarios con el código de transacción SU01
de SAP.
Las autorizaciones de SAP son necesarias para mantener y configurar el conector para SAP, una combinación de objetos de autorización estándar de SAP y nuevos del conector. Tú mantener objetos de autorización según las políticas de seguridad de tu organización. En la siguiente lista, se describen algunas autorizaciones importantes necesarias para el conector:
Objeto de autorización: El objeto de autorización
ZGOOGCDFMT
se envía como parte del rol de solicitud de transporte.Creación de la función: Crea una función con el código de transacción
PFCG
.En el caso de los objetos de autorización de SAP estándar, tu organización administra los permisos con su propio mecanismo de seguridad.
Para los objetos de autorización personalizados, proporciona los valores en los campos de autorización para los objetos de autorización
ZGOOGCDFMT
.Para un control de acceso detallado,
ZGOOGCDFMT
proporciona grupos de de Google Cloud. Los usuarios con acceso completo, parcial o sin acceso a los grupos de autorización se les proporciona acceso según el grupo de autorización asignado en su rol./GOOG/SLT_CDF_AUTH: Rol con acceso a todos los grupos de autorización. Para restringir el acceso específico a un grupo de autorización en particular, mantener el FICDF del grupo de autorización en la configuración.
Crea un destino RFC para el origen
Antes de comenzar con la configuración, asegúrate de que la conexión RFC esté que se establecen entre el origen y el destino.
Ve al código de transacción
SM59
.Haz clic en Crear > Tipo de conexión 3 (conexión ABAP).
En la ventana Technical Settings, ingresa los detalles sobre el RFC. Destino.
Haz clic en la pestaña Logon and Security para mantener las credenciales de RFC (usuario y contraseña de RFC).
Haz clic en Guardar.
Haz clic en Prueba de conexión. Si la prueba se realiza correctamente, puedes continuar.
Verifica que la prueba de autorización de RFC se realice correctamente.
Haz clic en Utilidades > Prueba > Prueba de autorización.
Cómo configurar el complemento
Para configurar el complemento, impleméntalo desde Hub, crea un de replicación y configurar el origen y el destino con el los siguientes pasos.
Implementa el complemento en Cloud Data Fusion
El usuario de Cloud Data Fusion realiza los siguientes pasos.
Para poder ejecutar el trabajo de replicación de Cloud Data Fusion, implementa el complemento SAP SLT Replication:
Ve a tu instancia:
En la consola de Google Cloud, ve a la página Instancias de Cloud Data Fusion.
Habilita la replicación en una instancia nueva o existente:
- Para una instancia nueva, haz clic en Crear instancia, ingresa un nombre para la instancia, haz clic en Agregar aceleradores, selecciona la casilla de verificación Replicación y haz clic en Guardar.
- Para una instancia existente, consulta Habilita la replicación en una instancia existente.
Haz clic en Ver instancia para abrirla en la Interfaz web de Cloud Data Fusion.
Haz clic en Hub.
Ve a la pestaña SAP, haz clic en SAP SLT y, luego, en SAP SLT Replication Plugin o SAP SLT No RFC Replication Plugin.
Haz clic en Implementar.
Crea un trabajo de replicación
El complemento SAP SLT Replication lee el contenido de las tablas SAP con un bucket de etapa de pruebas de la API de Cloud Storage.
Si quieres crear un trabajo de replicación para tu transferencia de datos, sigue estos pasos: pasos:
En tu instancia abierta de Cloud Data Fusion, haz clic en Página principal >. Replicación > Crea un trabajo de replicación. Si no hay Replicación, habilita la replicación para el instancia.
Ingresa un Nombre y una Descripción únicos para la tarea de replicación.
Haz clic en Siguiente.
Configura la fuente
Ingresa valores en los siguientes campos para configurar la fuente:
- ID del proyecto: el ID de tu proyecto de Google Cloud (este campo es prepropagado)
Ruta de acceso de GCS de replicación de datos: Es la ruta de acceso de Cloud Storage que contiene datos para la replicación. Debe ser la misma ruta que se configura en los trabajos de SAP SLT. De forma interna, la ruta de acceso proporcionada se concatena con
Mass Transfer ID
ySource Table Name
:Formato:
gs://<base-path>/<mass-transfer-id>/<source-table-name>
Ejemplo:
gs://slt_bucket/012/MARA
GUID: El GUID SLT, un identificador único asignado a SAP SLT Mass ID de transferencia.
ID de transferencia masiva: El ID de transferencia masiva de SLT es un identificador único asignado a la configuración en SAP SLT.
Ruta de acceso de GCS de la biblioteca de SAP JCo: Es la ruta de acceso de almacenamiento que contiene los archivos de la biblioteca de SAP JCo subidos por el usuario. Se pueden descargar las bibliotecas de SAP JCo. en el Portal de asistencia de SAP. (Se quitó en la versión 0.10.0 del complemento).
Host del servidor SLT: Es el nombre de host o la dirección IP del servidor SLT. (Se quitó en versión 0.10.0 del complemento).
Número del sistema SAP: Es el número del sistema de instalación que proporciona el sistema. administrador (por ejemplo,
00
). (Se quitó en la versión 0.10.0 del complemento).Cliente de SAP: Es el cliente de SAP que se usará (por ejemplo,
100
). (Se quitó en la versión 0.10.0 del complemento).Lenguaje de SAP: Es el lenguaje de inicio de sesión de SAP (por ejemplo,
EN
). (Se quitó en la versión 0.10.0 del complemento).Nombre de usuario de inicio de sesión de SAP: Es el nombre de usuario de SAP. (Se quitó en la versión 0.10.0 del complemento).
- Recomendado: Si el nombre de usuario del inicio de sesión de SAP cambia periódicamente, usa un o la macro.
Contraseña de inicio de sesión de SAP (M): Contraseña de usuario de SAP para la autenticación del usuario.
- Recomendado: Usa macros seguras para valores sensibles, como contraseñas. (Se quitó en la versión 0.10.0 del complemento).
Suspender la replicación de SLT cuando se detenga el trabajo de CDF: intenta detener el SLT. el trabajo de replicación (para las tablas involucradas) cuando Se detendrá el trabajo de replicación de Cloud Data Fusion. Es posible que falle si el trabajo en Cloud Data Fusion se detiene de forma inesperada.
Replicar datos existentes: Indica si se deben replicar los datos existentes de las tablas de origen. De forma predeterminada, los trabajos replican los datos existentes de las tablas de origen. Si se establece en
false
, se ignoran los datos existentes en las tablas de origen y solo se replican los cambios que se producen después de que se inicia el trabajo.Clave de la cuenta de servicio: Es la clave que se usa cuando se interactúa con en Google Cloud Storage. La cuenta de servicio debe tener permiso para escribir a Cloud Storage. Cuando se ejecuta en una VM de Google Cloud, se debe establecer en
auto-detect
para usar la cuenta de servicio adjunta a la VM.
Haz clic en Siguiente.
Configura el destino
Para escribir datos en BigQuery, el este complemento requiere acceso de escritura a BigQuery y a un entorno bucket. Los eventos de cambio se escriben primero en lotes desde SLT a Cloud Storage. Luego, se cargan en tablas de etapa de pruebas en BigQuery. Los cambios de la tabla de etapa de pruebas se combinan tabla de destino final con una consulta de combinación de BigQuery.
La tabla de destino final incluye todas las columnas originales de la tabla de origen, además de una columna _sequence_num
adicional. El número de secuencia garantiza que los datos no se dupliquen ni se pierdan en situaciones de fallas del replicador.
Ingresa valores en los siguientes campos para configurar la fuente:
- ID del proyecto: Es el proyecto del conjunto de datos de BigQuery. Cuando se ejecute en un clúster de Dataproc. Esto se puede dejar en blanco, lo que usará el proyecto del clúster.
- Credenciales: Consulta Credenciales.
- Clave de cuenta de servicio: Es el contenido de la clave de cuenta de servicio que se usará cuando se interactúe con Cloud Storage y BigQuery. Cuándo que se ejecuta en un clúster de Dataproc. Este campo debe dejarse en blanco. que usa la cuenta de servicio del clúster.
- Dataset Name (Nombre del conjunto de datos): el nombre del conjunto de datos que se creará. en BigQuery. Es opcional y, de forma predeterminada, el nombre del conjunto de datos es de la misma forma que el nombre de la base de datos de origen. Un nombre válido solo debe contener letras, números y guiones bajos, y la longitud máxima puede ser de 1,024 caracteres. Cualquier carácter no válido se reemplazará por guiones bajos en el nombre del conjunto de datos final, y se truncarán los caracteres que superen el límite de longitud.
- Nombre de la clave de encriptación: la clave de encriptación administrada por el cliente (CMEK) que se usa para lo siguiente:
proteger los recursos que creó el destino. El nombre de la clave de encriptación
del formulario
projects/<project-id>/locations/<key-location>/keyRings/<key-ring-name>/cryptoKeys/<key-name>
- Ubicación: Es la ubicación en la que se crean el conjunto de datos de BigQuery y el bucket de preparación de Cloud Storage. Por ejemplo,
us-east1
para buckets regionales yus
para buckets multirregionales (consulta Ubicaciones). Este valor se ignora si se especifica un bucket existente, ya que el bucket de preparación y el conjunto de datos de BigQuery se crean en la misma ubicación que ese bucket. Bucket de etapa: Es el bucket en el que se escriben los eventos de cambio antes de que se carguen en las tablas de etapa. Los cambios se escriben en un directorio que contiene el nombre del replicador y el espacio de nombres. Es seguro usar el mismo bucket en varios replicadores dentro de la misma instancia. Si lo comparten en varias instancias, asegúrate de que el espacio de nombres y el nombre único; de lo contrario, el comportamiento será indefinido. El bucket debe estar en la misma ubicación que el conjunto de datos de BigQuery. Si no se proporciona, se crea un bucket nuevo para cada trabajo llamado
df-rbq-<namespace-name>-<job-name>-<deployment-timestamp>
.Intervalo de carga (segundos): Número de segundos que se debe esperar antes de cargar un lote de datos en BigQuery.
Prefijo de la tabla de preparación: Los cambios primero se escriben en una tabla de preparación antes de combinarse con la tabla final. Los nombres de las tablas de etapa de pruebas se generan mediante la anteposición este prefijo en el nombre de la tabla de destino.
Requerir intervención de caída manual: Indica si se requiere intervención manual. acción administrativa para descartar tablas y conjuntos de datos cuando se quitan tablas o conjuntos de la base de datos. Cuando se configura como verdadero, el replicador no borrar una tabla o un conjunto de datos. En cambio, falla y vuelve a intentarlo hasta que la tabla o que no existe. Si el conjunto de datos o la tabla no existen, no se requiere intervención manual. El evento se omite como de costumbre.
Habilitar eliminaciones no definitivas: Si se establece como verdadera, cuando un evento de eliminación reciba un el objetivo, la columna
_is_deleted
del registro se establece entrue
. De lo contrario, el registro se borra de la tabla de BigQuery. Esta configuración es no-op para una fuente que genera eventos desordenados y los registros siempre se borran de forma no definitiva de la tabla de BigQuery.
Haz clic en Siguiente.
Credenciales
Si el complemento se ejecuta en un clúster de Dataproc, la cuenta de servicio debe configurarse en la detección automática. Las credenciales se leen automáticamente del entorno del clúster.
Si el complemento no se ejecuta en un clúster de Dataproc, se debe proporcionar la ruta a una clave de cuenta de servicio. Puedes encontrar la clave de la cuenta de servicio en la página de IAM de la consola de Google Cloud. Asegúrate de que la clave de la cuenta tenga permiso para acceder a BigQuery. El archivo de claves de la cuenta de servicio debe estar disponible en todos los nodos de tu clúster y todos los usuarios que ejecuten la tarea deben poder leerlo.
Limitaciones
- Las tablas deben tener una clave primaria para replicar.
- No se admiten operaciones de cambio de nombre de tabla.
- Los cambios en las tablas son compatibles de forma parcial.
- Una columna existente que no acepta valores nulos puede convertirse en una columna que acepta valores nulos.
- Se pueden agregar nuevas columnas anulables a una tabla existente.
- Cualquier otro tipo de alteración del esquema de la tabla fallará.
- Los cambios en la clave primaria no fallarán, pero los datos existentes no se reescriben para obedecer la unicidad en la nueva clave primaria.
Selecciona tablas y transformaciones
En el paso Seleccionar tablas y transformaciones, se muestra una lista de tablas seleccionadas para en el sistema SLT.
- Selecciona las tablas que deseas replicar.
- Opcional: Selecciona operaciones de esquema adicionales, como Inserts, Updates o Deletes.
- Para ver el esquema, haz clic en Columnas para replicar en una tabla.
Opcional: Para cambiar el nombre de las columnas del esquema, sigue estos pasos:
- Mientras visualizas el esquema, haz clic en Transformar >. Cambiar nombre.
- En el campo Cambiar nombre, ingresa un nombre nuevo y haz clic en Aplicar.
- Para guardar el nombre nuevo, haz clic en Actualizar y Guardar.
Haz clic en Siguiente.
Opcional: Configura propiedades avanzadas
Si sabes cuántos datos replicas en una hora, puedes selecciona la opción adecuada.
Revisa la evaluación
El paso Revisar evaluación busca problemas de esquema, funciones faltantes o problemas de conectividad que ocurren durante la replicación.
En la página Revisar evaluación, haz clic en Ver asignaciones.
Si se produce algún problema, debes resolverlo antes de poder continuar.
Opcional: Si cambiaste el nombre de las columnas cuando seleccionaste las tablas y las transformaciones, verifica que los nombres nuevos sean correctos en este paso.
Haz clic en Siguiente.
Consulta el resumen y, luego, implementa el trabajo de replicación
En la página Revisar detalles del trabajo de replicación, revisa la configuración. y haz clic en Implementar trabajo de replicación.
Selecciona un perfil de Compute Engine
Luego de implementar el trabajo de replicación, haz clic en Configurar desde en cualquier página de la interfaz web de Cloud Data Fusion.
Selecciona el perfil de Compute Engine que deseas usar para ejecutar esta tarea de replicación.
Haz clic en Guardar.
Inicia el trabajo de replicación
- Para ejecutar el trabajo de replicación, haz clic en Iniciar.
Opcional: Optimiza el rendimiento
De forma predeterminada, el complemento está configurado para un rendimiento óptimo. Para obtener optimizaciones, consulta Argumentos del tiempo de ejecución.
El rendimiento de la comunicación de SLT y Cloud Data Fusion depende de lo siguiente: estos factores:
- SLT en el sistema de origen en comparación con un sistema de SLT central dedicado (opción preferida)
- Procesamiento de trabajos en segundo plano en el sistema SLT
- Procesos de trabajo de diálogo en el sistema SAP de origen
- El número de procesos de trabajo en segundo plano asignados a cada ID de transferencia masiva en Pestaña LTRC Administration
- Configuración de LTRS
- Hardware (CPU y memoria) del sistema SLT
- La base de datos utilizada (por ejemplo: HANA, Sybase o DB2)
- El ancho de banda de Internet (conectividad entre el sistema SAP y Google Cloud a través de Internet)
- Utilización (carga) preexistente en el sistema
- Es la cantidad de columnas de la tabla. Con más columnas, la replicación se vuelve lenta y la latencia puede aumentar.
Se recomiendan los siguientes tipos de lectura en la configuración de LTRS para las cargas iniciales:
sistema SLT | Sistema de origen | Tipo de tabla | Tipo de lectura recomendado [carga inicial] |
---|---|---|---|
SLT 3.0 independiente [DMIS 2018_1_752 SP 2] |
S/4 HANA 1909 | Transparente (pequeña/mediana) Transparente (grande) Tabla de clústeres |
1 cálculo de rango 1 cálculo de rango 4 colas de remitentes |
SLT incorporado [S4CORE 104 HANA 1909] |
N/A | Transparente (pequeña o mediana) Transparente (grande) Tabla de clústeres |
1 cálculo de rango 1 cálculo de rango 4 remitentes en fila |
SLT 2.0 independiente [DMIS 2011_1_731 SP 17] |
ECC NW 7.02 | Transparente (pequeña o mediana) Transparente (grande) Tabla de clústeres |
Cola de 5 remitentes Cola de 5 remitentes Cola de 4 remitentes |
SLT incorporado [DMIS 2011_1_700 SP 17] |
N/A | Transparente (pequeña/mediana) Transparente (grande) Tabla de clústeres |
5 remitentes en fila 5 remitentes en fila Fila de 4 remitentes |
- Para la replicación, usa Sin rangos a fin de mejorar el rendimiento:
- Los rangos solo se deben usar cuando se generan tareas pendientes en una tabla de registro con latencia alta.
- Uso de un cálculo de rango: No se recomienda el tipo de lectura para la carga inicial en el caso de SLT 2.0 y sistemas que no son HANA.
- Usar el cálculo de un rango: el tipo de lectura para la carga inicial podría generar los registros duplicados en BigQuery.
- El rendimiento siempre es mejor cuando se usa un sistema de SLT independiente.
- Siempre se recomienda un sistema SLT independiente si el uso de recursos del el sistema de origen ya es alto.
Argumentos del entorno de ejecución
snapshot.thread.count
: Pasa la cantidad de subprocesos para comenzar a realizar la carga de datos deSNAPSHOT/INITIAL
en paralelo. De forma predeterminada, usa el la cantidad de CPU virtuales disponibles en el clúster de Dataproc en el que trabajos de replicación.Opción recomendada: Solo configura este parámetro en los casos en que necesites un control preciso sobre la cantidad de subprocesos en paralelo (por ejemplo, para disminuir el uso en el clúster).
poll.file.count
: Pasa la cantidad de archivos para sondear desde el Ruta de acceso de Cloud Storage proporcionada en la Ruta de acceso de GCS de replicación de datos en la interfaz web. De forma predeterminada, el valor es500
por encuesta. Sin embargo, según la configuración del clúster, se puede aumentar o disminuir.Recomendado: Solo configura este parámetro si tienes requisitos estrictos para lo siguiente: el retraso de replicación. Los valores más bajos podrían reducir la demora. Puedes usarlo para mejorar la capacidad de procesamiento (si no responde, usa valores superiores al predeterminado).
bad.files.base.path
: Pasa la ruta de acceso base de Cloud Storage a la que se copian todos los archivos de datos con errores o defectuosos que se encontraron durante la replicación. Esto es útil cuando hay requisitos estrictos para la auditoría de datos y se debe usar una ubicación específica para registrar las transferencias fallidas.De forma predeterminada, todos los archivos defectuosos se copian de la ruta de acceso de Cloud Storage proporcionada en el campo Ruta de acceso de Cloud Storage de la replicación de datos en la interfaz web.
Patrón de ruta de acceso final de los archivos de datos defectuosos:
gs://BASE_FILE_PATH/MASS_TRANSFER_ID/SOURCE_TABLE_NAME/bad_files/REPLICATION_JOB_NAME/REPLICATION_JOB_ID/BAD_FILE_NAME
Ejemplo:
gs://slt_to_cdf_bucket/001/MARA/bad_files/MaraRepl/05f97349-7398-11ec-9443-8 ac0640fc83c/20220205_1901205168830_DATA_INIT.xml
Los criterios para determinar si un archivo es incorrecto son los siguientes: archivo en formato XML dañado o no válido, valores de PK faltantes o un problema de discrepancia de tipo de datos de campo.
Información sobre la asistencia
Productos y versiones de SAP compatibles
- Versión SAP_BASIS 702, nivel de SP 0016 y versiones posteriores
- Versión SAP_ABA 702, nivel de SP 0016 y versiones posteriores
- Versión DMIS 2011_1_700, nivel de SP 0017 y versiones posteriores
Versiones de SLT compatibles
Se admiten las versiones 2 y 3 de SLT.
Modelos de implementación de SAP compatibles
SLT como sistema independiente o incorporado en el sistema de origen.
Notas de SAP que se deben implementar antes de comenzar a usar el SLT
Si tu paquete de asistencia no incluye correcciones de la clase /UI2/CL_JSON
para PL
12 o una versión posterior, implementa la última nota de SAP para las correcciones de clase /UI2/CL_JSON
.
por ejemplo, la nota de SAP 2798102 para PL12.
Opción recomendada: Implementa las notas de SAP que recomienda el informe CNV_NOTE_ANALYZER_SLT
según la condición del sistema central o de origen. Para obtener más información, consulta la Nota 3016862 de SAP (se requiere acceso a SAP).
Si SAP ya está configurado, no se debe agregar ninguna nota adicional cuando se implementa un plan. Para ver errores o problemas específicos, consulta la nota central de SAP para tu Versión de SLT.
Límites para el volumen de datos o el ancho del registro
No hay un límite definido para el volumen de datos extraídos ni el ancho del registro.
Capacidad de procesamiento esperada para el complemento de replicación de SAP SLT
Para un entorno configurado de acuerdo con los lineamientos de Optimiza el rendimiento, el complemento puede extraer alrededor de 13 GB por hora para la carga inicial y 3 GB por hora para la replicación (CDC). El rendimiento real puede variar con la carga del sistema SAP y Cloud Data Fusion, o el tráfico de red.
Compatibilidad con la extracción de delta (datos modificados) de SAP
Se admite la extracción delta de SAP.
Obligatorio: Vinculación de inquilinos para instancias de Cloud Data Fusion
El emparejamiento de inquilinos es obligatorio cuando la instancia de Cloud Data Fusion se crea con una dirección IP interna. Para obtener más información sobre el intercambio de tráfico entre usuarios, consulta Crea una instancia privada.
Solucionar problemas
El trabajo de replicación se sigue reiniciando
Si la tarea de replicación sigue reiniciándose automáticamente, aumenta la memoria del clúster de la tarea de replicación y vuelve a ejecutarla.
Duplicados en el receptor de BigQuery
Si defines la cantidad de trabajos en paralelo en la configuración avanzada del plugin de replicación de SAP SLT, cuando tus tablas sean grandes, se producirá un error que causará columnas duplicadas en el receptor de BigQuery.
Para evitar el problema, quita los trabajos en paralelo cuando cargues datos.
Situaciones de error
En la siguiente tabla, se enumeran algunos mensajes de error comunes (el texto entre comillas se reemplazará por valores reales durante el tiempo de ejecución):
ID de mensaje | Mensaje | Acción recomendada |
---|---|---|
CDF_SAP_SLT_01402 |
Service account type is not defined for
SERVICE_ACCT_NAME_FROM_UI. |
Asegúrate de que la ruta de acceso de Cloud Storage proporcionada sea correcta. |
CDF_SAP_SLT_01403 |
Service account key provided is not valid due to error:
ROOT_CAUSE. Please provide a valid service account key for
service account type : SERVICE_ACCT_NAME_FROM_UI. |
Verifica la causa raíz que se muestra en el mensaje y toma las medidas adecuadas. |
CDF_SAP_SLT_01404 |
Mass Transfer ID could not be found. Please ensure that it exists
in given GCS Bucket. |
Verifica que el ID de transferencia masiva que se proporcionó tenga el formato correcto. |
CDF_SAP_SLT_01502 |
The specified data replication GCS path 'slt_to_cdf_bucket_1' or
Mass Transfer ID '05C' could not be found. Please ensure that it exists in
GCS. |
Asegúrate de que la ruta de acceso de Cloud Storage proporcionada sea correcta. |
CDF_SAP_SLT_01400 |
Metadata file not found. The META_INIT.json file is not present or
file is present with invalid format. |
Verifica la causa raíz que se muestra en el mensaje y toma las medidas adecuadas. |
CDF_SAP_SLT_03408 |
Failed to start the event reader. |
Comprueba la causa raíz que aparece en el mensaje y toma las medidas adecuadas acción. |
CDF_SAP_SLT_03409 |
Error while processing TABLE_NAME file for source table
gs://CLOUD_STORAGE_BUCKET_NAME/MT_ID/TABLE_NAME
/FILE_NAME. Root cause: ROOT_CAUSE. |
Comprueba la causa raíz que aparece en el mensaje y toma las medidas adecuadas acción. |
CDF_SAP_SLT_03410 |
Failed to replicate data for source table TABLE_NAME
from file: gs://CLOUD_STORAGE_BUCKET_NAME/MT_ID/
TABLE_NAME/FILE_NAME. Root cause:
ROOT_CAUSE. |
Comprueba la causa raíz que aparece en el mensaje y toma las medidas adecuadas acción. |
CDF_SAP_SLT_03411 |
Failed data replication for source table TABLE_NAME.
Root cause: ROOT_CAUSE. |
Comprueba la causa raíz que aparece en el mensaje y toma las medidas adecuadas acción. |
CDF_SAP_SLT_03412 |
Failed to create target table for source table
TABLE_NAME. Root cause: ROOT_CAUSE. |
Verifica la causa raíz que se muestra en el mensaje y toma las medidas adecuadas. |
Asignación de tipos de datos
En la siguiente tabla, se muestra la asignación entre los tipos de datos que se usan en SAP aplicaciones y Cloud Data Fusion.
Tipo de datos SAP | Tipo de ABAP | Descripción (SAP) | Tipo de datos de Cloud Data Fusion |
---|---|---|---|
Numérico | |||
INT1 | b | Número entero de 1 byte | int |
INT2 | s | Número entero de 2 bytes | int |
INT4 | i | Número entero de 4 bytes | int |
INT8 | 8 | Número entero de 8 bytes | long |
DIC | p | Número de empaque en formato BCD (DEC) | decimal |
DF16_DEC DF16_RAW |
a | Punto flotante decimal de 8 bytes IEEE 754r | decimal |
DF34_DEC DF34_RAW |
e | Punto flotante decimal de 16 bytes IEEE 754r | decimal |
FLTP | f | Número de punto flotante binario | double |
Regla | |||
CHAR LCHR |
c | String de caracteres | string |
SSTRING GEOM_EWKB |
string | String de caracteres | string |
CADENA GEOM_EWKB |
string | CLOB de string de caracteres | bytes |
NUMC ACCP |
n | Texto numérico | string |
Byte | |||
RAW LRAW |
x | Datos binarios | bytes |
STRING SIN PROCESAR | xstring | BLOB de cadena de bytes | bytes |
fecha/hora | |||
DATS | d | Fecha | date |
Tims | t | Hora | time |
TIMESTAMP | utcl | ( Utclong ) TimeStamp |
timestamp |
¿Qué sigue?
- Obtén más información sobre Cloud Data Fusion.
- Obtén más información sobre SAP en Google Cloud.