Guía de planificación de BigQuery Connector para SAP

En esta guía de planificación, se proporciona a los administradores de SAP y Google Cloud la información que necesitan para planificar la replicación de los datos de SAP en BigQuery a través de la versión 2.6 (la más reciente) de BigQuery Connector for SAP con SAP LT Replication Server.

BigQuery Connector para SAP se instala en SAP Landscape Transformation Replication Server (SAP LT Replication Server) y permite la replicación casi en tiempo real de los datos de SAP de forma directa a BigQuery.

Con tus datos en BigQuery, puedes realizar análisis en tiempo real con inteligencia artificial o aprendizaje automático en datos de aplicaciones en vivo de SAP. En BigQuery, también puedes integrar tus datos de SAP en datos de otras fuentes.

En esta guía, se abarcan los siguientes temas:

Si deseas obtener instrucciones paso a paso para instalar y configurar SAP LT Replication Server con la replicación de BigQuery para SAP, consulta la guía de instalación y configuración de BigQuery Connector para SAP.

Para obtener información sobre BigQuery, consulta ¿Qué es BigQuery?

Si deseas obtener información sobre los aceleradores de soluciones para el modelado de datos de SAP en BigQuery, consulta Google Cloud Cortex Framework.

Descripción general de BigQuery Connector para SAP

BigQuery Connector para SAP usa las interfaces y capacidades estándar de SAP Landscape Transformation Replication Server y admite todas las fuentes de datos que admite SAP LT Replication Server.

Google Cloud proporciona BigQuery Connector para SAP en forma de archivos de transporte que debes instalar en SAP LT Replication Server.

Descarga el paquete de instalación que contiene los archivos de transporte antes de poder instalar BigQuery Connector para SAP. Aunque BigQuery Connector para SAP se ofrece sin costo en este momento, necesitas una cuenta de Facturación de Cloud para recibir el paquete de instalación. Para obtener más información, consulta Descarga el paquete de instalación.

BigQuery Connector para SAP es una implementación de Google Cloud de un complemento empresarial (BAdI) de SAP para SAP LT Replication Server. Google Cloud desarrolla BigQuery Connector para SAP a través del proceso del SDK de SAP LT Replication Server.

BigQuery Connector para SAP aprovecha la funcionalidad de captura de datos modificados de SAP LT Replication Server.

Procesamiento de datos

BigQuery Connector para SAP envía los registros de SAP de forma directa a BigQuery desde SAP LT Replication Server sin ninguna capa de integración de datos intermedia ni herramientas.

Cuando recibe los registros, BigQuery los agrega a la tabla en un modo de solo inserción. Si BigQuery recibe una actualización de un registro que ya existe en la tabla de BigQuery, BigQuery inserta una instancia nueva del registro en esa tabla sin modificar la instancia existente. La instancia del registro que se insertó de forma más reciente refleja el estado actual del registro en la tabla de origen.

BigQuery Connector para SAP solo permite una transformación de datos mínima, lo que cumple con un modelo de extracción, carga y transformación (ELT), en lugar de un modelo de extracción, transformación y carga (ETL). Para obtener más información sobre estos modelos, consulta Procedimientos y patrones para canalizaciones de datos.

BigQuery Connector para SAP sugiere de forma automática los campos, los nombres de campo y los tipos de datos para la tabla de destino según los datos de origen. Antes de crear la tabla de BigQuery de destino, puedes modificar los valores sugeridos según sea necesario.

Los nombres sugeridos para los campos de destino se basan en las descripciones de los campos de la tabla de origen. Si deseas obtener más información, consulta Opciones de nombres predeterminados para campos.

Aunque BigQuery Connector para SAP sugiere de forma automática los tipos de datos de BigQuery para la mayoría de los campos, los valores booleanos, de marca de tiempo y hexadecimales no se pueden interpretar de forma automática, por lo que debes asignarlos de forma manual. Para obtener más información, consulta Asignación de tipos de datos.

BigQuery Connector para SAP proporciona varios puntos de mejora en los que puedes insertar tus propias mejoras personalizadas en el código de BigQuery Connector para SAP. Para obtener más información, consulta Salidas de mejoras.

Si una tabla de destino aún no existe en BigQuery, se crea una con BigQuery Connector para SAP.

Después de que empiece la replicación, los registros de SAP se agregan a BigQuery en modo de solo inserción.

Seguridad

Puedes controlar el acceso a BigQuery Connector para SAP en SAP LT Replication Server a través del sistema de autorización basado en roles de SAP LT Replication Server. Cuando instalas BigQuery Connector para SAP, los archivos de transporte incluyen roles personalizados de BigQuery Connector para SAP. Para obtener más información sobre los roles personalizadas, consulta Seguridad de SAP.

Puedes controlar el acceso a Google Cloud y BigQuery a través de la autenticación y la autorización de la administración de identidades y accesos y la autenticación de la API de BigQuery. Para obtener más información, consulta Seguridad de Google Cloud.

Para la comunicación entre BigQuery Connector para SAP y BigQuery, BigQuery Connector para SAP usa la comunicación HTTPS de extremo a extremo y SSL.

Para obtener información de SAP sobre la autorización, consulta la Guía de seguridad para la versión de SAP LT Replication Server en el Portal de ayuda de SAP.

Escalabilidad

En volúmenes muy grandes, como miles de millones de registros de datos con millones de deltas, BigQuery Connector para SAP usa funciones de escalamiento y de partición de SAP LT Replication Server para paralelizar la extracción de datos a gran escala. Para obtener más información, consulta la Guía de tamaño de tu versión de SAP LT Replication Server en el Portal de ayuda de SAP.

En BigQuery, BigQuery Connector para SAP usa la API de transmisión de BigQuery para escalar la carga de datos.

Arquitectura de instalación

Instala BigQuery Connector para SAP como un complemento empresarial (BAdI) dentro de una instancia de SAP LT Replication Server.

La instancia de SAP LT Replication Server puede estar en Google Cloud, en un entorno local o en otro proveedor de servicios en la nube. Donde sea que se ejecute SAP LT Replication Server, debe estar lo más cerca posible del sistema de origen. Trabaja con tu equipo de redes para garantizar una latencia baja y una capacidad de procesamiento alta entre el sistema SAP de origen, SAP LT Replication Server y el conjunto de datos de BigQuery.

En las siguientes secciones, se describen las arquitecturas comunes recomendadas para BigQuery Connector para SAP.

Arquitectura para fuentes de datos de SAP en Google Cloud

En el siguiente diagrama, se muestran dos ejemplos de instalaciones de SAP LT Replication Server en Google Cloud con la fuente de datos de SAP en Google Cloud.

Para mostrar un ejemplo de cada arquitectura, una instalación usa una arquitectura independiente de SAP LT Replication Server, en la que SAP LT Replication Server se instala en un servidor independiente y la otra usa una arquitectura incorporada de SAP LT Replication Server, en la que SAP LT Replication Server se instala en el servidor del sistema de origen SAP.

Debido a que las instancias de SAP LT Replication Server se instalan en Google Cloud, BigQuery Connector para SAP se conecta de forma directa al extremo de API de BigQuery sin necesidad de una conexión de Cloud Interconnect o Cloud VPN.

En el diagrama, los sistemas SAP y BigQuery se muestran en diferentes proyectos de Google Cloud, pero puedes usar el mismo proyecto para ambos, si es necesario.

El diagrama se describe en el texto anterior

Arquitectura para fuentes de datos de SAP locales o en otro proveedor de servicios en la nube

En el siguiente diagrama, se muestran dos ejemplos de instalaciones de SAP LT Replication Server que se ejecutan de forma local o en otro proveedor de servicios en la nube.

Para mostrar un ejemplo de cada arquitectura, una instalación usa una arquitectura independiente de SAP LT Replication Server y la otra usa una arquitectura incorporada de SAP LT Replication Server.

En ambos ejemplos, SAP LT Replication Server se instala en el mismo entorno que la fuente de datos de SAP.

La conexión de BigQuery Connector para SAP en SAP LT Replication Server a BigQuery se proporciona a través de una conexión de Cloud Interconnect o Cloud VPN.

El diagrama se describe en el texto anterior

Vista detallada de la arquitectura del flujo de datos

En el siguiente diagrama, se muestra dónde BigQuery Connector para SAP se ajusta al flujo de datos de SAP LT Replication Server.

Los números del diagrama se explican después del diagrama.

El diagrama se describe en el texto anterior

Las siguientes explicaciones numeradas corresponden a los números del diagrama:

  1. Después de inicializar SAP LT Replication Server, cuando se insertan, actualizan o borran registros en las tablas de origen, el activador de la base de datos registra los cambios en las tablas de registro.
  2. SAP LT Replication Server comprueba de forma continua las tablas de registro en busca de entradas nuevas a través de llamadas RFC.
  3. Si SAP LT Replication Server encuentra entradas nuevas, el motor de lectura lee los registros y llama al motor de asignación y transformación.
  4. El motor de asignación y transformación llama al motor de escritura, que invoca BigQuery Connector para SAP.
  5. BigQuery Connector para SAP realiza las siguientes acciones:
    1. Asigna los datos de SAP al nombre, los nombres de campo y los tipos de datos de BigQuery de la tabla de destino.
    2. Crea la tabla de BigQuery, si es necesario.
    3. Envía los registros a BigQuery en fragmentos a través de la API de transmisión de BigQuery.
  6. Cuando recibe los datos, BigQuery realiza las siguientes acciones:
    1. Realiza verificaciones de validación.
    2. Inserta los registros en la tabla de destino.
    3. Envía un código de estado HTTP 200 (OK) a BigQuery Connector para SAP.
  7. BigQuery Connector para SAP pasa el código de estado HTTP OK a SAP LT Replication Server, que borra las entradas replicadas de la tabla de registro y libera recursos en el sistema de origen SAP.

Requisitos de software

En esta sección, se describen los requisitos de software para BigQuery Connector para SAP.

Puedes instalar BigQuery Connector para SAP en SAP LT Replication Server en Google Cloud, en entornos locales o en nubes públicas, como AWS, Azure, etcétera.

Requisitos de versiones de software de SAP

Las versiones requeridas de SAP LT Replication Server y los sistemas de origen de SAP difieren según si instalas SAP LT Replication Server en su propio servidor en una arquitectura independiente o dentro del sistema de aplicaciones de origen ABAP en una arquitectura incorporada.

Los requisitos del software de SAP también son diferentes según el sistema de SAP que uses como fuente de datos: SAP S/4HANA o SAP ECC.

Para ver las versiones de software de SAP con las que Google Cloud admite BigQuery Connector para SAP, selecciona la pestaña que corresponda a tu sistema de origen de SAP:

S/4HANA

Arquitectura de instalación Sistema Versiones compatibles Complemento de la interfaz de usuario (IU)
Independiente Sistema de origen
  • NetWeaver 7.5 o versiones posteriores, o cualquier versión de Plataforma ABAP.

    Para asegurarte de que las versiones de DMIS en los sistemas de origen y destino sean compatibles, consulta Nota de SAP 2577774.

  • Complemento de SLT: DMIS 2011 SP15, DMIS 2018 SP00, DMIS 2020 o cualquier versión de S4CORE.

El componente SAP_UI debe ser compatible con tu versión de SAP NetWeaver.

/UI2/CL_JSON: PL12 o versión posterior.

Para obtener información sobre la compatibilidad de complementos de SAP, consulta los siguientes vínculos:

SAP LT Replication Server
  • NetWeaver 7.0 (con EHP2) o posterior o cualquier versión de la Plataforma ABAP.
  • Complemento de SLT: DMIS 2011 SP15 o posterior, DMIS 2018 SP00 o posterior, DMIS 2020 SP00 o posterior.
Incorporados Sistema de origen
  • NetWeaver 7.5 o versiones posteriores, o cualquier versión de la Plataforma ABAP.
  • Complemento de SLT: DMIS 2011 SP15 o posterior, DMIS 2018 SP00 o posterior, DMIS 2020 o posterior, o cualquier versión de S4CORE.

ECC

Arquitectura de instalación Sistema Versiones compatibles Complemento de la interfaz de usuario (IU)
Independiente Sistema de origen
  • NetWeaver 7.0 (con EHP2) o posterior.

    Para asegurarte de que las versiones de DMIS en los sistemas de origen y destino sean compatibles, consulta Nota de SAP 2577774.

    Si las versiones de DMIS son compatibles, puedes usar versiones anteriores de ECC.

  • Complemento de SLT: DMIS 2011 SP15 o posterior, o DMIS 2018 SP00 o posterior.

El componente SAP_UI debe ser compatible con tu versión de SAP NetWeaver.

/UI2/CL_JSON: PL12 o versión posterior.

Para obtener información sobre la compatibilidad de complementos de SAP, consulta los siguientes vínculos:

SAP LT Replication Server
  • NetWeaver 7.0 (con EHP2) o posterior.
  • Complemento de SLT: DMIS 2011 SP15 o posterior, o DMIS 2018 SP00 o posterior.
Incorporados Sistema de origen
  • NetWeaver 7.0 (con EHP2) o posterior.
  • Complemento de SLT: DMIS 2011 SP15 o posterior, o DMIS 2018 SP00 o posterior.

Requisitos del sistema operativo

BigQuery Connector para SAP es compatible con cualquier sistema operativo compatible con SAP LT Replication Server.

Para obtener información sobre los sistemas operativos que admite SAP LT Replication Server, consulta Matriz de disponibilidad del producto de SAP.

Fuentes de replicación compatibles

BigQuery Connector para SAP admite la mayoría de los sistemas de origen de aplicaciones y bases de datos de uso común compatibles con SAP LT Replication Server.

Fuentes compatibles de aplicaciones de SAP

Puedes replicar datos de las fuentes de la aplicación de SAP que admite SAP LT Replication Server. BigQuery Connector para SAP admite las principales versiones de aplicaciones empresariales en mantenimiento como fuentes de datos, así como aplicaciones heredadas más antiguas. Algunas de las aplicaciones de SAP compatibles son las siguientes:

  • SAP Business Suite 7
  • S/4HANA
  • Aplicaciones SAP que se ejecutan en SAP NetWeaver

Para replicar datos de SAP Business Warehouse, SAP recomienda no usar SAP LT Replication Server. Para obtener más información de SAP, consulta la Nota SAP 2525755.

Las aplicaciones SAP Cloud, como S/4HANA Cloud, SAP Ariba, SAP SuccessFactors y otras no son compatibles.

Fuentes de datos compatibles

Solo puedes replicar tablas transparentes o de clúster.

BigQuery Connector para SAP no admite las vistas de SAP Core Data Services (CDS) de replicación.

En la herramienta de diseño de la información, BigQuery es compatible a partir de SAP BusinessObjects Business Intelligence 4.3 como fuente de datos. Puedes consultar datos almacenados en BigQuery desde las herramientas de informes de SAP BusinessObjects, como SAP BusinessObjects Web Intelligence y SAP Crystal Reporting para Enterprise, entre otras.

Para obtener más información sobre la nota de SAP 2750723: Asistencia de Google BigQuery en productos de la plataforma SAP BI, verifica la compatibilidad.

Seguridad

Cuando implementas la seguridad para la replicación de datos de SAP LT Replication Server a BigQuery, debes implementar controles de seguridad en SAP LT Replication Server, el sistema operativo host de SAP LT Replication Server y Google Cloud.

Seguridad de SAP

Para controlar quién puede configurar y trabajar con BigQuery Connector para SAP en SAP LT Replication Server, usa la autorización estándar basada en roles de SAP.

BigQuery Connector para SAP proporciona el objeto de autorización ZGOOG_MTID como parte de la instalación del transporte.

Para configurar y ejecutar trabajos de replicación de datos que usan BigQuery Connector para SAP, puedes definir un rol que tenga acceso de administrador dentro de SAP LT Replication Server, como se describe en Crea roles y autorizaciones de SAP para BigQuery Connector para SAP.

Por ejemplo, puedes definir un rol llamado ZGOOGLE_BIGQUERY_ADMIN que tenga todas las autorizaciones de SAP y las autorizaciones ZGOOG_MTID necesarias para configurar y operar la replicación de datos en BigQuery a través de BigQuery Connector para SAP

Para obtener más información de SAP sobre los roles y la autorización, consulta la Guía de seguridad de la versión de SAP LT Replication Server en el Portal de ayuda de SAP.

Seguridad de Google Cloud

La implementación de la seguridad en Google Cloud para BigQuery Connector para SAP puede incluir los siguientes controles de seguridad:

  • Permisos, roles, cuentas de servicio y claves de la administración de identidades y accesos (IAM).
  • Controles de BigQuery que se establecen a nivel del conjunto de datos o de la tabla.
  • Controles del servicio de nube privada virtual (VPC) para servicios basados en API, como BigQuery.
  • Extremos de Private Service Connect que permiten el consumo privado de servicios, como BigQuery, en redes de VPC.

Google Cloud Identity and Access Management

Para la autenticación y autorización de BigQuery Connector para SAP, necesitas una cuenta de servicio de IAM en el proyecto de Google Cloud que contiene el conjunto de datos de BigQuery.

Para obtener autorización para interactuar con los recursos de BigQuery, debes otorgar roles a la cuenta de servicio que contiene permisos para interactuar con BigQuery en el proyecto de BigQuery.

Si creas la cuenta de servicio en el proyecto de BigQuery, puedes otorgar las funciones necesarias cuando creas la cuenta de servicio y esta se convierte un principal en el proyecto de BigQuery automáticamente.

Los permisos que BigQuery Connector para SAP necesita para acceder a BigQuery se encuentran en los siguientes roles de IAM:

  • Editor de datos de BigQuery
  • Usuario de trabajo de BigQuery

Si SAP LT Replication Server se ejecuta en una VM de Compute Engine, también debes otorgar la función de creador de tokens de cuenta de servicio a la cuenta de servicio de la VM del host.

Si SAP LT Replication Server se ejecuta de forma local o en otra plataforma en la nube, además de crear una cuenta de servicio, debes crear una clave de cuenta de servicio para BigQuery Connector para SAP. Tu administrador de SAP instala la clave en el host de SAP LT Replication Server. Cuando BigQuery Connector para SAP se conecta a BigQuery, SAP LT Replication Server usa la clave de cuenta de servicio para autenticarse con Google Cloud.

No se requiere una clave de cuenta de servicio cuando SAP LT Replication Server se ejecuta en Google Cloud.

Para obtener más información sobre IAM, las cuentas de servicio, los roles y los permisos, consulta los siguientes documentos:

Controles de acceso a tablas y conjuntos de datos de BigQuery

Además de los controles de IAM, también puedes controlar el acceso a través de BigQuery. En BigQuery Connector para SAP, puedes establecer controles de acceso en conjuntos de datos y tablas.

Para obtener más información, consulte:

Controles del servicio de VPC

En Google Cloud, las reglas de firewall de VPC no son aplicables a las interacciones basadas en API con BigQuery. En su lugar, puedes usar los Controles del servicio de nube privada virtual (VPC) para restringir el tráfico.

Si tu carga de trabajo de SAP se ejecuta en Google Cloud, puedes implementar controles de servicios de VPC si defines perímetros de servicio. Para obtener más información, consulta Perímetros de servicio.

Si tu carga de trabajo de SAP no se ejecuta en Google Cloud, puedes implementar controles del servicio de VPC como parte de la configuración del Acceso privado a Google para hosts locales.

Si deseas obtener más información sobre la seguridad de la red de BigQuery, consulta Seguridad de red.

Extremos de Private Service Connect

Si deseas configurar extremos en tu red de VPC que permitan el consumo privado de servicios administrados por Google, como BigQuery, puedes usar Private Service Connect.

Private Service Connect te permite crear extremos privados que usan direcciones IP internas de un rango de CIDR de VPC para acceder a los servicios y las APIs de Google. También puedes usar Private Service Connect para crear un nombre de DNS privado personalizado para la API de transmisión de BigQuery. Para obtener más información, consulta Private Service Connect.

BigQuery Connector para SAP que se ejecuta en un host fuera de Google Cloud no es compatible con Private Service Connect.

Más información sobre la seguridad de Google Cloud

Para obtener más información sobre las cuentas de seguridad, los roles y los permisos, consulta los siguientes documentos:

Redes

Cuando planifiques la ruta de acceso de la red para la replicación en BigQuery, ten en cuenta los siguientes puntos:

  • Ancho de banda
  • La latencia y su impacto en el consumo de recursos en el host de SAP LT Replication Server
  • El volumen de datos y su impacto en cualquier carga de red existente
  • Si tu carga de trabajo de SAP no se ejecuta en Google Cloud, qué tipo de conexión usar: Cloud Interconnect o Cloud VPN

Conéctate a Google Cloud

Si tus sistemas SAP no se ejecutan en Google Cloud y aún no tienes una conexión de tus sistemas SAP a Google Cloud, debes establecer una conexión y configurar el acceso privado a las APIs de Google Cloud.

Puedes establecer una conexión con Google Cloud a través de Cloud Interconnect o Cloud VPN.

Por lo general, Cloud Interconnect proporciona un mayor ancho de banda, una latencia más baja y una contención de red menor que Cloud VPN. En trabajos de replicación sensibles al rendimiento y de gran volumen, Google Cloud recomienda Cloud Interconnect para BigQuery Connector para SAP.

Con Cloud VPN, tus datos de replicación viajan a través de la Internet pública, por lo que la contención de red es menos predecible y las latencias suelen ser más altas.

Sin importar la opción de conexión que elijas, debes revisar todo el tráfico que esperas que admita la conexión. Determina si la conexión tiene suficiente ancho de banda y velocidad de red para admitir los trabajos de replicación y cualquier otra carga de trabajo sin afectar de manera negativa.

Las conexiones lentas pueden aumentar el consumo de recursos en el servidor de origen de SAP y el host de SAP LT Replication Server a través de la extensión del tiempo que les lleva a los trabajos de recursos completarse, lo que mantiene los recursos necesarios para la replicación vinculada por períodos más largos.

Para obtener más información sobre tus opciones de conexión, haz lo siguiente:

Para usar un servidor proxy para enviar las solicitudes HTTP a Google Cloud, te recomendamos que uses destinos RFC definidos en la transacción SM59.

Destinos de RFC

Los archivos de transporte de BigQuery Connector para SAP contienen los siguientes destinos de RFC de muestra en la transacción SM59. Estos destinos de RFC son conexiones HTTP a servidores externos (tipo G) y se conectan al extremo de API pública del servicio correspondiente.

Nombre de destino de RFC de muestra Host del destino (extremo de API) Notas
GOOG_BIGQUERY https://bigquery.googleapis.com Este destino de RFC se orienta a la API de BigQuery.
GOOG_IAMCREDENTIALS https://iamcredentials.googleapis.com Este destino de RFC se orienta a la API de IAM.
GOOG_OAUTH2_TOKEN https://googleapis.com/oauth2 Este destino de RFC se orienta al extremo de Google Cloud para la autenticación basada en OAuth 2.0. Debes usarlo para las cargas de trabajo de SAP que se ejecutan fuera de Google Cloud y solo cuando deseas autenticarte en Google Cloud a través del token web JSON (JWT).

El uso de destinos RFC para conectarse a Google Cloud ofrece las siguientes ventajas:

  • Si usas un servidor proxy en tu entorno de SAP y deseas usar el mismo para enviar las solicitudes HTTP a Google Cloud, puedes configurar el servidor proxy en el destino de RFC.

  • Si deseas habilitar el acceso a los servicios y las APIs de Google Cloud a través de extremos de Private Service Connect, puedes crear esos extremos en tu proyecto de Google Cloud y, luego, especificarlos en tus destinos de RFC.

  • Puedes usar la compresión HTTP, que Google Cloud recomienda para las replicaciones entre regiones, en las que el sistema de origen SAP y el conjunto de datos de BigQuery se colocan en diferentes regiones de Compute Engine.

Si quieres usar destinos RFC para conectarte a los servicios o las APIs de Google Cloud, debes crear entradas en la tabla /GOOG/SERVIC_MAP que asignen los destinos RFC a la tabla /GOOG/CLIENT_KEY. Si deseas conocer los pasos de configuración, consulta la guía de instalación y configuración de BigQuery Connector para SAP para tu situación.

Compresión HTTP

Cuando usas los destinos de RFC para configurar la conexión entre las APIs de BigQuery Connector para SAP y Google Cloud, puedes usar la opción Compresión para comprimir el cuerpo de la solicitud HTTP. La compresión de HTTP solo está disponible cuando configuras los destinos de RFC para que usen HTTP 1.1.

Antes de habilitar la compresión HTTP en tu entorno de producción, analiza los parámetros de perfil que afectan la compresión HTTP en un entorno de prueba. Para obtener más información desde SAP, consulta la Nota 1037677 de SAP: la compresión HTTP solo comprime ciertos documentos.

Ancho de banda

Asegúrate de que la conexión de red entre SAP LT Replication Server y BigQuery tenga suficiente ancho de banda para admitir el volumen de datos a la velocidad que necesitas.

Las conexiones de red más lentas aumentan la latencia de la replicación de datos, lo que aumenta los recursos que la replicación usa en el sistema SAP de origen.

Para instalaciones productivas, Google Cloud recomienda una conexión de Cloud Interconnect. También puedes usar Cloud VPN.

Latencia

Para reducir la latencia sobre la conexión de red, crea tu conjunto de datos de destino de BigQuery lo más cercano posible al sistema SAP LT Replication Server y al sistema fuente de SAP. Si el sistema SAP de origen se ejecuta en Google Cloud, crea el conjunto de datos de BigQuery en la misma región de Google Cloud que el sistema SAP de origen.

Prueba la latencia antes de migrar la instalación a un entorno de producción.

Para obtener más información sobre el rendimiento de la red, consulta Rendimiento de la conexión de red.

Controles de acceso a la red

Puedes implementar controles de acceso a la red en ambos lados de la conexión entre SAP LT Replication Server y Google Cloud.

Controles de acceso a la red de Google Cloud

BigQuery Connector para SAP se comunica con BigQuery a través de un extremo de API, que no está sujeto a las reglas de firewall de VPC de Google Cloud.

En su lugar, usa Controles del servicio de VPC para restringir el tráfico.

Si deseas obtener más información sobre la seguridad de la red de BigQuery, consulta Seguridad de red.

Controles de acceso a la red del host de SAP LT Replication Server

En el host de SAP LT Replication Server, debes asegurarte de que los firewalls o proxies permitan el tráfico de salida desde el servidor al extremo de API de BigQuery. En específico, SAP LT Replication Server debe poder acceder a las siguientes APIs de Google Cloud:

  • https://bigquery.googleapis.com
  • https://iamcredentials.googleapis.com

Si deseas usar extremos de Private Service Connect para acceder a la API de transmisión de BigQuery, debes asegurarte de configurar los extremos de Private Service Connect en la tabla /GOOG/SERVIC_MAP. Si deseas obtener más información, consulta la guía de instalación y configuración de tu situación.

Planificación del rendimiento

El rendimiento de las cargas iniciales y los trabajos de replicación entre SAP LT Replication Server y BigQuery se ve afectado por varios factores en diferentes puntos de la ruta de replicación.

Sin embargo, ciertos factores básicos, como la distancia entre SAP LT Replication Server y el conjunto de datos de BigQuery o el ancho de banda de la conexión a Google Cloud, tienen un mayor impacto en el rendimiento que la mayoría de los demás factores.

Prácticas recomendadas para el rendimiento general

Para obtener el mejor rendimiento, incorpora las siguientes recomendaciones en la configuración de SAP LT Replication Server:

  • Ejecuta tu carga de trabajo de SAP, incluido el sistema de origen SAP y SAP LT Replication Server, en Google Cloud.
  • Si tu carga de trabajo de SAP está en Google Cloud, crea tu conjunto de datos de BigQuery en la misma región que tu carga de trabajo de SAP.
  • Si no puedes ejecutar tu carga de trabajo de SAP en Google Cloud, haz lo siguiente:
    • Crea tu conjunto de datos de BigQuery en la región de Google Cloud más cercana a tu carga de trabajo de SAP.
    • Conéctate a Google Cloud a través de Cloud Interconnect.
  • Para evitar la contención de recursos, usa hosts dedicados independientes para el sistema de origen SAP y SAP LT Replication Server.
  • Ajusta el tamaño del sistema SAP LT Replication Server de forma óptima para tu carga de trabajo según la Guía de tamaño de la versión de SAP LT Replication Server en el Portal de ayuda de SAP.
  • Usa la siguiente configuración de replicación de SAP LT Replication Server:
  • Configura BigQuery Connector para SAP con lo siguiente:
    • Compresión de registro predeterminada.
    • Default chunk size.
  • Cuando asignes campos a tu tabla de BigQuery, evita los nombres personalizados, si es posible.

Para obtener más información, consulte:

Características adicionales que pueden afectar el rendimiento

Muchas características de la configuración y los datos pueden afectar el rendimiento. Es posible que no puedas modificar algunas de estas características. Estas características incluyen lo siguiente:

  • En el servidor de origen:
    • La cantidad de CPU.
    • La cantidad de memoria.
    • La base de datos que se usa, como SAP HANA, SAP ASE, IBM Db2 o alguna otra.
    • La cantidad de columnas en la tabla fuente.
    • La cantidad de datos que contiene cada registro.
    • Los metadatos de la tabla, como la longitud de los nombres de campo.
    • La cantidad de procesos de trabajo de diálogo.
  • En SAP LT Replication Server, haz lo siguiente:
    • La cantidad de CPU.
    • La cantidad de memoria.
    • Otras cargas de trabajo en las que el host podría estar en ejecución.
    • Cuadro de diálogo de SAP y procesos de trabajo en segundo plano.
    • El tipo de arquitectura de instalación de SAP LT Replication Server. Para obtener más información, consulta Instalación independiente (recomendado) o incorporada de SAP LT Replication Server.
    • La cantidad de trabajos en segundo plano que se ejecutan en el sistema SAP LT Replication Server
    • La cantidad de trabajos en segundo plano que se asignan a la transferencia masiva en la pestaña Administración de la transacción LTRC.
    • La configuración de rendimiento de la transacción LTRS, incluidos Tipo de lectura y Tamaño de la parte.
  • En la configuración de la replicación de BigQuery (transacción /GOOG/SLT_SETTINGS):
    • Si se especifican o no nombres personalizados para los campos de destino. El procesamiento de los nombres de campo de BigQuery de destino puede tener un ligero impacto en el rendimiento.
    • Si la compresión de registro está habilitada.
    • BigQuery Connector para SAP Chunk Size, que puede afectar la cantidad total de solicitudes HTTP enviadas.

Consideraciones sobre el rendimiento de SAP LT Replication Server

En las siguientes secciones, se analizan las opciones de rendimiento relacionadas con la configuración de SAP LT Replication Server.

Rendimiento y arquitectura de instalación de SAP LT Replication Server

Una arquitectura independiente, en la que SAP LT Replication Server se instala en su propio servidor dedicado, suele proporcionar un mejor rendimiento que una arquitectura incorporada, en la que SAP LT Replication Server se instala en el mismo servidor que el sistema de origen.

En una arquitectura incorporada, SAP LT Replication Server debe compartir los recursos del servidor con el sistema de origen SAP.

Incluso con una arquitectura independiente, la CPU y la memoria del host, así como cualquier otra carga de trabajo que pueda ejecutarse en el servidor, pueden afectar el rendimiento de una instancia de SAP LT Replication Server.

El rendimiento y la configuración avanzada de la replicación de LTRS

El rendimiento de las cargas iniciales y la replicación se ven afectados por la configuración que especificas para la tabla de origen en la transacción LTRS en Configuración de replicación avanzada.

Si deseas obtener orientación sobre el ajuste del rendimiento, en especial para optimizar las cargas iniciales o la replicación de alto volumen, consulta la Guía de optimización del rendimiento de SAP LT Replication Server en el Portal de ayuda de SAP. .

Google Cloud recomienda las siguientes especificaciones en la sección Configuración avanzada de la replicación > Rendimiento general de la transacción LTRS:

Para cargas iniciales desde la mayoría de los tipos de tablas, especifica 1 Cálculo de rango como Tipo de lectura. En el caso de las tablas que son demasiado grandes para el Cálculo del rango de 1 rango, especifica el Tipo de lectura 5.

En el caso de las replicaciones, en Configuración activa:

  • Para las replicaciones más rápidas, especifica Rangos automáticos.
  • Para obtener replicaciones más confiables, especifica Sin rangos.

En la siguiente tabla, se sugiere una configuración para algunas situaciones comunes.

Tipo de tabla Tipo de lectura recomendado
Transparente (pequeña a mediana) Lectura de tipo 1: cálculo de rangos
Transparente (grande) Solo si la lectura del tipo 1 no funciona, lee el tipo 5: cálculo del rango
Tabla del clúster Lectura tipo 4: cola de remitentes

Rendimiento de la conexión de red

El ancho de banda y la latencia de la conexión entre el sistema SAP LT Replication Server y BigQuery puede afectar el rendimiento general de la replicación en BigQuery.

El impacto afecta no solo la velocidad de replicación, sino también la cantidad de recursos que consume SAP LT Replication Server y el sistema de origen, ya que tarda más en recibir la confirmación de la replicación desde BigQuery. SAP LT Replication Server y el sistema de origen contienen los recursos del host.

Si tu carga de trabajo de SAP se ejecuta de forma local o en otro proveedor de servicios en la nube, Google Cloud recomienda usar una conexión de Cloud Interconnect, que proporciona alto ancho de banda y baja latencia sin tener que competir con el tráfico en la Internet pública.

Sin embargo, puedes usar Cloud VPN para conectarte a Google Cloud y BigQuery, con una conexión de VPN, las replicaciones deben competir con el tráfico general de Internet.

Si tu carga de trabajo de SAP se ejecuta en Google Cloud, Google Cloud recomienda ubicar SAP LT Replication Server y el conjunto de datos de BigQuery en la misma región. Si SAP LT Replication Server y BigQuery están en regiones diferentes, la latencia suele ser más alta y el rendimiento suele ser peor. Si deseas obtener más información para elegir una región, consulta Elige una región y una zona.

Transmisión de datos

Por lo general, deseas enviar la mayor cantidad de datos posible en cada solicitud HTTP para reducir la cantidad general de solicitudes HTTP y la sobrecarga de procesamiento relacionada.

Sin embargo, en algunos casos, es posible que debas reducir la cantidad de datos enviados, ya sea debido al tamaño de los registros de una tabla en particular o porque alcanzas un límite de cuota o cualquier otro límite en BigQuery.

Puedes controlar la cantidad de datos que se envían en cada solicitud de las siguientes maneras:

  • Ajusta la cantidad de datos (el tamaño de la parte) que SAP LT Replication Server envía a BigQuery Connector para SAP.
  • Ajusta la cantidad de datos (el tamaño del fragmento) que BigQuery Connector para SAP envía a BigQuery.
  • Ajusta las cuotas para las inserciones de transmisión en tu proyecto de BigQuery.

Ajusta la cantidad de datos que envía SAP LT Replication Server

SAP LT Replication Server envía registros del sistema de origen a BigQuery Connector para SAP en porciones. Cada parte se maneja como un trabajo de carga o replicación independiente que consume recursos del servidor hasta que se completa.

Por lo general, si aumentas el tamaño de la parte de SAP LT Replication Server, disminuirás la cantidad de procesos de SAP LT Replication Server, así como la sobrecarga asociada a ellos.

Tamaño de la porción y tamaño del fragmento

El tamaño de las porciones de SAP LT Replication Server se expresa en bytes o como un producto de bytes y registros. El tamaño de los fragmentos de BigQuery Connector para SAP se calcula según la cantidad de registros que pueden contener. El tamaño en bytes de un fragmento cambia según varios factores, incluida la cantidad de campos en los registros y la cantidad de datos que contiene cada registro.

Si el tamaño de la parte de SAP LT Replication Server es mayor que el conector de BigQuery para el tamaño de fragmento de SAP, BigQuery Connector para SAP envía varios fragmentos para cada parte hasta que se envíen todos los registros de la parte.

Si el tamaño de la parte es más pequeño que el tamaño del fragmento, BigQuery Connector para SAP envía solo un fragmento por parte. Cada fragmento contiene solo la cantidad de registros enviados en cada parte, sin importar el tamaño del fragmento configurado en BigQuery Connector para SAP.

Lo ideal es que el tamaño de la parte en SAP LT Replication Server permita que BigQuery Connector para SAP cree los fragmentos más grandes posibles sin exceder el límite de BigQuery en la cantidad de bytes de cada solicitud HTTP.

Si deseas obtener más orientación sobre cómo especificar un tamaño de fragmento, consulta Tamaño de fragmentación en BigQuery Connector para SAP.

Tamaño de la parte en SAP LT Replication Server

Para cambiar el tamaño de la parte predeterminada que usa SAP LT Replication Server, ejecuta la transacción LTRS y ajusta el valor en el campo Tamaño del paquete en Configuración avanzada de la replicación en Opciones de rendimiento.

Para obtener más información, consulta la Guía de optimización del rendimiento de SAP LT Replication Server en el Portal de ayuda de SAP.

Tamaño de fragmento en BigQuery Connector para SAP

BigQuery Connector para SAP envía datos a BigQuery como fragmentos de registros. Te recomendamos que uses el tamaño de fragmento predeterminado con BigQuery Connector para SAP, que es de 10,000 registros. Si los registros de una tabla de origen contienen muy pocos campos o los campos contienen valores de datos de tamaño muy pequeño, puedes usar un tamaño de fragmento más grande hasta el tamaño máximo de fragmento que permite BigQuery Connector para SAP, que es 50,000 registros.

Si la cantidad de registros en un fragmento determinado se resuelve en un tamaño de bytes que supera el límite de BigQuery en el tamaño de bytes para las solicitudes HTTP, es posible que recibas un error quotaExceeded o un error invalid.

Esto puede suceder si los registros en una tabla de origen contienen muchos campos o los campos contienen muchos datos.

Si obtienes un error relacionado con el tamaño del fragmento, intenta reducir el tamaño del fragmento que se especifica en la configuración de transferencia masiva para esa tabla. De manera alternativa, puedes habilitar el tamaño de fragmento dinámico para que esa tabla ajuste automáticamente el tamaño de fragmento. Para obtener más información, consulta Tamaño de fragmento dinámico.

Si no habilitaste el tamaño de fragmento dinámico, las tablas de origen de SAP, como MSEG, ACDOCA y MATDOC, que pueden tener registros grandes con muchos campos por registro, es posible que debas especificar un tamaño de fragmento tan bajo como 2,000.

Para especificar el tamaño de un fragmento, ejecuta la transacción /GOOG/SLT_SETTINGS. El tamaño del fragmento se especifica en el campo Tamaño del fragmento, en la pantalla de atributos de la tabla.

Si deseas obtener más información para especificar un tamaño de fragmento, consulta los siguientes vínculos:

Para obtener más información sobre los mensajes de error de BigQuery, consulta Mensajes de error.

Sobrecarga de procesamiento asociada con el envío de porciones

Cada porción que se envía activa las siguientes acciones, y cada una de las cuales genera cierta sobrecarga de procesamiento o consumo de recursos:

  1. Una colección de registros modificados en la tabla de registro en el sistema de origen se envía a SAP LT Replication Server en una sola porción. Los registros modificados aún no se borran de la tabla de registro.
  2. BigQuery Connector para SAP solicita un nuevo token de acceso de Google Cloud.
  3. BigQuery Connector para SAP envía una solicitud HTTP a BigQuery para comprobar la estructura de la tabla de destino.
  4. BigQuery Connector para SAP envía los registros a BigQuery en tantos fragmentos como sea necesario para enviar todos los registros que recibió en la porción única. Cada fragmento se envía en una solicitud HTTP separada.
  5. BigQuery procesa cada fragmento que recibe.
  6. En un fragmento, se muestra un código de estado HTTP OK a SAP LT Replication Server.
  7. Una vez que BigQuery recibe todos los registros, SAP LT Replication Server borra los registros enviados de la tabla de registro, lo que libera los recursos en el sistema de origen.

Si deseas obtener más información sobre las partes y la configuración de SAP LT Replication Server para el rendimiento, consulta la Guía de optimización del rendimiento de SAP LT Replication Server en el Portal de ayuda de SAP.

Cuotas de BigQuery

Las cuotas de la API de BigQuery que están vigentes para tu proyecto limitan la cantidad de datos que puedes transmitir a BigQuery con el tiempo y en cualquier solicitud HTTP.

Por ejemplo, BigQuery establece límites en métricas como las siguientes:

  • Los bytes por segundo por proyecto que puedes enviar.
  • La cantidad máxima de registros o filas que puedes enviar en una sola solicitud HTTP.
  • El tamaño máximo de una solicitud HTTP que puedes enviar.

Para las inserciones de transmisión, BigQuery corrige el tamaño de las solicitudes HTTP a 10 MB y la cantidad de registros que puedes enviar en una sola solicitud HTTP a 50,000.

En la mayoría de los casos, puedes cambiar las cuotas, pero no los límites.

Puedes ver y editar las cuotas vigentes para tu proyecto en la consola de Google Cloud en la página Cuotas.

Si deseas obtener más información sobre las cuotas y los límites de BigQuery para las inserciones de transmisión, consulta lo siguiente:

Compresión de registros

De forma predeterminada, BigQuery Connector para SAP mejora el rendimiento de la replicación a través de la compresión de los registros que envía a BigQuery.

Cuando la compresión de los registros está habilitada (que es la opción predeterminada), BigQuery Connector para SAP omite los campos que están vacíos en el registro de origen de los registros que se envían a BigQuery. Cuando el registro se inserta en BigQuery, los campos que se omitieron de los datos enviados se inicializan con null en la tabla de destino.

Para inhabilitar la compresión de registros, especifica Marca de envío sin comprimir en la configuración de la tabla de BigQuery, pero hacerlo puede tener un impacto negativo en el rendimiento de la replicación.

Cuando se selecciona Enviar marca sin comprimir, BigQuery Connector para SAP envía registros a BigQuery con todos sus campos, incluidos los vacíos. Excepto por los campos de fecha y de marca de tiempo, los campos vacíos conservan cualquier valor con el que se hayan inicializado en la tabla de origen. El valor inicializado para los campos de fecha y marca de tiempo recibe los siguientes valores:

  • Valor de inicialización del campo de fecha: DATE 1970-01-01
  • Valor de inicialización del campo de marca de tiempo: TIMESTAMP 1970-01-01 00:00:00 UTC

Para obtener más información sobre cómo la compresión de registro afecta tus datos que se transfieren de SAP LT Replication Server a BigQuery, consulta Comprende la función de compresión de BigQuery Connector para SAP.

Opciones de configuración de la replicación de BigQuery

Cuando configuras la replicación con BigQuery Connector para SAP, usas varias transacciones SAP diferentes, incluida una transacción personalizada que proporciona Google Cloud:

  • SM30: Define las propiedades para conectarse a Google Cloud, que se almacenan como un registro en la tabla de configuración personalizada /GOOG/CLIENT_KEY. De forma opcional, cuando usas destinos de RFC para conectarte a los servicios y las APIs de Google Cloud, algunas propiedades de conexión se almacenan en la tabla de configuración personalizada /GOOG/SERVIC_MAP.
  • LTRC: Define la aplicación de replicación BigQuery Connector para SAP y el ID de transferencia masiva, entre otras propiedades.
  • SM59: Define los destinos de RFC que permiten conectarse a los servicios y las APIs de Google Cloud, como BigQuery y la IAM.
  • /GOOG/SLT_SETTINGS: define las propiedades de la tabla, los campos y el conjunto de datos de BigQuery de destino. Cuando ingresas /GOOG/SLT_SETTINGS en SAP LT Replication Server, debes agregar /n para escapar la barra diagonal inicial en el nombre de la transacción.

Idiomas admitidos

BigQuery Connector para SAP solo admite parámetros de configuración de replicación en inglés. Cuando configures la replicación a través de las transacciones de SAP y la transacción personalizada que proporciona Google Cloud, usa inglés como tu idioma de inicio de sesión en la pantalla de inicio de sesión de SAP.

Sin embargo, BigQuery Connector para SAP admite la ejecución de trabajos en segundo plano que se ejecutan en SAP LT Replication Server en todos los idiomas compatibles con SAP SLT.

Cualquier mensaje de error que puedas encontrar cuando trabajes con BigQuery Connector para SAP se genera en inglés, sin importar el idioma de ejecución del trabajo en segundo plano.

Propiedades de la tabla de destino

Cuando configuras la replicación en SAP LT Replication Server a través de la ejecución de la transacción /GOOG/SLT_SETTINGS, puedes especificar la configuración que se aplica cuando BigQuery Connector para SAP crea la tabla de destino en BigQuery.

Por ejemplo, puedes especificar las siguientes propiedades en una tabla de BigQuery de destino:

  • Nombre de la tabla
  • La opción predeterminada para asignar nombres a los campos
  • Campos adicionales para capturar los cambios en los registros y habilitar las consultas de recuento de registros
  • Partición de tablas

Opciones predeterminadas para asignar nombres a los campos

Puedes configurar BigQuery Connector para SAP para crear los nombres para los campos en la tabla de BigQuery de destino a partir de los nombres de los campos de origen o las etiquetas y descripciones de los campos de origen. Las etiquetas y las descripciones suelen ser más informativas sobre el contenido del campo.

De forma predeterminada, BigQuery Connector para SAP usa los nombres de los campos de origen. Puedes cambiar el valor predeterminado si especificas la marca Nombres personalizados cuando especificas los atributos de creación de tablas en la configuración de transferencia masiva de la transacción /GOOG/SLT_SETTINGS. Esta especificación se almacena en la tabla de configuración /GOOG/BQ_MASTR.

Cuando se crean los nombres, BigQuery Connector para SAP los modifica para que se ajusten a la convención de nombres de BigQuery.

Antes de crear una tabla, puedes editar los nombres de los campos en la pantalla de asignación de campos de la transacción /GOOG/SLT_SETTINGS.

Cuando los Nombres personalizados se especifican, los nombres que BigQuery Connector para SAP usará cuando cree la tabla de destino. Se mostrarán en la columna Nombre del campo externo de la pantalla de asignación de campos.

BigQuery Connector para SAP crea los nombres en la columna Nombre de campo externo de la etiqueta del campo medio de cada campo de origen. Si no se especifica una etiqueta de campo medio en la definición del campo de origen, se usa la descripción corta del campo. Si tampoco se especifica la descripción corta, se usa la etiqueta especificada más corta. Si no se especifica nada, se usa el nombre del campo de origen.

Si deseas obtener más información para personalizar los nombres de campos de destino, consulta Personaliza los nombres de campos de destino.

Captura los cambios de registros y habilita los recuentos de registros

Para capturar el tipo de cambio en la tabla de origen que activó la replicación y poder consultar recuentos de registros en la tabla de BigQuery en comparación con SAP LT Replication Server o recuentos de registros en la tabla de origen, especifica la opción Marcas de campos adicionales en la transacción /GOOG/SLT_SETTINGS cuando configuras la replicación.

Cuando se especifica la opción Marca de campos adicionales, se agregan las siguientes columnas al esquema de la tabla de BigQuery de destino:

Nombre del campo Tipo de datos Descripción
operation_flag STRING

Identifica el tipo de cambio en la tabla de origen que activó la carga o la replicación del registro en BigQuery.

Para contar los registros que se insertaron en el modo de replicación, consulta los registros que tienen un valor de I, U o D en el campo operation_flag. Para ver una consulta de ejemplo, visita Consulta la cantidad de registros insertados en modo de replicación.

Para contar los registros que se insertaron en el modo de carga inicial, consulta los registros que tienen un valor de L en el campo operation_flag. Para ver una consulta de ejemplo, visita Consulta el recuento de registros insertados en el modo de carga inicial.

is_deleted BOOLEAN Cuando es true, indica que el registro de origen se borró de la tabla de origen.

Para contar solo los registros de una tabla de BigQuery que no se borraron de la tabla de origen, usa el campo is_deleted para excluir los registros de origen borrados. Para ver una consulta de ejemplo, visita Consulta el recuento total de registros en una tabla de BigQuery.

recordstamp TIMESTAMP

La hora en la que SAP LT Replication Server envió el registro a BigQuery.

Para contar la cantidad de registros únicos en una tabla de BigQuery, consulta solo la instancia más reciente de cada registro insertado. Para ver una consulta de ejemplo, visita Consulta el recuento total de registros en una tabla de BigQuery.

La configuración actual de la opción Marca de campos adicionales se almacena en la tabla de configuración /GOOG/BQ_MASTR.

Para obtener información sobre cómo especificar la marca de campos adicionales, consulta lo siguiente:

Partición de tablas

Puedes crear tablas de BigQuery particionadas a través de un campo de marca de tiempo en la tabla de origen, lo que crea una tabla particionada por columnas de unidad de tiempo, o por la hora en la que los registros se insertan en BigQuery, lo que crea una tabla particionada por tiempo de transferencia.

Para habilitar la partición, especifica un tipo de partición en el campo Partition Type en /GOOG/BQ_TABLE cuando configures las propiedades de replicación.

Los tipos de particiones que puedes especificar ajustan el nivel de detalle de la partición por hora, día, mes o año.

Para usar una marca de tiempo de la tabla de origen para la partición de columnas de unidad de tiempo, especifica el nombre del campo de origen en el campo Partition Field.

Si deseas usar un tiempo de inserción de BigQuery para la partición en tiempo de transferencia, puedes dejar Campo de partición en blanco. BigQuery Connector para SAP crea un campo en la tabla de destino para almacenar el tiempo de inserción.

Propiedades del campo de destino

De forma predeterminada, BigQuery Connector para SAP usa los nombres de campo y los tipos de datos en la tabla de origen de SAP como los nombres de campo y los tipos de datos en BigQuery de destino.

De forma opcional, antes de crear la tabla de destino, puedes personalizar los nombres de los campos o cambiar el tipo de datos de BigQuery.

Personaliza los nombres de los campos de destino

Antes de crear una tabla, puedes personalizar los nombres de los campos de destino.

Si es necesario, BigQuery Connector para SAP modifica los nombres personalizados que especifiques para cumplir con la convención de nombres de BigQuery.

Cuando configuras la replicación, puedes ver los nombres de campos en la pantalla de asignación de campos de la transacción /GOOG/SLT_SETTINGS. BigQuery Connector para SAP almacena la configuración en la tabla de configuración /GOOG/BQ_FIELD.

Antes de crear una tabla, puedes especificar un nombre de campo personalizado si editas el nombre generado en la columna Nombre de campo temporal de la pantalla de asignación de campos. Si borras un valor y dejas el campo Nombre de campo temporal en blanco, BigQuery Connector para SAP usa el nombre del campo de origen para el nombre de ese campo de destino.

Después de realizar las modificaciones en Nombre de campo temporal, cuando haces clic en Guardar, BigQuery Connector para SAP valida el valor, aplica las convenciones de nombres de BigQuery según sea necesario y guarda los cambios. Puedes validar un valor sin guardarlo si presionas Intro.

Si deseas obtener información para configurar el método de nombres predeterminado para los campos de destino, consulta Opciones de nombres predeterminados para campos.

Usa una hoja de cálculo o un archivo de texto para editar el mapa de campos de BigQuery

Antes de crear una tabla de BigQuery de destino, puedes guardar de forma opcional los tipos de datos, los nombres y las descripciones predeterminados de los campos de destino en una hoja de cálculo o un archivo de texto para que los ingenieros o administradores de datos de BigQuery puedan editar los valores con facilidad sin requerir acceso a SAP LT Replication Server.

Después de editar los valores, debes convertir el archivo y su contenido al formato de valores separados por comas (CSV). Luego, puedes aplicar las actualizaciones a la configuración de la transferencia masiva si subes el archivo CSV a través de la transacción personalizada /GOOG/SLT_SETTINGS.

El proceso para editar el mapa de campos de BigQuery con un archivo CSV incluye los siguientes pasos:

  1. Crea una hoja de cálculo o un archivo de texto de las asignaciones de campo predeterminadas.
  2. Edite los valores.
  3. Convierte la hoja de cálculo o el archivo de texto al formato CSV.
  4. Sube el archivo CSV.

Para obtener instrucciones detalladas para cada uno de estos pasos, consulta Edita el mapa de campos de BigQuery en un archivo CSV.

Convención de nombres de BigQuery para campos

La convención de nombres de BigQuery solo usa letras minúsculas, números y guiones bajos.

BigQuery Connector para SAP aplica las convenciones de nombres de BigQuery a cualquier valor de entrada que se use para el nombre de un campo de destino.

Por ejemplo, si ingresas FIELD-@#!*123 como un nombre de campo personalizado, BigQuery Connector para SAP cambia el nombre a field_123.

Si deseas obtener más información sobre la convención de nombres de BigQuery para los campos, consulta Nombres de columnas.

Asignación de tipos de datos

De forma predeterminada, BigQuery Connector para SAP asigna tipos de datos a los campos de BigQuery de destino según la categoría de tipo SAP o el tipo de datos SAP del campo SAP de origen.

Cuando configuras la replicación, puedes ver los tipos de datos en la pantalla de asignación de campos de la transacción /GOOG/SLT_SETTINGS. BigQuery Connector para SAP almacena la configuración en la tabla de configuración /GOOG/BQ_FIELD.

Antes de crear una tabla, puedes cambiar la especificación predeterminada del tipo de datos a un tipo de datos de BigQuery diferente en la columna Elemento de datos externo de la pantalla de asignación de campos.

Tipos de datos que requieren un control especial

Varios tipos de datos de SAP requieren un control especial para que se representen con precisión en la tabla de BigQuery de destino.

Tú mismo debes controlar algunos de estos tipos de datos. BigQuery Connector para SAP se encarga de otros por ti.

Booleanos

Para los booleanos, SAP usa el tipo de datos CHAR, que, de forma predeterminada, BigQuery Connector para SAP se asigna al tipo de datos STRING en la tabla de BigQuery de destino.

En consecuencia, para los valores booleanos, cuando configuras la replicación a través de la transacción /GOOG/SLT_SETTINGS, debes cambiar la asignación predeterminada del tipo de datos para los campos booleanos de STRING a BOOLEAN en la pantalla de asignación de campos.

Marcas de tiempo

Para las marcas de tiempo, SAP usa los tipos de datos P (decimal empaquetado) o DEC (decimal), que de forma predeterminada, BigQuery Connector para SAP se asigna a NUMERIC en la tabla de BigQuery de destino.

En consecuencia, para las marcas de tiempo, cuando configuras la replicación a través de la transacción /GOOG/SLT_SETTINGS, debes cambiar la asignación predeterminada del tipo de datos de los campos de marca de tiempo de NUMERIC a TIMESTAMP o TIMESTAMP (LONG) en la pantalla de asignación de campos.

Categoría de tipo SAP X

La categoría de tipo SAP X es un hexadecimal y se representa a través de los tipos de datos SAP RAW, RAWSTRING o LRAW. De forma predeterminada, BigQuery Connector para SAP asigna estos tipos de datos a STRING en la tabla de origen de BigQuery.

Si necesitas un campo de origen con la categoría de tipo SAP X para asignar BYTES, debes cambiar la asignación del tipo de datos predeterminada del campo en la pantalla de asignación de campos de la transacción /GOOG/SLT_SETTINGS.

La categoría de tipo SAP X a veces se usa en SAP para representar números enteros. En este caso, BigQuery Connector para SAP comprueba el tipo de datos del campo de origen de uno de los tipos de datos SAP para números enteros, INT1, INT2,INT4, INT8 y asigna el tipo de datos INTEGER en la tabla de BigQuery de destino.

Categoría de tipo SAP y

La categoría de tipo SAP y es una string de bytes y se representa a través de los tipos de datos SAP RAW, RAWSTRING o LRAW. De forma predeterminada, BigQuery Connector para SAP asigna estos tipos de datos a STRING en la tabla de origen de BigQuery.

Si necesitas un campo de origen con la categoría de tipo SAP y para asignar BYTES, debes cambiar la asignación del tipo de datos predeterminada del campo en la pantalla de asignación de campos de la transacción /GOOG/SLT_SETTINGS.

Asignación de tipos de datos predeterminada

En la siguiente tabla, se muestra la conversión de tipo de datos predeterminada de BigQuery Connector para SAP:

Categoría de tipo SAP Tipo de datos SAP Tipo de datos de BigQuery Notas
b (número entero de 1 byte)
s (número entero de 2 bytes)
I (número entero de 4 bytes)
8 (número entero de 8 bytes)
INT1
INT2
INT4
INT8
INTEGER
F (número de punto flotante) FLTP FLOAT
P (empaquetado) CURR
DEC
QUAN
NUMERIC De forma predeterminada, categoría de tipo SAP P se asigna al tipo de datos NUMERIC de BigQuery y se convierte en un número en el formato externo.
a (número flotante decimal, 16 lugares) DECFLOAT16
NUMERIC
e (número flotante decimal, 16 lugares) DECFLOAT34
NUMERIC
N (numérica) NUMC STRING
X (hexadecimal)
y (string de bytes)
RAW
RAWSTRING
LRAW
STRING Si la categoría de tipo SAP es X, pero el nombre del tipo de datos abarca el patrón 'INT*' (INT1, INT2, INT4), se reemplaza un elemento de datos de origen por uno nuevo TYPINT8 con TYPEKIND '8', que se asigna al tipo de datos de BigQuery INTEGER.
C (carácter)
g (string de caracteres)
? (csequence)
& (clike)
CHARSTRING STRING
D (fecha) DATS DATE
T (hora) TIMS TIME

Licencias

BigQuery Connector para SAP está disponible como “Software” en virtud del acuerdo que rige el uso de Google Cloud Platform, incluidas las Condiciones específicas del Servicio disponibles en https://cloud.google.com/terms/service-terms. Sin limitar la generalidad de los términos anteriores, no puedes modificar ni distribuir BigQuery Connector para SAP sin un permiso escrito explícito de Google.

Por el momento, el software de BigQuery Connector para SAP se ofrece sin costo. Para mayor claridad, el uso de otros “Software” y “Servicios” en el acuerdo que rige el uso de Google Cloud Platform, como la API de transmisión de BigQuery y BigQuery, puede generar un costo.

BigQuery Connector para SAP no incluye ninguna licencia para el software de SAP, incluido, entre otros, SAP LT Replication Server. Obtén una licencia adecuada para el software de SAP por separado.

Ciclo de vida de la asistencia

Google Cloud admite y mantiene la versión principal más reciente de BigQuery Connector para SAP y, durante un período de al menos 12 meses después de la publicación de un aviso de baja en la Página de notas de la versión de SAP en Google Cloud, la versión principal anterior.