Administra BigQuery Toolkit para operaciones de SAP

En este documento, se muestra a los administradores de SAP, a los desarrolladores de SAP y a otras personas cómo realizar tareas operativas para BigQuery Toolkit para SAP.

Tamaño dinámico de fragmentos

Si encuentras errores porque el tamaño de bytes de los fragmentos supera el máximo de bytes para las solicitudes HTTP que acepta BigQuery, debes reducir el tamaño de los bytes de forma manual mediante la reducción del tamaño de fragmento. La función de tamaño de fragmento dinámico te permite reducir de forma automática el tamaño de fragmento y reintentar la replicación a BigQuery cuando el tamaño de bytes de un fragmento supera el tamaño máximo de bytes para solicitudes HTTP que acepta BigQuery. El tamaño de fragmento dinámico te ayuda a evitar la mayoría de las fallas de replicación debido a que se superó el tamaño de bytes de una solicitud. Es posible que recibas un error solo si el tamaño de fragmento alcanza 1, pero el tamaño de bytes permanece por encima del límite de BigQuery en la cantidad de bytes en cada solicitud HTTP.

Para habilitar el tamaño de fragmento dinámico en la configuración de transferencia de datos de una tabla, usa la transacción /GOOG/BQTR_SETTINGS. El tamaño dinámico de fragmentos es un parámetro de configuración opcional. Para obtener información sobre cómo habilitar el tamaño de fragmento dinámico, consulta Especifica la creación de tablas y otros atributos generales.

Cuando BigQuery Toolkit para SAP reduce el tamaño de fragmento, se muestra el siguiente mensaje de información a la aplicación ABAP que realiza la llamada en el parámetro et_return:

Dynamic chunking triggered. Chunk size reduced from INITIAL_CHUNK_SIZE_VALUE to FINAL_REDUCED_CHUNK_SIZE_VALUE

Transporta la configuración de transferencia masiva a producción

Para transportar la configuración de la transferencia masiva de BigQuery Toolkit para SAP a producción, primero debes exportar la configuración de un sistema de desarrollo y, luego, importarla al sistema de producción.

De manera opcional, puedes importar dos partes distintas de la configuración de una transferencia masiva a la producción:

  • La configuración de la clave de cliente de la tabla /GOOG/CLIENT_KEY, a la que se puede acceder mediante la transacción SM30.
  • La configuración de transferencia masiva de BigQuery Toolkit para SAP, a la que se puede acceder mediante la transacción /GOOG/BQTR_SETTINGS.

Exporta la configuración de transferencia masiva desde un sistema de desarrollo

En tu sistema de desarrollo de SAP, exporta cada parte de la configuración de transferencia masiva:

  1. Exporta la configuración de la transferencia masiva de BigQuery Toolkit para SAP:

    1. En la GUI de SAP, ejecuta el código de transacción /GOOG/SDK_IMG.

      Como alternativa, ejecuta el código de transacción SPRO y, luego, haz clic en IMG de referencia de SAP.

    2. Haz clic en SDK de ABAP para Google Cloud > Configuración básica > BigQuery Data Transfer: Settings Maintenance.

    3. En el campo Tabla de configuración, selecciona Transferencia masiva.

    4. Selecciona los registros de transferencia masiva que transportas a producción.

    5. Haz clic en Transportar transferencia masiva.

    6. En Solicitud de Workbench, ingresa el número de solicitud de transporte y haz clic en el ícono Continuar. Para cada registro de transferencia masiva seleccionado, la configuración de las siguientes tablas de configuración personalizadas se incluye en el transporte:

      • /GOOG/BQTR_MASTR
      • /GOOG/BQTR_TABLE
      • /GOOG/BQTR_FIELD

    La configuración de transferencia masiva se guarda en una solicitud de transporte.

  2. Para exportar la configuración de la clave de cliente, incluye de forma manual el contenido de la tabla /GOOG/CLIENT_KEY en la solicitud de transporte.

  3. Guarda los archivos en tu estación de trabajo local.

Importa la configuración de la transferencia masiva a un sistema de producción

Importa la solicitud de transporte que contiene la configuración de transferencia masiva.

En el sistema de producción de SAP, importa cada parte de la configuración de transferencia masiva:

  1. En la GUI de SAP, importa la solicitud de transporte que contiene la configuración de transferencia masiva.

  2. En la GUI de SAP, ejecuta el código de transacción /GOOG/SDK_IMG.

    Como alternativa, ejecuta el código de transacción SPRO y, luego, haz clic en IMG de referencia de SAP.

  3. Haz clic en el SDK de ABAP para Google Cloud > Configuración básica > Configurar clave de cliente.

  4. Actualiza la configuración de la clave de cliente según sea necesario para el entorno de producción.

  5. Haz clic en SDK de ABAP para Google Cloud > Configuración básica > BigQuery Data Transfer: Settings Maintenance.

  6. Verifica que las transferencias masivas correctas se muestren en la pantalla Transferencias masivas.

  7. En las pantallas de configuración de Tablas y Campos posteriores, actualiza otros valores de tablas y campos según sea necesario para el entorno de producción.

  8. Para probar la configuración, ejecuta el programa de carga de datos que llama a BigQuery Toolkit para SAP.

Consulta la configuración de la Transferencia de datos de BigQuery

Para ver la configuración de transferencia masiva del módulo de transferencia de datos de BigQuery, haz lo siguiente:

  1. En la GUI de SAP, ejecuta el código de transacción /GOOG/SDK_IMG.

    Como alternativa, ejecuta el código de transacción SPRO y, luego, haz clic en IMG de referencia de SAP.

  2. Haz clic en SDK de ABAP para Google Cloud > Configuración básica > BigQuery Data Transfer: Settings Display.

Como alternativa, puedes ver la configuración con la transacción /GOOG/BQTR_SETTINGS.

Validación de replicación

Cuando especificas la opción Marca de campos adicionales en la configuración de la transferencia masiva, BigQuery Toolkit para SAP agrega columnas adicionales al esquema de la tabla en BigQuery. Estas columnas capturan los siguientes detalles:

  • Información sobre el tipo de cambio que activó la replicación para cada registro.
  • Una marca de tiempo que indica cuándo BigQuery Toolkit para SAP recibió la parte que contiene ese registro.

Con la información de estas columnas, puedes validar el proceso de replicación y garantizar la integridad y coherencia de los datos entre tu sistema SAP y BigQuery. Puedes usar los tipos de cambio y la marca de tiempo para consultar los siguientes tipos de recuentos de registros:

  • La cantidad de registros que se cargan en una tabla de BigQuery durante una carga inicial.
  • La cantidad de registros replicados en un día específico en una tabla de BigQuery.
  • La cantidad total de registros únicos en una tabla de BigQuery.

Para obtener estos recuentos, puedes consultar la tabla de BigQuery directamente mediante el envío de consultas de SQL en la consola de Google Cloud.

Para obtener una descripción general de la marca de campos adicionales, consulta Campos adicionales para cambios de registros y consultas de recuentos.

Consultas en SQL para recuentos de registros

Puedes ejecutar consultas de SQL para verificar los recuentos de registros en tus tablas de BigQuery con la página Editor de SQL de BigQuery en la consola de Google Cloud.

Consulta el recuento de registros insertados en el modo de carga inicial

Cuando un esquema de tabla de BigQuery incluye la columna opcional operation_flag, los registros que se insertan en la tabla en el modo de carga inicial incluyen la marca de operación L.

Para obtener el recuento de registros que recibió BigQuery durante una carga inicial, ejecuta la siguiente consulta:

SELECT COUNT(*)
  FROM
      `PROJECT.DATASET.TABLE`
  WHERE operation_flag = 'L'

Consulta la cantidad de registros insertados en modo de replicación

Cuando un esquema de tabla de BigQuery incluye la columna opcional operation_flag, los registros que se insertan en la tabla en modo de replicación incluyen una de las siguientes marcas de operación:

  • I: el registro se insertó en la tabla de origen.
  • D: el registro se borró de la tabla de origen.
  • U: el registro se actualizó en la tabla de origen.

Para obtener el recuento de registros que recibió BigQuery en modo de replicación, ejecuta la siguiente consulta:

SELECT COUNT(*)
  FROM
      `PROJECT.DATASET.TABLE`
  WHERE operation_flag = 'I' | 'D' | 'U'

Consulta el recuento total de registros en una tabla de BigQuery

Cuando un esquema de tabla de BigQuery incluye la columna opcional recordstamp, el campo recordstamp correspondiente de cada registro que se inserta en la tabla contiene una marca de tiempo que indica cuándo BigQuery Toolkit para SAP envió el registro a BigQuery.

Para obtener un recuento total de los registros en una tabla de BigQuery que puedes comparar con el recuento total de registros en una tabla de origen, puedes usar los campos recordstamp y is_deleted para contar los registros únicos en la tabla de BigQuery que no se borraron de la tabla de origen.

Si la tabla de origen se actualiza o la replicación está activa cuando consultas los registros, es posible que el recuento de registros en las tablas de origen y destino no coincida de forma exacta.

Para obtener el recuento actual de registros únicos en la tabla de destino de BigQuery, ejecuta la siguiente consulta:

SELECT COUNT(*)
  FROM (
    SELECT
      *,
      ROW_NUMBER() OVER (PARTITION BY KEY_FIELD_1, ..., KEY_FIELD_N ORDER BY recordstamp DESC) row_num
    FROM
      `PROJECT.DATASET.TABLE` )
  WHERE row_num = 1 AND is_deleted = false

Edita el mapa de campos de BigQuery en un archivo CSV

En las siguientes secciones, se describe cómo exportar la asignación de campo predeterminada para que los ingenieros de datos o administradores de BigQuery puedan editar los valores del campo de destino sin necesidad de acceder al sistema de SAP.

Cuando edites los valores del campo de destino, cumple con las siguientes reglas:

  • No modifiques los valores de las columnas Nombre de la fuente de datos de SAP y Nombre de campo de SAP.
  • En la columna Enviar marca sin comprimir, para habilitar la compresión de registros, marca el campo solo con un X. De lo contrario, deja el campo en blanco.

Crea una hoja de cálculo o un archivo de texto de las asignaciones de campo predeterminadas.

Para crear un archivo CSV para editar fuera de tu servidor de SAP, haz lo siguiente:

  1. En la GUI de SAP, ejecuta el código de transacción /GOOG/SDK_IMG.

    Como alternativa, ejecuta el código de transacción SPRO y, luego, haz clic en IMG de referencia de SAP.

  2. Haz clic en SDK de ABAP para Google Cloud > Configuración básica > BigQuery Data Transfer: Settings Maintenance.

  3. En la pantalla Mantenimiento de la configuración de transferencia de datos de BigQuery, especifica los siguientes valores:

    • En el campo Tabla de configuración, especifica Campos.
    • En el campo Clave de transferencia masiva, especifica el ID de la transferencia masiva que actualizarás.
    • En el campo Nombre de tabla, deja el campo en blanco para trabajar con todos los campos de todas las tablas o especifica un nombre de tabla a fin de trabajar con una tabla específica.
    • Deja todos los otros campos en blanco.
  4. Haz clic en el ícono Ejecutar. Aparecerá la pantalla Mantenimiento de la configuración de transferencia de datos de BigQuery: Campos.

  5. En la pantalla BigQuery Data Transfer Settings Maintenance - Fields, oculta todas las columnas excepto las de la siguiente lista. Para ello, haz clic con el botón derecho en los encabezados de columna y selecciona Ocultar en el menú desplegable:

    • Nombre de la fuente de datos de SAP
    • Nombre del campo de SAP
    • Elemento de datos externo
    • Nombre del campo externo
    • Descripción del campo
    • Enviar marca sin comprimir
  6. Con las seis columnas restantes mostradas, haz clic en el ícono Exportar.

  7. En el menú Exportar, selecciona una de las siguientes opciones:

    • Spreadsheet
    • Archivo local. Para facilitar la conversión del contenido del archivo a un formato CSV, te recomendamos que lo guardes en el formato Texto con pestañas.
  8. Para guardar las asignaciones de campos predeterminadas, haz clic en el ícono Marca de verificación.

Convierte la hoja de cálculo o el archivo de texto al formato CSV

Para subir asignaciones de campo editadas mediante la transacción personalizada /GOOG/BQTR_SETTINGS, las asignaciones de campo deben estar en formato CSV.

Si usas una hoja de cálculo, guárdala como un archivo CSV antes de subir el archivo.

Si usas un archivo local en un formato delimitado por tabulaciones o en cualquier otro formato, debes modificar el archivo para que se ajuste al formato CSV.

Por ejemplo:

SAP Table,SAP Field Name,External Data Element,External Field Name,Field Description, Send Uncompressed Flag
SAP_TABLE_NAME,SAP_FIELD_NAME1,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME1,BIGQUERY_FIELD_DESCRIPTION1, SEND_UNCOMPRESSED_FLAG1
SAP_TABLE_NAME,SAP_FIELD_NAME2,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME2,BIGQUERY_FIELD_DESCRIPTION2, SEND_UNCOMPRESSED_FLAG2
SAP_TABLE_NAME,SAP_FIELD_NAME3,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME3,BIGQUERY_FIELD_DESCRIPTION3, SEND_UNCOMPRESSED_FLAG3

Sube el archivo CSV

Para subir un archivo CSV editado, sigue estos pasos:

  1. En la GUI de SAP, ejecuta el código de transacción /GOOG/SDK_IMG.

    Como alternativa, ejecuta el código de transacción SPRO y, luego, haz clic en IMG de referencia de SAP.

  2. Haz clic en SDK de ABAP para Google Cloud > Configuración básica > BigQuery Data Transfer: Settings Maintenance.

  3. En la pantalla BigQuery Data Transfer: Settings Maintenance, especifica los siguientes valores:

    • En el campo Tabla de configuración, especifica Campos.
    • En el campo Clave de transferencia masiva, especifica el ID de la transferencia masiva que actualizarás.
    • Selecciona la casilla de verificación Subir desde archivo.
  4. Haz clic en el ícono Ejecutar. Se abrirá el diálogo Seleccionar archivo para subir.

  5. En el diálogo Seleccionar archivo para subir, selecciona el archivo CSV que contiene los valores de campos editados.

  6. Haz clic en Abrir.

  7. Si recibes una advertencia de seguridad, haz clic en Permitir. El archivo se carga y los valores modificados en él aparecen en las filas correspondientes en la pantalla Mantenimiento de la configuración de BigQuery: Campos.

  8. Haz clic en el ícono Guardar.

  9. Para confirmar que se aplican los valores, compara los valores del archivo CSV con los valores que se muestran en tu sistema SAP.

Maneja errores en los datos de origen

Cuando la API de transmisión de BigQuery recibe un fragmento de registros de BigQuery Toolkit para SAP, verifica si hay errores de datos antes de insertar cualquier registro en la tabla de BigQuery.

Puedes controlar cómo responden la API de BigQuery y BigQuery Toolkit para SAP cuando se encuentran errores de datos si especificas las siguientes marcas en las opciones de configuración de transferencia masiva:

  • La marca Skip Invalid Records (SKIP)
  • La marca Break at First Error Flag (BREAK)

La marca SKIP

Si especificas la marca SKIP, cuando la API de BigQuery recibe un fragmento de registros y encuentra un registro con un error de datos, la API de BigQuery descarta u omite, el registro con el error y continúa insertando todos los demás registros del fragmento en la tabla de BigQuery.

Si no especificas la marca SKIP, cuando BigQuery encuentra un registro con un error de datos, BigQuery descarta todo el fragmento sin insertar ningún registro de él en la tabla de BigQuery. Este comportamiento es el predeterminado.

Especificar la marca SKIP es mejor para entornos de desarrollo y control de calidad, y no se recomienda para entornos de producción.

Puedes especificar la marca SKIP en la transacción /GOOG/BQTR_SETTINGS cuando configuras la replicación. La especificación se almacena en la tabla de configuración /GOOG/BQTR_MASTR.

Para ver cómo las especificaciones SKIP interactúan con las especificaciones BREAK, consulta la tabla de matrices para interacciones BREAK y SKIP.

La marca BREAK

Si especificas la marca BREAK, cuando la API de BigQuery notifica a BigQuery Toolkit para SAP que se encontró un error de datos en un registro, BigQuery Toolkit para SAP deja de enviar registros a BigQuery y finaliza el trabajo de replicación. Este comportamiento es el predeterminado.

Si no especificas la marca BREAK, cuando BigQuery notifica a BigQuery Toolkit para SAP que se encontró un error de datos en un registro, BigQuery Toolkit para SAP continúa enviando registros a BigQuery mediante el envío del siguiente fragmento y el trabajo de replicación continúa.

Se recomienda especificar la marca BREAK en entornos de producción.

Puedes especificar la marca BREAK en la transacción /GOOG/BQTR_SETTINGS cuando configuras la replicación. Cuando creas una clave de transferencia masiva nueva, la marca BREAK está habilitada de forma predeterminada.

La especificación se almacena en la tabla de configuración /GOOG/BQTR_MASTR.

Para ver cómo las especificaciones BREAK interactúan con las especificaciones SKIP, consulta la tabla de matrices para interacciones SKIP y BREAK.

Tabla de matriz para las interacciones SKIP y BREAK

Puedes configurar el módulo de transferencia de datos de BigQuery para controlar los errores de datos de las siguientes maneras:

Marca SKIP Marca BREAK Comportamiento
FALSO TRUE

BigQuery descarta el fragmento actual de registros sin insertar ningún registro del fragmento actual en la tabla de BigQuery.

BigQuery Toolkit para SAP no envía más fragmentos de registros de la parte actual y finaliza el trabajo de replicación.

Este es el parámetro de configuración predeterminado recomendado.

FALSE FALSO

BigQuery descarta el fragmento actual de registros sin insertar ningún registro del fragmento actual en la tabla de BigQuery.

BigQuery Toolkit para SAP envía los fragmentos restantes de registros de la parte actual y recupera la siguiente parte. BigQuery Toolkit para SAP no finaliza el trabajo de replicación.

TRUE TRUE

BigQuery descarta solo el registro que contiene el error e inserta el resto de los registros del fragmento actual en la tabla de BigQuery.

BigQuery Toolkit para SAP no envía más fragmentos de registros de la parte actual y finaliza el trabajo de replicación.

TRUE FALSO

BigQuery descarta solo el registro que contiene el error e inserta el resto de los registros del fragmento actual en la tabla de BigQuery.

BigQuery Toolkit para SAP envía los fragmentos restantes de registros de la parte actual y recupera la siguiente parte. BigQuery Toolkit para SAP no finaliza el trabajo de replicación.

Cambios en la estructura de objetos del diccionario de SAP

En esta sección, se explica cómo controlar los cambios en la definición de los objetos de diccionario en SAP.

Agrega una columna al objeto del diccionario

Si agregas una columna a un objeto de diccionario, haz lo siguiente:

  1. Detén la aplicación de replicación de datos personalizada que usa la clase de carga de datos /GOOG/CL_BQTR_DATA_LOAD.
  2. Agrega una columna nueva al objeto de diccionario en SAP.
  3. De manera opcional, actualiza la asignación a nivel del campo en la transacción /GOOG/BQTR_SETTINGS.
  4. Reinicia la aplicación de replicación de datos personalizada.
  5. Valida el resultado de la replicación en BigQuery.

Cómo borrar una columna del objeto de diccionario

Para borrar una columna existente de un objeto de diccionario, haz lo siguiente:

  1. Detén la aplicación de replicación de datos personalizada que usa la clase de carga de datos /GOOG/CL_BQTR_DATA_LOAD.
  2. Borra una columna del objeto diccionario.
  3. En BigQuery, borra la columna de la tabla de BigQuery de destino. Si deseas obtener más información sobre los pasos para borrar una columna de una tabla existente, consulta la documentación de BigQuery.
  4. De manera opcional, actualiza la asignación a nivel del campo en la transacción /GOOG/BQTR_SETTINGS.
  5. Reinicia la aplicación de replicación de datos personalizada.
  6. Valida el resultado de la replicación en BigQuery.

Cambia el tipo de datos de una columna existente

Cuando cambias el tipo de datos de una columna existente en el objeto de diccionario de SAP, debes seguir pasos específicos según si cambias el tipo de datos a uno compatible o no compatible con la tabla de BigQuery de destino.

Un tipo de datos es compatible con el tipo de datos en la tabla de BigQuery de destino cuando el tipo de datos existente y el tipo de datos nuevos de una columna existente se asignan al mismo tipo de datos en la tabla de BigQuery de destino. Por ejemplo, si el tipo de datos de una columna se cambia de INT1 a INT2 en una tabla de origen, ambos tipos de datos son compatibles con el tipo de datos INTEGER en la tabla de BigQuery de destino.

Para obtener más información sobre la asignación de tipos de datos en el módulo de transferencia de datos de BigQuery, consulta Asignación de tipos de datos.

Cambia el tipo de datos a uno compatible

Para cambiar el tipo de datos de una columna existente a un tipo de datos compatible, haz lo siguiente:

  1. De forma opcional, detén la aplicación de replicación de datos personalizada que usa la clase de carga de datos /GOOG/CL_BQTR_DATA_LOAD.
  2. Cambia el tipo de datos a un tipo de datos compatible en el sistema de origen.
  3. De manera opcional, actualiza la asignación a nivel del campo en la transacción /GOOG/BQTR_SETTINGS.
  4. Si detuviste la aplicación de replicación de datos personalizados, reiníciala.
  5. Valida el resultado de la replicación en BigQuery.

Cambia el tipo de datos a uno no compatible

Para cambiar el tipo de datos de una columna existente a un tipo de datos no compatible, haz lo siguiente:

  1. Detén la aplicación de replicación de datos personalizada que usa la clase de carga de datos /GOOG/CL_BQTR_DATA_LOAD.
  2. En BigQuery, borra la tabla de destino.
  3. Cambia el tipo de datos en el sistema de origen.
  4. De manera opcional, actualiza la asignación a nivel del campo en la transacción /GOOG/BQTR_SETTINGS.
  5. Inicia tu aplicación de replicación de datos personalizada. Según sea necesario, es posible que debas iniciar una carga inicial de los datos existentes.

Salidas de mejoras

BigQuery Toolkit para SAP proporciona varios puntos de mejora en su código, en los que un desarrollador de ABAP puede insertar código para agregar funciones personalizadas.

Clases

La siguiente tabla enumera las funciones que admiten los puntos de mejora, los métodos y la clase que contiene el punto de mejora.

Función Clase Método Spot Opción
Actualiza la asignación para un campo, como el nombre del campo externo y el tipo de datos. /GOOG/CL_BQTR_DATA_LOAD_BASE CREATE_FLD_MAPPINGS /GOOG/ES_BQTR_DATA_LOAD_BASE /GOOG/UPDATE_FIELD_MAPPING
Agrega o quita campos para actualizar la asignación de la tabla del campo. /GOOG/CL_BQTR_DATA_LOAD_BASE CREATE_FLD_MAPPINGS /GOOG/ES_BQTR_DATA_LOAD_BASE /GOOG/UPDATE_FIELD_MAPPINGS
Cambia el valor de un campo de origen antes de que el campo se convierta en un campo de destino. /GOOG/CL_BQTR_DATA_LOAD FILL_TARGET_RECORDS /GOOG/ES_BQTR_DATA_LOAD /GOOG/CHANGE_SOURCE_FIELD
Después de que un campo de origen se convierte en un campo de destino en la tabla de destino, cambia el valor del campo de destino. /GOOG/CL_BQTR_DATA_LOAD FILL_TARGET_RECORDS /GOOG/ES_BQTR_DATA_LOAD /GOOG/FILL_TARGET_FIELD
Agrega un campo a la tabla de destino que no exista en la tabla de origen durante la conversión de la tabla de origen a destino. /GOOG/CL_BQTR_DATA_LOAD FILL_TARGET_RECORDS /GOOG/ES_BQTR_DATA_LOAD /GOOG/FILL_EXTRA_FIELD
Prepara un campo del esquema de BigQuery antes de crear la tabla de BigQuery. /GOOG/CL_BQTR_CLIENT_BQ_BASE PREP_BQ_TABLE_SCHEMA /GOOG/ES_BQTR_CLIENT_BQ /GOOG/PREPARE_SCHEMA_FIELD
En caso de errores de HTTP que se originen en el servidor de BigQuery, para solucionar el problema, puedes recopilar datos de registro después de que HTTP llame a la API de BigQuery. /GOOG/CL_BQTR_CLIENT_BQ_REPL INSERT_TABLEDATA /GOOG/ES_BQTR_CLIENT_BQ_REPL /GOOG/LOG_INSERT_ERROR

Informes

En la siguiente tabla, se enumeran las funciones que admiten los puntos de mejora, los métodos y los informes que contienen el punto de mejora.

Función Informe Método Spot Opción
Para agregar verificaciones de autoridad al programa de configuración de la Transferencia de datos de BigQuery. /GOOG/R_BQTR_SETTINGS AUTHORITY_CHECK /GOOG/ES_BQTR_SETTINGS /GOOG/AUTHORITY_CHECK

Configuración avanzada

De manera opcional, puedes modificar la configuración avanzada de BigQuery Toolkit para SAP. Te recomendamos que modifiques los parámetros de configuración avanzada solo después de un análisis integral y el impacto de los nuevos valores en el rendimiento. Eres responsable de garantizar que la nueva configuración avanzada de BigQuery Toolkit para SAP no genere fallas y problemas de rendimiento.

La configuración avanzada de BigQuery Toolkit para SAP se aplica a nivel del sistema y es común para todas las claves de transferencia masiva. Si no se modifican los parámetros de configuración avanzada, BigQuery Toolkit para SAP funciona con la configuración predeterminada.

Para modificar los parámetros de configuración avanzada, haz lo siguiente:

  1. En la GUI de SAP, ejecuta el código de transacción /GOOG/SDK_IMG.

    Como alternativa, ejecuta el código de transacción SPRO y, luego, haz clic en IMG de referencia de SAP.

  2. Haz clic en SDK de ABAP para Google Cloud > Configuración básica > BigQuery Data Transfer: Settings Maintenance.

  3. En el menú desplegable Tabla de configuración, selecciona Parámetros.

  4. Haz clic en el ícono Ejecutar. Aparecerá la pantalla Parámetros de mantenimiento de la configuración de transferencia de datos de BigQuery.

  5. Haz clic en el ícono Insertar fila.

  6. En la fila que se muestra, especifica la siguiente configuración:

    1. En el campo Nombre del parámetro, ingresa el nombre del parámetro. La descripción del parámetro se propaga de forma automática.
    2. En el campo Valor del parámetro, ingresa un valor.

      Para obtener más información sobre los parámetros de Configuración avanzada, consulta parámetros de configuración avanzada.

  7. Haz clic en Guardar.

    Tus parámetros de configuración avanzada se almacenan como un registro en la tabla de configuración /GOOG/BQ_PARAM y automáticamente se propagan los campos Modificado por, Se cambió el y Se cambió a las.

Parámetros de configuración avanzada

En la siguiente tabla, se muestran los parámetros de configuración avanzada de BigQuery Toolkit para SAP.

Nombre del parámetro Descripción Valor predeterminado Valor válido
CHUNK_SIZE_DEF Este parámetro de configuración es el tamaño de fragmento predeterminado que admite BigQuery Toolkit para SAP.
Si no se mantiene un tamaño de fragmento en la configuración, se usa el tamaño de fragmento predeterminado.
10,000 El valor debe estar dentro de los límites de cuota de BigQuery.
PERC_REDUC_DEF La reducción del porcentaje de tamaño de fragmento.
Si el tamaño de fragmento dinámico está habilitado, el tamaño de fragmento se reduce en este porcentaje hasta que se alcanza el tamaño de fragmento ideal y los datos de fragmento se transfieren con éxito a BigQuery.
50 El valor debe ser de 1 a 99.

Obtenga asistencia

Google Cloud ofrece asistencia para problemas y preguntas relacionados con la instalación, configuración, operación y mantenimiento de BigQuery Toolkit para SAP. Sin embargo, la asistencia se limita al kit de herramientas en sí.

Google Cloud no admite otros componentes del entorno, como la infraestructura de red, las bases de datos, los sistemas operativos ni el software de terceros. Si tienes problemas relacionados con componentes del entorno que no sean de BigQuery Toolkit para SAP, comunícate con el proveedor o proveedor de asistencia adecuado.

Para las funciones que ofrece SAP, como el aprovisionamiento de datos operativos (ODP) y SAP Landscape Transformation (SLT), comunícate con el equipo de asistencia de SAP para obtener ayuda.

Para solucionar problemas con BigQuery Toolkit para SAP, consulta Cómo solucionar problemas de BigQuery Toolkit para SAP.

Si necesitas ayuda para resolver problemas con el SDK de ABAP para Google Cloud, haz lo siguiente: