Importa eventos históricos de los usuarios

En esta página, se describe cómo importar datos de eventos de usuario de forma masiva desde eventos anteriores. Los modelos de Vertex AI Search para la venta minorista requieren datos de eventos de usuarios para el entrenamiento.

Después de configurar el registro de eventos en tiempo real, puede tomar bastante tiempo en registrar suficientes datos de eventos de usuario para entrenar los modelos. Puedes acelerar el entrenamiento inicial de los modelos mediante la importación masiva de datos de eventos de usuario de eventos pasados. Antes de hacerlo, revisa las prácticas recomendadas para registrar eventos de usuario y la sección Antes de comenzar de esta página.

Los procedimientos de importación de esta página se aplican a las recomendaciones y a la búsqueda. Después de importar datos, ambos servicios pueden usar esos eventos, por lo que no necesitas importar los mismos datos dos veces si usas ambos servicios.

Puedes hacer lo siguiente:

Instructivo para importar eventos de Cloud Storage

En este instructivo, se muestra cómo importar eventos de usuario desde Cloud Storage.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

Guiarme


Instructivo para importar eventos de BigQuery

En este instructivo, se muestra cómo importar eventos de usuario desde BigQuery.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

Guiarme


Instructivo para importar eventos de forma intercalada

En este instructivo, se muestra cómo importar datos de eventos de usuario de forma intercalada.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

Guiarme


Antes de comenzar

Para evitar errores de importación y asegurarte de que haya datos suficientes para generar buenos resultados, revisa la siguiente información antes de importar tus eventos de usuario.

Consideraciones sobre la importación de eventos

En esta sección, se describen los métodos que se pueden usar para importar por lotes tus eventos de usuario históricos, cuándo podrías usar cada método, y algunas de sus limitaciones.

Cloud Storage Descripción Importa datos en formato JSON desde archivos cargados en un bucket de Cloud Storage Cada archivo debe ser de 2 GB o menos, y se pueden importar hasta 100 archivos a la vez. La importación se puede realizar con la consola de Google Cloud o cURL. Usa el formato de datos JSON Product, que permite atributos personalizados.
Cuándo usarla Si necesitas que se carguen grandes volúmenes de datos en un solo paso.
Limitaciones Si tus datos están en Google Analytics o Merchant Center, estos solo se pueden exportar a BigQuery y se requiere el paso adicional de importarlos a Cloud Storage.
BigQuery Descripción Importa datos de una tabla de BigQuery cargada con anterioridad que use el esquema de Vertex AI Search para la venta minorista. Se puede realizar con la consola de Google Cloud o cURL.
Cuándo usarla Si también usas datos de eventos de estadísticas o procesamiento previo antes de importarlos.
Limitaciones Requiere el paso adicional de crear una tabla de BigQuery que se asigne al esquema de Vertex AI Search para la venta minorista. Si tienes un gran volumen de eventos de usuario, también considera que BigQuery es un recurso de mayor costo que Cloud Storage.
BigQuery con Analytics 360 Descripción Importa datos preexistentes de Analytics 360 a Vertex AI Search para la venta minorista.
Cuándo usarla Si tienes Analytics 360 y realizas un seguimiento de las conversiones de recomendaciones o búsquedas. No se requiere la asignación de esquemas adicionales.
Limitaciones Solo hay un subconjunto de atributos disponible, por lo que no se pueden usar algunas funciones avanzadas de Vertex AI Search para venta minorista. El seguimiento de impresiones en Google Analytics es obligatorio si tienes pensado usar la búsqueda.
BigQuery con Google Analytics 4 Descripción Importa datos preexistentes de Google Analytics 4 a Vertex AI Search para la venta minorista.
Cuándo usarla Si tienes Google Analytics 4 y haces un seguimiento de las conversiones de recomendaciones o búsquedas. No se requiere la asignación de esquemas adicionales.
Limitaciones Solo hay un subconjunto de atributos disponible, por lo que no se pueden usar algunas funciones avanzadas de Vertex AI Search para venta minorista. Si planeas usar la búsqueda, debes configurar pares clave-valor del parámetro del evento para el seguimiento. La clave recomendada es search_query.
Importación intercalada Descripción Importación mediante una llamada al método userEvents.import.
Cuándo usarla Si deseas la privacidad adicional de que todas las autenticaciones se produzcan en el backend y poder realizar una importación de backend.
Limitaciones Por lo general, es más complicado que una importación web.

Importa eventos de usuario desde Cloud Storage

Importa eventos de usuario desde Cloud Storage con la consola de Google Cloud o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona Google Cloud Storage como la fuente de datos.
  5. Elige Esquema de eventos de usuario de Retail como el esquema.
  6. Ingresa la ubicación de Cloud Storage de tus datos.
  7. Haz clic en Importar.

cURL

Usa el método userEvents.import para importar tus eventos de usuario.

  1. Crea un archivo de datos para los parámetros de entrada de la importación. Usa el objeto GcsSource para que apunte a tu bucket de Cloud Storage.

    Puedes proporcionar varios archivos o solo uno.

    • INPUT_FILE: Son los archivos en Cloud Storage que contienen los datos de eventos de tu usuario. Consulta Acerca de los eventos de usuario para ver ejemplos de cada formato de tipo de evento de usuario. Asegúrate de que cada evento de usuario esté en su propia línea única, sin saltos de línea.
    • ERROR_DIRECTORY: Un directorio de Cloud Storage para obtener información sobre los errores de la importación

    Los campos de archivo de entrada deben tener el formato gs://<bucket>/<path-to-file>/. El directorio de errores debe tener el formato gs://<bucket>/<folder>/. Si no existe el directorio de errores, Vertex AI Search para venta minorista lo crea. El bucket ya debe existir.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
    
  2. Para importar la información de tu catálogo, realiza una solicitud POST al método de REST userEvents:import y proporciona el nombre del archivo de datos.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'
    

Importa eventos de usuario desde BigQuery

Importa eventos de usuario desde BigQuery con la consola de Google Cloud o el método userEvents.import.

Configura el acceso a BigQuery

Sigue las instrucciones que se indican en Configura el acceso a tu conjunto de datos de BigQuery para asignar a tu cuenta de servicio de Vertex AI Search para venta minorista la función de Propietario de datos de BigQuery en el conjunto de datos de BigQuery.

Importa tus eventos de usuario de BigQuery

Puedes importar eventos de 360 con la consola de Search for Retail o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.
    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, los buckets de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, los buckets de BigQuery y Cloud Storage deben estar en la misma región.
  9. Haz clic en Importar.

curl

Para importar tus eventos de usuario, incluye los datos de los eventos en tu llamada al método userEvents.import. Consulta la referencia de la API de userEvents.import.

El valor que especifiques para dataSchema depende de lo que importes:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importa eventos de usuario de Analytics 360 con BigQuery

Puedes importar eventos de usuario de Analytics 360 si integraste Analytics 360 con BigQuery y usas Comercio electrónico mejorado.

En los siguientes procedimientos, se supone que estás familiarizado con el uso de BigQuery y Analytics 360.

Antes de comenzar

Antes de comenzar con los próximos pasos, asegúrate de lo siguiente:

Verifica tu fuente de datos

  1. Asegúrate de que los datos de eventos del usuario que importarás tengan el formato correcto en una tabla de BigQuery a la que tengas acceso.

    Asegúrate de que la tabla se llame project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Consulta la documentación de Google Analytics para obtener más información sobre el formato y la denominación de las tablas.

  2. En la consola de Google Cloud de BigQuery, selecciona la tabla del panel Explorador para obtener una vista previa.

    Verifica lo siguiente:

    1. La columna clientId tiene un valor válido, por ejemplo, 123456789.123456789.

      Ten en cuenta que este valor es diferente del valor completo de la cookie _ga (que tiene un formato como GA1.3.123456789.123456789).

    2. La columna hits.transaction.currencyCode tiene un código de moneda válido.

    3. Si planeas importar eventos search, verifica que haya una columna hits.page.searchKeyword o hits.customVariable.searchQuery.

      Se admite la importación de eventos search, pero no se asignan desde Analytics 360 de la misma manera que otros tipos de eventos, ya que Analytics 360 no admite de forma nativa el tipo de evento search. Durante la importación, se crean los eventos search desde Analytics 360 mediante la combinación de información de la búsqueda y, si está presente, de la impresión del producto.

      La búsqueda se deriva de hits.page.searchKeyword, o de hits.customVariables.customVarValue si hits.customVariables.customVarName es searchQuery. La impresión del producto se toma de hits.product si hits.product.isImpressions es TRUE.

  3. Comprueba la coherencia de los ID de elementos entre el catálogo subido y la tabla de eventos del usuario de Analytics 360.

    Con cualquier ID de producto de la columna hits.product.productSKU en la vista previa de la tabla de BigQuery, usa el método product.get para asegurarte de que el mismo producto esté en tu catálogo subido.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

Importa tus eventos de Analytics 360

Puedes importar eventos de Google Analytics 360 con la consola de Search for Retail o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.
    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, los buckets de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, los buckets de BigQuery y Cloud Storage deben estar en la misma región.
  9. Haz clic en Importar.

REST

Importa tus eventos de usuario mediante la inclusión de los datos de los eventos en tu llamada al método userEvents.import.

Para dataSchema, usa el valor user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importe las vistas de la página principal de Analytics 360 con BigQuery

En Analytics 360, los eventos de vista de la página principal no se distinguen de otros eventos de vista de página. Esto significa que los eventos de vista de la página principal no se importan como eventos con los otros tipos de eventos (como la vista de página de detalles) en Importa tus eventos de Analytics 360.

En el siguiente procedimiento, se explica cómo puedes extraer eventos de vista de la página principal de tus datos de Analytics 360 y, luego, importarlos a Vertex AI Search para venta minorista. En resumen, esto se hace mediante la extracción de las vistas de los usuarios de la página principal (identificadas por la ruta de la página principal) en una tabla nueva de BigQuery y, luego, importando los datos de esa tabla nueva a Vertex AI Search para la venta minorista.

Para importar eventos de vista de la página principal de Analytics 360 a Vertex AI Search para venta minorista, sigue estos pasos:

  1. Crea un conjunto de datos de BigQuery o asegúrate de tener un conjunto de datos de BigQuery disponible al que puedas agregarle una tabla.

    Este conjunto de datos puede estar en tu proyecto de Vertex AI Search para venta minorista o en el proyecto en el que tienes tus datos de Analytics 360. Es el conjunto de datos de destino en el que copiarás los eventos de vista de la página principal de Analytics 360.

  2. Crea una tabla de BigQuery en el conjunto de datos de la siguiente manera:

    1. Reemplaza las variables en el siguiente código SQL como se indica a continuación.

      • target_project_id::Es el proyecto en el que se encuentra el conjunto de datos del paso 1.

      • target_dataset: es el nombre del conjunto de datos del paso 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
      
    2. Copia la muestra de código SQL.

    3. Abre la página BigQuery en la consola de Google Cloud.

      Ir a la página de BigQuery

    4. Si aún no está seleccionado, selecciona el proyecto de destino.

    5. En el panel Editor, pega la muestra de código SQL.

    6. Haz clic en Ejecutar y espera a que la consulta termine de ejecutarse.

    Cuando ejecutas este código, se crea una tabla con el formato target_project_id:target_dataset.ga_homepage_YYYYMMDD, por ejemplo, my-project:view_events.ga_homepage_20230115.

  3. Copia los eventos de vista de la página principal de Analytics 360 de la tabla de datos de Analytics 360 en la tabla creada en el paso 2 anterior.

    1. Reemplaza las variables en el siguiente código de ejemplo de SQL de la siguiente manera:

      • source_project_id: Es el ID del proyecto que contiene los datos de Analytics 360 en una tabla de BigQuery.

      • source_dataset: es el conjunto de datos en el proyecto de origen que contiene los datos de Analytics 360 en una tabla de BigQuery.

      • source_table: Es la tabla en el proyecto de origen que contiene los datos de Analytics 360.

      • target_project_id: Es el mismo ID del proyecto de destino que en el paso 2 anterior.

      • target_dataset: Es el mismo conjunto de datos de destino del paso 2 anterior.

      • path: Es la ruta de acceso a la página principal. Por lo general, es /, por ejemplo, si la página principal es example.com/. Sin embargo, si la página principal es como examplepetstore.com/index.html, la ruta es /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
      
    2. Copia la muestra de código SQL.

    3. Abre la página BigQuery en la consola de Google Cloud.

      Ir a la página de BigQuery

    4. Si aún no está seleccionado, selecciona el proyecto de destino.

    5. En el panel Editor, pega la muestra de código SQL.

    6. Haz clic en Ejecutar y espera a que la consulta termine de ejecutarse.

  4. Sigue las instrucciones que se indican en Importa eventos de usuario desde BigQuery para importar los eventos de vista de la página principal desde la tabla de destino. Si importas el esquema con la consola, selecciona Retail User Events Schema. Si importas el esquema con userEvents.import, especifica user_event para el valor dataSchema.

  5. Borra la tabla y el conjunto de datos que creaste en los pasos 1 y 2.

Importa eventos de usuario de Google Analytics 4 con BigQuery

Puedes importar eventos de usuario de Google Analytics 4 si integraste Google Analytics 4 en BigQuery y usas el comercio electrónico de Google Analytics.

En los siguientes procedimientos, se supone que estás familiarizado con el uso de BigQuery y Google Analytics 4.

Antes de comenzar

Antes de comenzar con los próximos pasos, asegúrate de lo siguiente:

Verifica tu fuente de datos

A fin de asegurarte de que tus datos de eventos de usuario estén listos para la importación, sigue estos pasos.

Si deseas ver una tabla de los campos de Google Analytics 4 que usa Vertex AI Search para la venta minorista y a qué campos se asignan los Vertex AI Search para la venta minorista, consulta los campos de eventos de los usuarios de Google Analytics 4.

Para obtener más información sobre todos los parámetros de eventos de Google Analytics, consulta la documentación de referencia de los eventos de Google Analytics.

  1. Asegúrate de que los datos de eventos del usuario que importarás tengan el formato correcto en una tabla de BigQuery a la que tengas acceso.

    • El conjunto de datos debe llamarse analytics_PROPERTY_ID.
    • La tabla debe llamarse events_YYYYMMDD.

    Para obtener información sobre los nombres y el formato de las tablas, consulta la documentación de Google Analytics.

  2. En la consola de Google Cloud de BigQuery, selecciona el conjunto de datos del panel Explorador y busca la tabla de eventos del usuario que planeas importar.

    Verifica lo siguiente:

    1. La columna event_params.key tiene una clave currency y el valor de su cadena asociado es un código de moneda válido.

    2. Si planeas importar eventos search, verifica que la columna event.event_params.key tenga una clave search_term y un valor asociado.

      Se admite la importación de eventos search, pero los eventos search no se asignan desde Google Analytics 4 de la misma manera que otros tipos de eventos, ya que Google Analytics 4 no admite de forma nativa el tipo de evento search de Vertex AI Search para venta minorista. Durante la importación, se crean eventos search a partir de Google Analytics 4 mediante la combinación de información de los parámetros view_item_list y search_term.

      Para obtener información sobre search en Google Analytics 4, consulta search en la documentación de Google Analytics.

  3. Verifica la coherencia de los IDs de elementos entre el catálogo subido y la tabla de eventos del usuario de Google Analytics 4.

    Para asegurarte de que un producto de la tabla de usuarios de Google Analytics 4 también esté en el catálogo que subiste, copia el ID del producto de la columna event.items.item_id en la vista previa de la tabla de BigQuery y usa el método product.get para verificar si ese ID del producto está en el catálogo que subiste.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

Configura el acceso a BigQuery

Sigue las instrucciones que se indican en Configura el acceso a tu conjunto de datos de BigQuery para asignar a tu cuenta de servicio de Vertex AI Search para venta minorista la función de Propietario de datos de BigQuery en el conjunto de datos de BigQuery.

Importa tus eventos de Google Analytics 4

Puedes importar eventos de Google Analytics 4 con la consola de Search for Retail o el método userEvents.import.

Importa eventos de Google Analytics 4 con la consola

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.
    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, los buckets de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, los buckets de BigQuery y Cloud Storage deben estar en la misma región.
  9. Haz clic en Importar.

Importa eventos de Google Analytics 4 con la API

Para importar tus eventos de usuario, incluye los datos de los eventos en tu llamada al método userEvents.import. Consulta la referencia de la API de userEvents.import.

Para dataSchema, usa el valor user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importa eventos de usuario de forma intercalada

Puedes importar eventos de usuario de forma intercalada si incluyes los datos de los eventos en tu llamada al método userEvents.import.

La manera más sencilla de hacerlo es colocar los datos de eventos de usuario en un archivo JSON y proporcionar el archivo a cURL.

Si deseas conocer los formatos de los tipos de eventos de los usuarios, consulta el artículo Acerca de los eventos de los usuarios.

curl

  1. Crea el archivo JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Llama al método POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Datos históricos de catálogos

También puedes importar los datos históricos del catálogo que aparecen en tus eventos de usuario históricos. Estos datos históricos de catálogo pueden ser útiles porque la información de productos anterior se puede usar para enriquecer los eventos del usuario, lo que puede mejorar la precisión del modelo.

Para obtener más detalles, consulta Importa datos del catálogo histórico.

Ver eventos importados

Consulta las métricas de integración de eventos en la pestaña Eventos de la página Datos de la consola de Search for Retail. En esta página, se muestran todos los eventos que se escribieron o importaron en el último año. Las métricas pueden tardar hasta una hora en aparecer en la consola después de una transferencia de datos exitosa.

Ir a la página Datos

¿Qué sigue?