Importa eventos históricos de usuarios

En esta página, se describe cómo importar datos de eventos de usuario de forma masiva desde eventos anteriores. Los modelos de Vertex AI Search para la venta minorista requieren datos de eventos de usuarios para el entrenamiento.

Después de configurar el registro de eventos en tiempo real, puede tomar bastante tiempo en registrar suficientes datos de eventos de usuario para entrenar los modelos. Puedes acelerar el entrenamiento inicial de los modelos mediante la importación masiva de datos de eventos de usuario de eventos pasados. Antes de hacerlo, revisa las prácticas recomendadas para registrar eventos de usuario y la sección Antes de comenzar de esta página.

Los procedimientos de importación de esta página se aplican a las recomendaciones y a la búsqueda. Después de importar datos, ambos servicios pueden usar esos eventos, por lo que no es necesario importarlos dos veces si usas ambos servicios.

Puedes hacer lo siguiente:

Instructivo para importar eventos de Cloud Storage

En este instructivo, se muestra cómo importar eventos de usuario desde Cloud Storage.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

GUIARME


Instructivo para importar eventos de BigQuery

En este instructivo, se muestra cómo importar eventos de usuario desde BigQuery.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

GUIARME


Instructivo para importar eventos intercalados

En este instructivo, se muestra cómo importar datos de eventos de usuario intercalados.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

GUIARME


Antes de comenzar

Para evitar errores de importación y garantizar que haya datos suficientes para generar buenos resultados, revisa la siguiente información antes de importar de eventos de usuario.

Consideraciones sobre la importación de eventos

En esta sección, se describen los métodos que se pueden usar para importar por lotes tus eventos de usuario históricos, cuándo puedes usar cada método y algunas de sus limitaciones.

Cloud Storage Descripción Importa datos en formato JSON desde archivos cargados en un bucket de Cloud Storage Cada archivo debe ser de 2 GB o menos, y se pueden importar hasta 100 archivos a la vez. La importación se puede realizar con la consola de Google Cloud. o cURL. Usa el formato de datos JSON Product, que permite atributos personalizados.
Cuándo usarla Si necesitas que se carguen grandes volúmenes de datos en un solo paso.
Limitaciones Si tus datos están en Google Analytics o Merchant Center, estos solo se pueden exportar a BigQuery y se requiere el paso adicional de importarlos a Cloud Storage.
BigQuery Descripción Importa datos de una tabla de BigQuery cargada con anterioridad que usa el esquema de búsqueda de Vertex AI para venta minorista. Se puede realizar con la consola de Google Cloud o cURL.
Cuándo usarla Si también usas datos de eventos de estadísticas o procesamiento previo antes de importarlos.
Limitaciones Requiere el paso adicional de crear una tabla de BigQuery que se asigna al esquema de Vertex AI Search for Retail. Si tienes un gran volumen de eventos de usuario, también considera que BigQuery es un recurso de mayor costo que Cloud Storage.
BigQuery con Analytics 360 Descripción Importa datos preexistentes de Analytics 360 a Vertex AI Search para venta minorista.
Cuándo usarla Si tienes Analytics 360 y haces un seguimiento de las conversiones de recomendaciones o búsquedas. No se requiere la asignación de esquemas adicionales.
Limitaciones Solo hay un subconjunto de atributos disponible, por lo que no se pueden usar algunas funciones avanzadas de Vertex AI Search para venta minorista. Se requiere el seguimiento de las impresiones en Google Analytics si planeas usar la búsqueda.
BigQuery con Google Analytics 4 Descripción Importa datos preexistentes de Google Analytics 4 a Vertex AI Search para venta minorista.
Cuándo usarla Si tienes Google Analytics 4 y haces un seguimiento de las conversiones de recomendaciones o búsquedas. No se requiere la asignación de esquemas adicionales.
Limitaciones Solo hay un subconjunto de atributos disponible, así que algunos atributos No se pueden usar las funciones de Vertex AI Search for Retail. Si quieres usar la búsqueda, debes configurar los eventos pares clave-valor de parámetros para el seguimiento; la clave recomendada es search_query
Importación intercalada Descripción Importación mediante una llamada al método userEvents.import.
Cuándo usarla Si deseas la privacidad adicional de que todas las autenticaciones se produzcan en el backend y poder realizar una importación de backend.
Limitaciones Por lo general, es más complicado que una importación web.

Importa eventos de usuario desde Cloud Storage

Importa eventos de usuarios desde Cloud Storage mediante la consola de Google Cloud o el método userEvents.import.

Console

  1. Dirígete a Datos > en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona Google Cloud Storage como la fuente de datos.
  5. Elige Retail User Events Schema como esquema.
  6. Ingresa la ubicación de Cloud Storage de tus datos.
  7. Haga clic en Import.

cURL

Usa el método userEvents.import para importar tus eventos de usuario.

  1. Crea un archivo de datos para los parámetros de entrada de la importación. Usa el objeto GcsSource para que apunte a tu bucket de Cloud Storage.

    Puedes proporcionar varios archivos o solo uno.

    • INPUT_FILE: Son los archivos en Cloud Storage que contienen los datos de eventos de tu usuario. Consulta Acerca de los eventos de usuario para ver ejemplos de cada formato de tipo de evento de usuario. Asegúrate de que cada evento de usuario esté en su propia línea única, sin saltos de línea.
    • ERROR_DIRECTORY: Un directorio de Cloud Storage para obtener información sobre los errores de la importación

    Los campos de archivo de entrada deben tener el formato gs://<bucket>/<path-to-file>/. El directorio de errores debe tener el formato gs://<bucket>/<folder>/. Si el directorio de errores no existe, Vertex AI Search for Retail lo crea. El bucket ya debe existir.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Importa la información de tu catálogo mediante realiza una solicitud POST a la REST userEvents:import proporcionando el nombre del archivo de datos.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Importa eventos de usuario desde BigQuery

Importa eventos de usuario de BigQuery con la consola de Google Cloud o el método userEvents.import.

Configura el acceso a BigQuery

Sigue las instrucciones en Configura el acceso a tu conjunto de datos de BigQuery para darle a tu cuenta de servicio de Búsqueda de Vertex AI para venta minorista un rol de propietario de datos de BigQuery para tu conjunto de datos de BigQuery.

Importa tus eventos de usuario desde BigQuery

Puedes importar eventos de 360 con la consola de Search for Retail o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como ubicación temporal para tus datos.
    Si no se especifica, se usará la ubicación predeterminada que se usan. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, BigQuery y El bucket de Cloud Storage debe estar en la misma región.
  9. Haga clic en Import.

curl

Para importar los eventos de usuario, incluye los datos de los eventos en tu llamada. al método userEvents.import. Consulta la Referencia de la API de userEvents.import.

El valor que especifiques para dataSchema depende de lo que importes:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importa eventos de usuario de Analytics 360 con BigQuery

Puedes importar eventos de usuario de Analytics 360 si integraste Analytics 360 a BigQuery y usas el Comercio electrónico mejorado.

En los siguientes procedimientos, se da por sentado que estás familiarizado con el uso de BigQuery y Analytics 360.

Antes de comenzar

Antes de comenzar con los siguientes pasos, asegúrate de lo siguiente:

Verifica tu fuente de datos

  1. Asegúrate de que los datos de eventos del usuario que importarás tengan el formato correcto en una tabla de BigQuery a la que tengas acceso.

    Asegúrate de que la tabla se llame project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Consulta la documentación de Google Analytics para obtener más información el formato y la denominación de la tabla.

  2. En la Consola de Google Cloud de BigQuery, selecciona la tabla del panel Explorador para obtener una vista previa de ella.

    Verifica lo siguiente:

    1. La columna clientId tiene un valor válido, por ejemplo, 123456789.123456789.

      Ten en cuenta que este valor es diferente del valor completo de la cookie _ga (que tiene un formato como GA1.3.123456789.123456789).

    2. La columna hits.transaction.currencyCode tiene un código de moneda válido.

    3. Si planeas importar eventos search, verifica que haya una columna hits.page.searchKeyword o hits.customVariable.searchQuery.

      Se admite la importación de eventos search, pero no se asignan desde Analytics 360 de la misma manera que otros tipos de eventos, ya que Analytics 360 no admite de forma nativa el tipo de evento search. Durante la importación, se construyen search eventos de Analytics 360 combinando información de los búsqueda y, si está presente, las impresiones del producto.

      La búsqueda se deriva de hits.page.searchKeyword, o de hits.customVariables.customVarValue si hits.customVariables.customVarName es searchQuery. La impresión del producto se toma de hits.product si hits.product.isImpressions es TRUE.

  3. Comprueba la coherencia de los ID de elementos entre el catálogo subido y la tabla de eventos del usuario de Analytics 360.

    Con cualquier ID de producto de la columna hits.product.productSKU en la vista previa de la tabla de BigQuery, usa el método product.get para asegurarte de que el mismo producto esté en tu catálogo subido.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Importa tus eventos de Analytics 360

Puedes importar eventos de Google Analytics 360 con la consola de Search for Retail o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como ubicación temporal para tus datos.
    Si no se especifica, se usará la ubicación predeterminada que se usan. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, BigQuery y El bucket de Cloud Storage debe estar en la misma región.
  9. Haga clic en Import.

REST

Importa tus eventos de usuario mediante la inclusión de los datos de los eventos en tu llamada al método userEvents.import.

Para dataSchema, usa el valor user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importa tus vistas de página principal de Analytics 360 con BigQuery

En Analytics 360, los eventos de vista de página principal no se distinguen de otros eventos de vista de página. Esto significa que los eventos de vista de la página principal No se importan como eventos con los otros tipos de eventos (como vista de la página de detalles). Consulta Cómo importar tus eventos de Analytics 360.

En el siguiente procedimiento, se explica cómo puedes extraer eventos de vistas de la página principal de tus datos de Analytics 360 y, luego, importarlos a la Búsqueda de Vertex AI para venta minorista. En resumen, esto se hace extrayendo las claves vistas de la casa (identificada por la ruta de la página principal) en una tabla de BigQuery nueva y, luego, importarás los datos de esa tabla nueva a Vertex AI Search for Retail.

Para importar eventos de vistas de la página principal de Analytics 360 a Vertex AI Search for Retail, sigue estos pasos:

  1. Crea un conjunto de datos de BigQuery o asegúrate de tener Conjunto de datos de BigQuery disponible al que puedes agregar una tabla.

    Este conjunto de datos puede estar en tu proyecto de Vertex AI Search for Retail o en el proyecto en el que sus datos de Analytics 360. Es el conjunto de datos objetivo en el que copiarás los eventos de vista de la página principal de Analytics 360.

  2. Crea una tabla de BigQuery en el conjunto de datos de la siguiente manera:

    1. Reemplaza las variables en el siguiente código SQL de la siguiente manera.

      • target_project_id: Es el proyecto en el que se encuentra el conjunto de datos del paso 1.

      • target_dataset: Es el nombre del conjunto de datos del paso 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Copia la muestra de código de SQL.

    3. Abre la página BigQuery en la consola de Google Cloud.

      Ir a la página de BigQuery

    4. Si aún no está seleccionado, elige el proyecto de destino.

    5. En el panel Editor, pega la muestra de código de SQL.

    6. Haz clic en Ejecutar y espera a que la consulta termine de ejecutarse.

    Cuando se ejecuta este código, se crea una tabla en el formato target_project_id:target_dataset.ga_homepage_YYYYMMDD, por ejemplo, my-project:view_events.ga_homepage_20230115

  3. Copia los eventos de vista de la página principal de Analytics 360 desde tu de datos de Analytics 360 en la tabla creada en el el paso 2 anterior.

    1. Reemplaza las variables en el siguiente código de ejemplo de SQL de la siguiente manera:

      • source_project_id: Es el ID del proyecto que contiene la Datos de Analytics 360 en BigQuery desde una tabla de particiones.

      • source_dataset: Es el conjunto de datos del proyecto de origen que contiene los datos de Analytics 360 en una tabla de BigQuery.

      • source_table: Es la tabla del proyecto de origen que contiene los datos de Analytics 360.

      • target_project_id: Es el mismo ID del proyecto de destino que en el paso 2 anterior.

      • target_dataset: Es el mismo conjunto de datos de destino que en el paso 2 anterior.

      • path: Es la ruta de acceso a la página principal. Por lo general, es /, por ejemplo, si la página principal es example.com/. Sin embargo, si la página principal es como examplepetstore.com/index.html, la ruta es /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Copia la muestra de código SQL.

    3. Abre la página BigQuery en la consola de Google Cloud.

      Ir a la página de BigQuery

    4. Si aún no lo hiciste, selecciona el proyecto de destino.

    5. En el panel Editor, pega la muestra de código de SQL.

    6. Haz clic en Ejecutar y espera que la consulta termine de ejecutarse.

  4. Sigue las instrucciones que se indican en Importa eventos de usuario desde BigQuery para importar los eventos de vista de página principal de la tabla de destino. Durante la selección del esquema, si realizas la importación con la consola, selecciona Esquema de eventos de venta minorista del usuario. Si realizas la importación con userEvents.import, especifica user_event para el valor dataSchema.

  5. Borra la tabla y el conjunto de datos que creaste en los pasos 1 y 2.

Importa eventos de usuario de Google Analytics 4 con BigQuery

Puedes importar eventos de usuario de Google Analytics 4 si tienes lo siguiente: integrado Google Analytics 4 con BigQuery y usar Comercio electrónico de Google Analytics.

En los siguientes procedimientos, se supone que estás familiarizado con el uso BigQuery y Google Analytics 4.

Antes de comenzar

Antes de comenzar con los siguientes pasos, asegúrate de lo siguiente:

Verifica tu fuente de datos

Para asegurarte de que tus datos de eventos de usuario estén preparados para la importación, sigue estos pasos.

Para obtener una tabla de los campos de Google Analytics 4 que usa Vertex AI Search para la venta minorista y a qué campos de Vertex AI Search para la venta minorista se asignan, consulta Campos de eventos del usuario de Google Analytics 4.

Para consultar todos los parámetros de eventos de Google Analytics, consulta la Documentación de referencia de eventos de Google Analytics

  1. Asegúrate de que los datos de eventos del usuario que importarás tengan el formato correcto en una tabla de BigQuery a la que tengas acceso.

    • El conjunto de datos debe llamarse analytics_PROPERTY_ID.
    • La tabla debe llamarse events_YYYYMMDD.

    Para obtener información sobre los nombres y el formato de las tablas, consulta la documentación de Google Analytics.

  2. En la Consola de Google Cloud de BigQuery, selecciona el conjunto de datos del panel Explorador y busca la tabla de usuarios eventos que planeas importar.

    Verifica lo siguiente:

    1. La columna event_params.key tiene una clave currency y su valor de cadena asociado es un código de moneda válido.

    2. Si planeas importar eventos search, verifica que la columna event.event_params.key tenga una clave search_term y un valor asociado.

      Se admite la importación de eventos search, pero estos no se asignan desde Google Analytics 4 de la misma manera que otros tipos de eventos, ya que Google Analytics 4 no admite de forma nativa el tipo de evento search de la Búsqueda de Vertex AI para venta minorista. Durante la importación, Los eventos search se construyen a partir de Google Analytics 4 combinando información de la view_item_list y el parámetro search_term.

      Para obtener información sobre search en Google Analytics 4, consulta search en la documentación de Google Analytics.

  3. Verifica la coherencia de los IDs de artículo entre el catálogo subido y la Tabla de eventos de usuarios de Google Analytics 4.

    Para asegurarte de que un producto de la tabla de usuarios de Google Analytics 4 también esté en tu catálogo subido, copia un ID de producto de la columna event.items.item_id en la vista previa de la tabla de BigQuery y usa el método product.get para verificar si ese ID de producto está en tu catálogo subido.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Configura el acceso a BigQuery

Sigue las instrucciones que se indican en Configurar el acceso al conjunto de datos de BigQuery para darle a tu Un rol de propietario de datos de BigQuery para la cuenta de servicio de Vertex AI Search for Retail conjunto de datos de BigQuery.

Importa tus eventos de Google Analytics 4

Puedes importar eventos de Google Analytics 4 con el Busca en la consola de venta minorista o en el método userEvents.import.

Importa eventos de Google Analytics 4 con la consola

  1. Dirígete a Datos > en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como ubicación temporal para tus datos.
    Si no se especifica, se usará la ubicación predeterminada que se usan. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, BigQuery y El bucket de Cloud Storage debe estar en la misma región.
  9. Haga clic en Import.

Importa eventos de Google Analytics 4 con la API

Para importar los eventos de usuario, incluye los datos de los eventos en tu llamada. al método userEvents.import. Consulta la Referencia de la API de userEvents.import.

Para dataSchema, usa el valor user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importa eventos de usuario intercalados

Para importar eventos de usuario intercalados, incluye los datos de los eventos en tu llamada al método userEvents.import.

La manera más sencilla de hacerlo es colocar los datos de eventos de usuario en un archivo JSON y proporcionar el archivo a cURL.

Para conocer los formatos de los tipos de eventos del usuario, consulta Acerca de los eventos del usuario.

curl

  1. Crea el archivo JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Llama al método POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Datos históricos de catálogos

También puedes importar los datos históricos del catálogo que aparecen en tus eventos de usuario históricos. Estos datos históricos del catálogo pueden ser útiles la información de productos anteriores se puede usar para enriquecer de eventos de usuario, lo que puede mejorar la exactitud del modelo.

Para obtener más detalles, consulta Importa datos del catálogo histórico.

Cómo ver los eventos importados

Consulta las métricas de integración de eventos en la pestaña Eventos de la página Datos de la consola de Search for Retail. En esta página, se muestran todos los eventos que se escribieron o importaron en el último año. Las métricas pueden tardar hasta 24 horas en aparecer después de que se transfieren los datos correctamente.

Ir a la página Datos

¿Qué sigue?