Importa eventos históricos de usuarios

En esta página, se describe cómo importar datos de eventos de usuario de forma masiva desde eventos anteriores. Los modelos de Vertex AI Search para la venta minorista requieren datos de eventos de usuarios para el entrenamiento.

Después de configurar el registro de eventos en tiempo real, puede tomar bastante tiempo en registrar suficientes datos de eventos de usuario para entrenar los modelos. Puedes acelerar el entrenamiento inicial de los modelos mediante la importación masiva de datos de eventos de usuario de eventos pasados. Antes de hacerlo, revisa las prácticas recomendadas para registrar eventos de usuario y la sección Antes de comenzar de esta página.

Los procedimientos de importación de esta página se aplican a las recomendaciones y a la búsqueda. Después de importar datos, ambos servicios pueden usar esos eventos, por lo que no es necesario importarlos dos veces si usas ambos servicios.

Puedes hacer lo siguiente:

Instructivo para importar eventos de Cloud Storage

En este instructivo, se muestra cómo importar eventos de usuarios desde Cloud Storage.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

GUIARME


Instructivo para importar eventos desde BigQuery

En este instructivo, se muestra cómo importar eventos de usuario desde BigQuery.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

GUIARME


Instructivo para importar eventos intercalados

En este instructivo, se muestra cómo importar datos de eventos de usuario intercalados.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

GUIARME


Antes de comenzar

Para evitar errores de importación y asegurarte de que haya datos suficientes para generar buenos resultados, revisa la siguiente información antes de importar tus eventos de usuario.

Consideraciones sobre la importación de eventos

En esta sección, se describen los métodos que se pueden usar para importar por lotes tus eventos de usuario históricos, cuándo puedes usar cada método y algunas de sus limitaciones.

Cloud Storage Descripción Importa datos en formato JSON desde archivos cargados en un bucket de Cloud Storage Cada archivo debe ser de 2 GB o menos, y se pueden importar hasta 100 archivos a la vez. La importación se puede realizar con la consola de Google Cloud o cURL. Usa el formato de datos JSON Product, que permite atributos personalizados.
Cuándo usarla Si necesitas que se carguen grandes volúmenes de datos en un solo paso.
Limitaciones Si tus datos están en Google Analytics o Merchant Center, estos solo se pueden exportar a BigQuery y se requiere el paso adicional de importarlos a Cloud Storage.
BigQuery Descripción Importa datos de una tabla de BigQuery cargada con anterioridad que usa el esquema de búsqueda de Vertex AI para venta minorista. Se puede realizar con la consola de Google Cloud o cURL.
Cuándo usarla Si también usas datos de eventos de estadísticas o procesamiento previo antes de importarlos.
Limitaciones Requiere el paso adicional de crear una tabla de BigQuery que se asigne al esquema de venta minorista de Vertex AI Search. Si tienes un gran volumen de eventos de usuario, también considera que BigQuery es un recurso de mayor costo que Cloud Storage.
BigQuery con Analytics 360 Descripción Importa datos preexistentes de Analytics 360 a Vertex AI Search para la venta minorista.
Cuándo usarla Si tienes Analytics 360 y haces un seguimiento de las conversiones de recomendaciones o búsquedas. No se requiere la asignación de esquemas adicionales.
Limitaciones Solo hay un subconjunto de atributos disponible, por lo que no se pueden usar algunas funciones avanzadas de Vertex AI Search para venta minorista. Se requiere el seguimiento de las impresiones en Google Analytics si planeas usar la búsqueda.
BigQuery con Google Analytics 4 Descripción Importa datos preexistentes de Google Analytics 4 a Vertex AI Search para la venta minorista.
Cuándo usarla Si tienes Google Analytics 4 y haces un seguimiento de las conversiones de recomendaciones o búsquedas. No se requiere la asignación de esquemas adicionales.
Limitaciones Solo hay un subconjunto de atributos disponible, por lo que no se pueden usar algunas funciones avanzadas de Vertex AI Search para venta minorista. Si planeas usar la búsqueda, debes configurar pares clave-valor de los parámetros de eventos para el seguimiento. La clave recomendada es search_query.
Importación intercalada Descripción Importación mediante una llamada al método userEvents.import.
Cuándo usarla Si deseas la privacidad adicional de que todas las autenticaciones se produzcan en el backend y poder realizar una importación de backend.
Limitaciones Por lo general, es más complicado que una importación web.

Importa eventos de usuario desde Cloud Storage

Importa eventos de usuarios desde Cloud Storage mediante la consola de Google Cloud o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona Google Cloud Storage como la fuente de datos.
  5. Elige Esquema de eventos de usuarios de venta minorista como el esquema.
  6. Ingresa la ubicación de Cloud Storage de tus datos.
  7. Haga clic en Import.

cURL

Usa el método userEvents.import para importar tus eventos de usuario.

  1. Crea un archivo de datos para los parámetros de entrada de la importación. Usa el objeto GcsSource para que apunte a tu bucket de Cloud Storage.

    Puedes proporcionar varios archivos o solo uno.

    • INPUT_FILE: Son los archivos en Cloud Storage que contienen los datos de eventos de tu usuario. Consulta Acerca de los eventos de usuario para ver ejemplos de cada formato de tipo de evento de usuario. Asegúrate de que cada evento de usuario esté en su propia línea única, sin saltos de línea.
    • ERROR_DIRECTORY: Un directorio de Cloud Storage para obtener información sobre los errores de la importación

    Los campos de archivo de entrada deben tener el formato gs://<bucket>/<path-to-file>/. El directorio de errores debe tener el formato gs://<bucket>/<folder>/. Si el directorio de errores no existe, Vertex AI Search for Retail lo crea. El bucket ya debe existir.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Importa la información de tu catálogo mediante una solicitud POST al método REST userEvents:import y proporciona el nombre del archivo de datos.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Importa eventos de usuario desde BigQuery

Importa eventos de usuario desde BigQuery mediante la consola de Google Cloud o el método userEvents.import.

Configura el acceso a BigQuery

Sigue las instrucciones en Configura el acceso a tu conjunto de datos de BigQuery para darle a tu cuenta de servicio de Vertex AI Search for Retail el rol de propietario de datos de BigQuery para tu conjunto de datos de BigQuery.

Importa tus eventos de usuario desde BigQuery

Puedes importar eventos de 360 con la consola de Search for Retail o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.
    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  9. Haga clic en Import.

curl

Importa tus eventos de usuario mediante la inclusión de los datos de los eventos en tu llamada al método userEvents.import. Consulta la referencia de la API de userEvents.import.

El valor que especifiques para dataSchema depende de lo que importes:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importa eventos de usuario de Analytics 360 con BigQuery

Puedes importar eventos de usuario de Analytics 360 si integraste Analytics 360 a BigQuery y usas el Comercio electrónico mejorado.

En los siguientes procedimientos, se da por sentado que estás familiarizado con el uso de BigQuery y Analytics 360.

Antes de comenzar

Antes de comenzar con los siguientes pasos, asegúrate de lo siguiente:

Verifica tu fuente de datos

  1. Asegúrate de que los datos de eventos de usuario que importarás tengan el formato correcto en una tabla de BigQuery a la que tengas acceso.

    Asegúrate de que la tabla se llame project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Consulta la documentación de Google Analytics para obtener más información sobre el formato y los nombres de las tablas.

  2. En la consola de Google Cloud, selecciona la tabla del panel Explorador para obtener una vista previa.

    Verifica lo siguiente:

    1. La columna clientId tiene un valor válido, por ejemplo, 123456789.123456789.

      Ten en cuenta que este valor es diferente del valor completo de la cookie _ga (que tiene un formato como GA1.3.123456789.123456789).

    2. La columna hits.transaction.currencyCode tiene un código de moneda válido.

    3. Si planeas importar eventos search, verifica que haya una columna hits.page.searchKeyword o hits.customVariable.searchQuery.

      Si bien Vertex AI Search para venta minorista requiere searchQuery y productDetails para mostrar una lista de resultados de la búsqueda, Analytics 360 no almacena las búsquedas ni las impresiones de productos en un solo evento. Para que Vertex AI Search for Retail funcione, debes crear una etiqueta en la capa de datos o un píxel de JavaScript para poder importar ambos tipos de eventos del usuario desde las fuentes de Google Analytics:

      • searchQuery, que se lee del parámetro search_term o de los eventos view_search_results, se deriva de hits.page.searchKeyword o de hits.customVariables.customVarValue si hits.customVariables.customVarName es searchQuery.
      • productDetails, la impresión del producto que se lee del parámetro items del evento view_item_list, se toma de hits.product si hits.product.isImpressions es TRUE.
  3. Comprueba la coherencia de los ID de elementos entre el catálogo subido y la tabla de eventos del usuario de Analytics 360.

    Con cualquier ID de producto de la columna hits.product.productSKU en la vista previa de la tabla de BigQuery, usa el método product.get para asegurarte de que el mismo producto esté en tu catálogo subido.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Importa tus eventos de Analytics 360

Puedes importar eventos de Google Analytics 360 con la consola de Search for Retail o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.
    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  9. Haga clic en Import.

REST

Importa tus eventos de usuario mediante la inclusión de los datos de los eventos en tu llamada al método userEvents.import.

Para dataSchema, usa el valor user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importa tus vistas de página principal de Analytics 360 con BigQuery

En Analytics 360, los eventos de vista de página principal no se distinguen de otros eventos de vista de página. Esto significa que los eventos de vista de página principal no se importan como eventos con los otros tipos de eventos (como vista de página de detalles) en Importa eventos de Google Analytics 360 desde BigQuery.

En el siguiente procedimiento, se explica cómo puedes extraer eventos de vistas de la página principal de tus datos de Analytics 360 y, luego, importarlos a la Búsqueda de Vertex AI para venta minorista. En resumen, esto se hace extrayendo las vistas de los usuarios de la página principal (identificadas por la ruta de la página principal) en una nueva tabla de BigQuery y, luego, importando los datos de esa tabla nueva a la Búsqueda de Vertex AI para venta minorista.

Para importar eventos de vistas de la página principal de Analytics 360 a Vertex AI Search for Retail, sigue estos pasos:

  1. Crea un conjunto de datos de BigQuery o asegúrate de tener un conjunto de datos de BigQuery disponible al que puedas agregar una tabla.

    Este conjunto de datos puede estar en tu proyecto de Vertex AI Search para la venta minorista o en el proyecto en el que tienes tus datos de Analytics 360. Es el conjunto de datos objetivo en el que copiarás los eventos de vista de la página principal de Analytics 360.

  2. Crea una tabla de BigQuery en el conjunto de datos de la siguiente manera:

    1. Reemplaza las variables en el siguiente código SQL de la siguiente manera.

      • target_project_id: Es el proyecto en el que se encuentra el conjunto de datos del paso 1.

      • target_dataset: Es el nombre del conjunto de datos del paso 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Copia la muestra de código SQL.

    3. Abre la página BigQuery en la consola de Google Cloud.

      Ir a la página de BigQuery

    4. Si aún no lo hiciste, selecciona el proyecto de destino.

    5. En el panel Editor, pega la muestra de código SQL.

    6. Haz clic en Ejecutar y espera a que la consulta termine de ejecutarse.

    Si ejecutas este código, se creará una tabla en el formato target_project_id:target_dataset.ga_homepage_YYYYMMDD, por ejemplo, my-project:view_events.ga_homepage_20230115.

  3. Copia los eventos de vista de página principal de Analytics 360 de tu tabla de datos de Analytics 360 a la tabla creada en el paso 2 anterior.

    1. Reemplaza las variables en el siguiente código de ejemplo de SQL de la siguiente manera:

      • source_project_id: Es el ID del proyecto que contiene los datos de Analytics 360 en una tabla de BigQuery.

      • source_dataset: Es el conjunto de datos del proyecto de origen que contiene los datos de Analytics 360 en una tabla de BigQuery.

      • source_table: Es la tabla del proyecto de origen que contiene los datos de Analytics 360.

      • target_project_id: Es el mismo ID del proyecto de destino que en el paso 2 anterior.

      • target_dataset: Es el mismo conjunto de datos de destino que en el paso 2 anterior.

      • path: Es la ruta de acceso a la página principal. Por lo general, es /, por ejemplo, si la página principal es example.com/. Sin embargo, si la página principal es como examplepetstore.com/index.html, la ruta es /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Copia la muestra de código SQL.

    3. Abre la página BigQuery en la consola de Google Cloud.

      Ir a la página de BigQuery

    4. Si aún no lo hiciste, selecciona el proyecto de destino.

    5. En el panel Editor, pega la muestra de código SQL.

    6. Haz clic en Ejecutar y espera a que la consulta termine de ejecutarse.

  4. Sigue las instrucciones que se indican en Importa eventos de usuario desde BigQuery para importar los eventos de vista de página principal de la tabla de destino. Durante la selección del esquema, si realizas la importación con la consola, selecciona Esquema de eventos de venta minorista del usuario. Si realizas la importación con userEvents.import, especifica user_event para el valor dataSchema.

  5. Borra la tabla y el conjunto de datos que creaste en los pasos 1 y 2.

Importa eventos de usuario de Google Analytics 4 con BigQuery

Puedes importar eventos de usuario de Google Analytics 4 si integraste Google Analytics 4 a BigQuery y usas el comercio electrónico de Google Analytics.

En los siguientes procedimientos, se da por sentado que estás familiarizado con el uso de BigQuery y Google Analytics 4.

Antes de comenzar

Antes de comenzar con los siguientes pasos, asegúrate de lo siguiente:

Verifica tu fuente de datos

Para asegurarte de que tus datos de eventos de usuario estén preparados para la importación, sigue estos pasos.

Para ver una tabla de los campos de Google Analytics 4 que usa Vertex AI Search para la venta minorista y a qué campos de Vertex AI Search para la venta minorista se asignan, consulta Campos de eventos del usuario de Google Analytics 4.

Para ver todos los parámetros de eventos de Google Analytics, consulta la documentación de referencia de los eventos de Google Analytics.

  1. Asegúrate de que los datos de eventos de usuario que importarás tengan el formato correcto en una tabla de BigQuery a la que tengas acceso.

    • El conjunto de datos debe llamarse analytics_PROPERTY_ID.
    • La tabla debe llamarse events_YYYYMMDD.

    Para obtener información sobre los nombres y el formato de las tablas, consulta la documentación de Google Analytics.

  2. En la consola de Google Cloud, selecciona el conjunto de datos del panel Explorador y busca la tabla de eventos del usuario que planeas importar.

    Verifica lo siguiente:

    1. La columna event_params.key tiene una clave currency y su valor de cadena asociado es un código de moneda válido.

    2. Si planeas importar eventos search, verifica que la columna event.event_params.key tenga una clave search_term y un valor asociado.

      Si bien Vertex AI Search para venta minorista requiere searchQuery y productDetails para mostrar una lista de resultados de la búsqueda, Google Analytics 4 no almacena las búsquedas ni las impresiones de productos en un solo evento. Para que Vertex AI Search for retail funcione, debes crear una etiqueta en la capa de datos o desde un píxel de JavaScript para poder importar ambos tipos de eventos del usuario desde las fuentes de Google Analytics:

      • searchQuery, que se lee del parámetro search_term o de los eventos view_search_results.
      • productDetails, la impresión del producto que se lee del parámetro items del evento view_item_list

      Para obtener información sobre search en Google Analytics 4, consulta search en la documentación de Google Analytics.

  3. Comprueba la coherencia de los IDs de elementos entre el catálogo subido y la tabla de eventos del usuario de Google Analytics 4.

    Para asegurarte de que un producto de la tabla de usuarios de Google Analytics 4 también esté en tu catálogo subido, copia un ID de producto de la columna event.items.item_id en la vista previa de la tabla de BigQuery y usa el método product.get para verificar si ese ID de producto está en tu catálogo subido.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Configura el acceso a BigQuery

Sigue las instrucciones en Configura el acceso a tu conjunto de datos de BigQuery para darle a tu cuenta de servicio de Vertex AI Search for Retail el rol de propietario de datos de BigQuery para tu conjunto de datos de BigQuery.

Importa tus eventos de Google Analytics 4

Puedes importar eventos de Google Analytics 4 con la consola de Search for Retail o el método userEvents.import.

Importa eventos de Google Analytics 4 con la consola

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.
    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  9. Haga clic en Import.

Importa eventos de Google Analytics 4 con la API

Importa tus eventos de usuario mediante la inclusión de los datos de los eventos en tu llamada al método userEvents.import. Consulta la referencia de la API de userEvents.import.

Para dataSchema, usa el valor user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importa eventos de usuario intercalados

Para importar eventos de usuario intercalados, incluye los datos de los eventos en tu llamada al método userEvents.import.

La manera más sencilla de hacerlo es colocar los datos de eventos de usuario en un archivo JSON y proporcionar el archivo a cURL.

Para conocer los formatos de los tipos de eventos de usuario, consulta Acerca de los eventos de usuario.

curl

  1. Crea el archivo JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Llama al método POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Datos históricos de catálogos

También puedes importar los datos históricos del catálogo que aparecen en tus eventos de usuario históricos. Estos datos históricos de catálogos pueden ser útiles porque la información del producto anterior se puede usar para enriquecer los eventos de usuario, lo que puede mejorar la exactitud del modelo.

Para obtener más detalles, consulta Importa datos del catálogo histórico.

Cómo ver los eventos importados

Consulta las métricas de integración de eventos en la pestaña Eventos de la página Datos de la consola de Search for Retail. En esta página, se muestran todos los eventos que se escribieron o importaron en el último año. Las métricas pueden tardar hasta 24 horas en aparecer después de que se transfieren los datos correctamente.

Ir a la página Datos

¿Qué sigue?