Importe eventos históricos do usuário

Nesta página, descrevemos como importar em massa os dados de eventos do usuário de eventos anteriores. Os modelos da Vertex AI para Pesquisa de varejo exigem dados de evento do usuário para treinamento.

Depois de configurar a gravação de eventos em tempo real, pode levar um tempo considerável para registrar dados de evento do usuário suficientes para treinar seus modelos. É possível acelerar o treinamento inicial de modelos importando dados de eventos do usuário de eventos anteriores em massa. Antes de fazer isso, consulte as práticas recomendadas para gravar eventos do usuário e a seção Antes de começar nesta página.

Os procedimentos de importação nesta página se aplicam às recomendações e à pesquisa. Depois que você importar dados, os dois serviços poderão usar esses eventos. Portanto, não é necessário importar os mesmos dados duas vezes se você usar os dois serviços.

Você pode:

Tutorial de importação de eventos do Cloud Storage

Este tutorial mostra como importar eventos de usuário do Cloud Storage.


Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:

Orientações


Tutorial de importação de eventos do BigQuery

Este tutorial mostra como importar eventos de usuário do BigQuery.


Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:

Orientações


Tutorial de importação de eventos inline

Este tutorial mostra como importar dados de eventos do usuário inline.


Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:

Orientações


Antes de começar

Para evitar erros de importação e garantir que haja dados suficientes para gerar bons resultados, analise as seguintes informações antes de importar os eventos do usuário.

Considerações sobre importação de eventos

Esta seção descreve os métodos que podem ser usados para importação em lote de eventos de usuário históricos, quando você pode usar cada método e algumas das limitações deles.

Cloud Storage Descrição Importe dados em um formato JSON de arquivos carregados em um bucket do Cloud Storage. Cada arquivo precisa ter 2 GB ou menos, e até 100 arquivos por vez podem ser importados. A importação pode ser feita usando o console do Google Cloud ou o cURL. Usa o formato de dados JSON Product, que permite atributos personalizados.
Quando usar Se você precisa de um volume maior de dados para carregar em uma única etapa.
Limitações Se os dados estiverem no Google Analytics ou no Merchant Center, eles só poderão ser exportados para o BigQuery e precisarão da etapa extra para importá-los no Cloud Storage.
BigQuery Descrição Importe dados de uma tabela do BigQuery carregada anteriormente que use o esquema de varejo da Pesquisa da Vertex AI. Pode ser realizado usando o console do Google Cloud ou o cURL.
Quando usar Se você também estiver usando dados de eventos de análise ou pré-processamento antes de importá-los.
Limitações Exige a etapa extra de criação de uma tabela do BigQuery que é mapeada para o esquema de varejo da Vertex AI para Pesquisa. Se você tem um alto volume de eventos de usuários, considere também que o BigQuery é um recurso de custo mais alto do que o Cloud Storage.
BigQuery com o Google Analytics 360 Descrição Importe dados preexistentes do Analytics 360 para a Vertex AI para Pesquisa para varejo.
Quando usar Se você tem o Google Analytics 360 e rastreia conversões de recomendações ou pesquisass Não é necessário um mapeamento de esquema adicional.
Limitações Somente um subconjunto de atributos está disponível, portanto, alguns recursos avançados da Vertex AI para Pesquisa para varejo não podem ser usados. Esse procedimento é obrigatório se você pretende usar a pesquisa.
BigQuery com o Google Analytics 4 Descrição Importe dados preexistentes do Google Analytics 4 para a Vertex AI para Pesquisa para varejo.
Quando usar Se você tem o Google Analytics 4 e rastreia conversões de recomendações ou pesquisass Não é necessário um mapeamento de esquema adicional.
Limitações Somente um subconjunto de atributos está disponível, portanto, alguns recursos avançados da Vertex AI para Pesquisa para varejo não podem ser usados. Se você planeja usar a pesquisa, é necessário configurar pares de chave-valor de parâmetro de evento para rastreamento. A chave recomendada é search_query.
Importação in-line Descrição Importação usando uma chamada para o método userEvents.import.
Quando usar Se você quiser ter mais privacidade para que toda a autenticação ocorra no back-end e ser capaz de executar uma importação de back-end.
Limitações Geralmente, isso é mais complicado do que uma importação pela Web.

Importar eventos de usuário do Cloud Storage

Importe eventos de usuários do Cloud Storage usando o console do Google Cloud ou o método userEvents.import.

Console

  1. Acesse a página Dados> no console da Pesquisa para varejo.

    Acessar a página "Dados"
  2. Clique em Importar para abrir o painel Importar dados.
  3. Escolha Eventos do usuário.
  4. Selecione o Google Cloud Storage como a origem de dados.
  5. Escolha Esquema de eventos do usuário de varejo como o esquema.
  6. Insira o local dos seus dados no Cloud Storage.
  7. Clique em Importar.

cURL

Use o método userEvents.import para importar eventos de usuário.

  1. Crie um arquivo de dados para os parâmetros de entrada para a importação. Use o objeto GcsSource para apontar para o bucket do Cloud Storage.

    É possível fornecer vários arquivos ou apenas um.

    • INPUT_FILE: um ou mais arquivos no Cloud Storage contendo os dados de evento do usuário. Consulte Sobre os eventos do usuário para conferir exemplos de cada formato de tipo de evento do usuário. Verifique se cada evento de usuário está em uma linha única, sem quebras de linha.
    • ERROR_DIRECTORY: um diretório do Cloud Storage para informações de erro sobre a importação.

    Os campos do arquivo de entrada precisam estar no formato gs://<bucket>/<path-to-file>/. O diretório de erro precisa estar no formato gs://<bucket>/<folder>/. Se o diretório de erro não existir, a Vertex AI para Pesquisa para varejo o criará. O bucket já precisa existir.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Importe as informações do catálogo fazendo uma solicitação POST para o método REST userEvents:import, fornecendo o nome do arquivo de dados.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Importar eventos de usuário do BigQuery

Importe eventos de usuários do BigQuery usando o console do Google Cloud ou o método userEvents.import.

Configurar o acesso ao BigQuery

Siga as instruções em Como configurar o acesso ao conjunto de dados do BigQuery para fornecer à sua conta de serviço da Pesquisa da Vertex AI para varejo o papel de proprietário de dados do BigQuery no seu conjunto de dados do BigQuery.

Importar eventos de usuário do BigQuery

É possível importar eventos do 360 usando o console da Pesquisa para varejo ou o método userEvents.import.

Console

  1. Acesse a página Dados> no console da Pesquisa para varejo.

    Acessar a página "Dados"
  2. Clique em Importar para abrir o painel Importar dados.
  3. Escolha Eventos do usuário.
  4. Selecione BigQuery como a fonte de dados.
  5. Selecione o esquema de dados.

  6. Insira a tabela do BigQuery em que seus dados estão localizados.
  7. Opcional: insira o local de um bucket do Cloud Storage no seu projeto como um local temporário para seus dados.
    Se não for especificado, um local padrão será usado. Caso seja especificado, os buckets do BigQuery e do Cloud Storage precisam estar na mesma região.
  8. Opcional: em Mostrar opções avançadas, insira o local de um bucket do Cloud Storage no projeto como um local temporário para seus dados.

    Se não for especificado, um local padrão será usado. Caso seja especificado, o bucket do BigQuery e do Cloud Storage precisam estar na mesma região.
  9. Clique em Importar.

curl

Importe os eventos do usuário incluindo os dados dos eventos na chamada para o método userEvents.import. Consulte a referência da API userEvents.import.

O valor especificado para dataSchema depende do que você está importando:

  • user_event_ga4: use para eventos do Google Analytics 4.
  • user_event_ga360: use para eventos do Google Analytics 360, a menos que você esteja importando apenas visualizações da página inicial do Google Analytics 360. Nesse caso, use user_event.
  • user_event: use para importar eventos de outras fontes que não sejam o Google Analytics e para importar eventos apenas de visualizações da página inicial do Google Analytics 360.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importar eventos do usuário do Google Analytics 360 com o BigQuery

Você pode importar eventos de usuário do Google Analytics 360 se tiver integrado o Google Analytics 360 ao BigQuery e usar o comércio eletrônico avançado.

Para os procedimentos a seguir, consideramos que você esteja familiarizado com o uso do BigQuery e do Google Analytics 360.

Antes de começar

Antes de iniciar as próximas etapas, verifique se:

Verificar a fonte de dados

  1. Verifique se os dados de eventos de usuário que você vai importar estão formatados corretamente em uma tabela do BigQuery a que você tem acesso.

    Verifique se a tabela tem o nome project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Consulte a documentação do Google Analytics para mais informações sobre o formato e a nomenclatura das tabelas.

  2. No console do Google Cloud do BigQuery, selecione a tabela no painel Explorer para visualizar a tabela.

    Verifique se:

    1. A coluna clientId tem um valor válido, por exemplo, 123456789.123456789.

      Esse valor é diferente do valor completo do cookie "_ga" (que tem um formato como GA1.3.123456789.123456789).

    2. A coluna hits.transaction.currencyCode tem um código de moeda válido.

    3. Se você pretende importar eventos search, verifique se há uma coluna hits.page.searchKeyword ou hits.customVariable.searchQuery.

      Embora a Pesquisa da Vertex AI para varejo exija searchQuery e productDetails para retornar uma lista de resultados de pesquisa, o Google Analytics 360 não armazena consultas de pesquisa e impressões de produtos em um evento. Para que a Vertex AI para Pesquisa para varejo funcione, você precisa criar uma tag na camada de dados ou um pixel do JavaScript para importar os dois tipos de eventos do usuário das origens do Google Analytics:

      • searchQuery, que é lido no parâmetro search_term ou nos eventos view_search_results, é derivado de hits.page.searchKeyword ou de hits.customVariables.customVarValue se hits.customVariables.customVarName for searchQuery.
      • productDetails, a impressão do produto que é lida do parâmetro items do evento view_item_list, é tirada de hits.product se hits.product.isImpressions for TRUE.
  3. Verifique a consistência dos IDs dos itens entre o catálogo enviado e a tabela de eventos do usuário do Analytics 360.

    Usando qualquer ID do produto da coluna hits.product.productSKU na visualização da tabela do BigQuery, use o método product.get para garantir que o mesmo produto esteja no seu catálogo enviado.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Importar eventos do Google Analytics 360

É possível importar eventos do Google Analytics 360 usando o console de Pesquisa para varejo ou o método userEvents.import.

Console

  1. Acesse a página Dados no console da Pesquisa para varejo.

    Acessar a página "Dados"
  2. Clique em Importar para abrir o painel Importar dados.
  3. Escolha Eventos do usuário.
  4. Selecione BigQuery como a fonte de dados.
  5. Selecione o esquema de dados.

  6. Insira a tabela do BigQuery em que seus dados estão localizados.
  7. Opcional: insira o local de um bucket do Cloud Storage no seu projeto como um local temporário para seus dados.
    Se não for especificado, um local padrão será usado. Caso seja especificado, os buckets do BigQuery e do Cloud Storage precisam estar na mesma região.
  8. Opcional: em Mostrar opções avançadas, insira o local de um bucket do Cloud Storage no projeto como um local temporário para seus dados.

    Se não for especificado, um local padrão será usado. Caso seja especificado, o bucket do BigQuery e do Cloud Storage precisam estar na mesma região.
  9. Clique em Importar.

REST

Importe os eventos do usuário incluindo os dados dos eventos na chamada para o método userEvents.import.

Para dataSchema, use o valor user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importar visualizações da página inicial do Google Analytics 360 com o BigQuery

No Google Analytics 360, os eventos de visualização da página inicial não são diferenciados de outros eventos de visualização de página. Isso significa que os eventos de visualização da página inicial não são importados como eventos com os outros tipos de eventos (como visualização de página de detalhes) em Importar seus eventos do Google Analytics 360.

O procedimento a seguir explica como extrair eventos de visualização da página inicial dos dados do Google Analytics 360 e importá-los para a Vertex AI Search for Retail. Em resumo, isso é feito extraindo as visualizações da página inicial dos usuários (identificadas pelo caminho da página inicial) para uma nova tabela do BigQuery e, em seguida, importando dados dessa nova tabela para a Pesquisa da Vertex AI para varejo.

Para importar eventos de visualização da página inicial do Google Analytics 360 para a Vertex AI Search para varejo, faça o seguinte:

  1. Crie um conjunto de dados do BigQuery ou verifique se você tem um conjunto de dados do BigQuery disponível para adicionar uma tabela.

    Esse conjunto de dados pode estar no seu projeto da Vertex AI para Pesquisa para varejo ou no projeto em que você tem dados do Google Analytics 360. É o conjunto de dados de destino em que você vai copiar os eventos de visualização da página inicial do Google Analytics 360.

  2. Crie uma tabela do BigQuery no conjunto de dados da seguinte maneira:

    1. Substitua as variáveis no código SQL a seguir da seguinte maneira.

      • target_project_id::o projeto em que o conjunto de dados da etapa 1 está localizado.

      • target_dataset::o nome do conjunto de dados da etapa 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Copie o exemplo de código SQL.

    3. Abra a página do BigQuery no console do Google Cloud.

      Acessar a página do BigQuery

    4. Se ainda não estiver selecionado, selecione o projeto de destino.

    5. No painel Editor, cole o exemplo de código SQL.

    6. Clique em Run e aguarde a consulta terminar.

    A execução desse código cria uma tabela no formato target_project_id:target_dataset.ga_homepage_YYYYMMDD, por exemplo, my-project:view_events.ga_homepage_20230115.

  3. Copie os eventos de visualização da página inicial do Google Analytics 360 da sua tabela de dados do Google Analytics 360 para a tabela criada na etapa 2 anterior.

    1. Substitua as variáveis no código de exemplo de SQL abaixo da seguinte maneira:

      • source_project_id::o ID do projeto que contém os dados do Google Analytics 360 em uma tabela do BigQuery.

      • source_dataset::o conjunto de dados no projeto de origem que contém os dados do Google Analytics 360 em uma tabela do BigQuery.

      • source_table::a tabela no projeto de origem que contém os dados do Google Analytics 360.

      • target_project_id::o mesmo ID do projeto de destino da etapa 2 anterior.

      • target_dataset::o mesmo conjunto de dados de destino da etapa 2 anterior.

      • path:é o caminho para a página inicial. Geralmente, é /, por exemplo, se a página inicial for example.com/. No entanto, se a página inicial for semelhante a examplepetstore.com/index.html, o caminho será /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Copie o exemplo de código SQL.

    3. Abra a página do BigQuery no console do Google Cloud.

      Acessar a página do BigQuery

    4. Se ainda não estiver selecionado, selecione o projeto de destino.

    5. No painel Editor, cole o exemplo de código SQL.

    6. Clique em Run e aguarde a consulta terminar.

  4. Siga as instruções em Importar eventos de usuário do BigQuery para importar os eventos de visualização da página inicial da tabela de destino. Durante a seleção de esquema, se você importar usando o console, selecione Esquema de eventos do usuário de varejo. Se você importar usando userEvents.import, especifique user_event para o valor dataSchema.

  5. Exclua a tabela e o conjunto de dados que você criou nas etapas 1 e 2.

Importar eventos do usuário do Google Analytics 4 com o BigQuery

Você pode importar eventos de usuário do Google Analytics 4 se tiver integrado o Google Analytics 4 ao BigQuery e usar o Google Analytics Comércio Eletrônico.

Para os procedimentos a seguir, consideramos que você esteja familiarizado com o uso do BigQuery e do Google Analytics 4.

Antes de começar

Antes de iniciar as próximas etapas, verifique se:

Verificar a fonte de dados

Para garantir que os dados de eventos do usuário estejam preparados para importação, siga estas etapas.

Para conferir uma tabela de campos do Google Analytics 4 usados pelo Vertex AI para Pesquisa para varejo e os campos do Vertex AI para Pesquisa para varejo a que eles são mapeados, consulte Campos de eventos do usuário do Google Analytics 4.

Para todos os parâmetros de evento do Google Analytics, consulte a documentação de referência de eventos do Google Analytics.

  1. Verifique se os dados de eventos de usuário que você vai importar estão formatados corretamente em uma tabela do BigQuery a que você tem acesso.

    • O conjunto de dados precisa ser nomeado como analytics_PROPERTY_ID.
    • A tabela precisa ser nomeada como events_YYYYMMDD.

    Para informações sobre os nomes e o formato das tabelas, consulte a documentação do Google Analytics.

  2. No console do Google Cloud do BigQuery, selecione o conjunto de dados no painel Explorer e encontre a tabela de eventos do usuário que você planeja importar.

    Verifique se:

    1. A coluna event_params.key tem uma chave currency e o valor de string associado é um código de moeda válido.

    2. Se você pretende importar eventos search, verifique se a coluna event.event_params.key tem uma chave search_term e um valor associado.

      Embora a Pesquisa da Vertex AI para varejo exija searchQuery e productDetails para retornar uma lista de resultados de pesquisa, o Google Analytics 4 não armazena consultas de pesquisa e impressões de produtos em um evento. Para que a Vertex AI para Pesquisa para varejo funcione, você precisa criar uma tag na camada de dados ou em um pixel do JavaScript para importar os dois tipos de eventos do usuário das fontes do Google Analytics:

      • searchQuery, que é lido no parâmetro search_term ou nos eventos view_search_results.
      • productDetails, a impressão do produto que é lida do parâmetro items do evento view_item_list.

      Para saber mais sobre search no Google Analytics 4, consulte search na documentação do Google Analytics.

  3. Verifique a consistência dos IDs dos itens entre o catálogo enviado e a tabela de eventos do usuário do Google Analytics 4.

    Para garantir que um produto na tabela de usuários do Google Analytics 4 também esteja no seu catálogo enviado, copie um ID de produto da coluna event.items.item_id na visualização da tabela do BigQuery e use o método product.get para verificar se esse ID de produto está no seu catálogo enviado.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Configurar o acesso ao BigQuery

Siga as instruções em Como configurar o acesso ao conjunto de dados do BigQuery para fornecer à sua conta de serviço da Pesquisa da Vertex AI para varejo o papel de proprietário de dados do BigQuery no seu conjunto de dados do BigQuery.

Importar eventos do Google Analytics 4

É possível importar eventos do Google Analytics 4 usando o console de Pesquisa para varejo ou o método userEvents.import.

Importar eventos do Google Analytics 4 usando o console

  1. Acesse a página Dados> no console da Pesquisa para varejo.

    Acessar a página "Dados"
  2. Clique em Importar para abrir o painel Importar dados.
  3. Escolha Eventos do usuário.
  4. Selecione BigQuery como a fonte de dados.
  5. Selecione o esquema de dados.

  6. Insira a tabela do BigQuery em que seus dados estão localizados.
  7. Opcional: insira o local de um bucket do Cloud Storage no seu projeto como um local temporário para seus dados.
    Se não for especificado, um local padrão será usado. Caso seja especificado, os buckets do BigQuery e do Cloud Storage precisam estar na mesma região.
  8. Opcional: em Mostrar opções avançadas, insira o local de um bucket do Cloud Storage no projeto como um local temporário para seus dados.

    Se não for especificado, um local padrão será usado. Caso seja especificado, o bucket do BigQuery e do Cloud Storage precisam estar na mesma região.
  9. Clique em Importar.

Importar eventos do Google Analytics 4 usando a API

Importe os eventos do usuário incluindo os dados dos eventos na chamada para o método userEvents.import. Consulte a referência da API userEvents.import.

Para dataSchema, use o valor user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importar eventos de usuário in-line

É possível importar eventos do usuário in-line incluindo os dados dos eventos na chamada para o método userEvents.import.

A maneira mais fácil de fazer isso é colocar os dados de evento do usuário em um arquivo JSON e fornecer o arquivo para cURL.

Para saber os formatos dos tipos de evento do usuário, consulte Sobre os eventos do usuário.

curl

  1. Crie o arquivo JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Chame o método POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Dados históricos do catálogo

Também é possível importar os dados do catálogo histórico que aparecem nos eventos históricos do usuário. Esses dados históricos de catálogo podem ser úteis porque informações anteriores do produto podem ser usadas para enriquecer os eventos do usuário, o que pode melhorar a precisão do modelo.

Para mais detalhes, consulte Importar dados do catálogo histórico.

Conferir eventos importados

Confira as métricas de integração de eventos na guia Eventos da página Dados do console da Pesquisa para varejo. Esta página mostra todos os eventos gravados ou importados no último ano. As métricas podem levar até 24 horas para aparecer após a ingestão de dados.

Acessar a página "Dados"

A seguir