Esta página descreve como importar dados de eventos de utilizadores de eventos anteriores em massa para o Vertex AI Search for commerce. Os dados de eventos do utilizador são necessários para preparar modelos. Depois de configurar a gravação de eventos em tempo real, pode demorar um período considerável a gravar dados de eventos de utilizadores suficientes para formar os seus modelos. A importação de dados do histórico pode acelerar o processo.
Os procedimentos de importação nesta página aplicam-se às recomendações e à pesquisa. Depois de importar dados, ambos os serviços podem usar esses eventos, pelo que não precisa de importar os mesmos dados duas vezes se usar ambos os serviços.
Pode importar eventos a partir de:
- Cloud Storage.
- BigQuery.
- BigQuery para eventos do Google Analytics 360.
- BigQuery para eventos do Google Analytics 4.
- Eventos incorporados através do método
userEvents.import
.
Sugestões gerais para começar
- Verifique se os dados foram totalmente importados do Google Analytics 4 para o BigQuery.
- Verifique o estado da importação na consola e consulte os dados de depuração ou de erro para a resolução de problemas.
- Antes de importar dados de eventos de utilizadores do histórico, reveja as práticas recomendadas para registar eventos de utilizadores e a secção Antes de começar nesta página.
- A importação de dados do catálogo do histórico pode melhorar ainda mais os eventos do utilizador e a precisão do modelo.
Tutoriais
Estes tutoriais mostram como importar eventos do utilizador de várias origens.
Importe eventos do Cloud Storage
Este tutorial mostra como importar eventos de utilizadores do Cloud Storage.
Para seguir orientações passo a passo para esta tarefa diretamente no editor do Cloud Shell, clique em Orientar-me:
Importe eventos do BigQuery
Este tutorial mostra como importar eventos do utilizador do BigQuery.
Para seguir orientações passo a passo para esta tarefa diretamente no editor do Cloud Shell, clique em Orientar-me:
Importe eventos inline
Este tutorial mostra como importar dados de eventos do utilizador incorporados.
Para seguir orientações passo a passo para esta tarefa diretamente no editor do Cloud Shell, clique em Orientar-me:
Antes de começar
Para evitar erros de importação e verificar se existem dados suficientes para gerar bons resultados, reveja as seguintes informações antes de importar os eventos de utilizador.
Reveja as práticas recomendadas para registar eventos do utilizador.
A formatação dos eventos de utilizador difere consoante o tipo de evento de utilizador. Consulte o esquema de tipos e exemplos de eventos do utilizador para ver o formato a especificar quando criar tabelas para cada tipo de evento.
As recomendações e a pesquisa têm requisitos mínimos de dados diferentes. Certifique-se de que os eventos do utilizador cumprem os requisitos do serviço que planeia usar:
Consulte os Requisitos e práticas recomendadas de eventos do utilizador para ver os requisitos de pesquisa e recomendações.
Se usar modelos de recomendações, consulte também os requisitos de dados de eventos do utilizador, que indicam requisitos adicionais consoante o tipo de modelo de recomendações e o objetivo de otimização que planeia usar.
Considerações sobre a importação de eventos
Esta secção descreve os métodos que podem ser usados para a importação em lote dos seus eventos de utilizadores históricos, quando pode usar cada método e algumas das respetivas limitações.
Cloud Storage | Descrição |
Importe dados num formato JSON a partir de ficheiros carregados num contentor do Cloud Storage. Cada ficheiro tem de ter 2 GB ou menos, e pode importar até 100 ficheiros de cada vez. A importação pode ser feita através da Google Cloud consola
ou do curl. Usa o formato de dados JSON Product , que permite atributos personalizados.
|
---|---|---|
Quando usar | Se precisar de carregar volumes mais elevados de dados num único passo. | |
Limitações | Se os seus dados estiverem no Google Analytics, só podem ser exportados para o BigQuery e requerem o passo adicional de importação para o Cloud Storage. | |
BigQuery | Descrição | Importar dados de uma tabela do BigQuery carregada anteriormente que usa o esquema do Vertex AI Search for commerce. Pode ser realizada através da Google Cloud consola ou do curl. |
Quando usar | Se também estiver a usar estatísticas ou a pré-processar dados de eventos antes de os importar. | |
Limitações | Requer o passo adicional de criar uma tabela do BigQuery que seja mapeada para o esquema do Vertex AI Search para comércio. Se tiver um volume elevado de eventos de utilizador, considere também que o BigQuery é um recurso de custo mais elevado do que o Cloud Storage. | |
BigQuery com o Analytics 360 | Descrição | Importe dados pré-existentes do Analytics 360 para o Vertex AI Search for commerce. |
Quando usar | Se tiver o Analytics 360 e acompanhar conversões para recomendações ou pesquisas. Não é necessária nenhuma associação de esquemas adicional. | |
Limitações | Apenas está disponível um subconjunto de atributos, pelo que não é possível usar algumas funcionalidades avançadas do Vertex AI Search for commerce. O acompanhamento de impressões no Google Analytics é obrigatório se planear usar a pesquisa. | |
BigQuery com o Google Analytics 4 | Descrição | Importe dados pré-existentes do Google Analytics 4 para o Vertex AI Search for commerce. |
Quando usar | Se tiver o Google Analytics 4 e acompanhar conversões para recomendações ou pesquisas. Não é necessária nenhuma associação de esquemas adicional. | |
Limitações |
Apenas está disponível um subconjunto de atributos, pelo que não é possível usar algumas funcionalidades avançadas do Vertex AI Search for commerce.
Se planeia usar a pesquisa, tem de configurar pares de chave-valor de parâmetros de eventos para acompanhamento. A chave recomendada é search_query .
|
|
Importação inline | Descrição |
Importe-os através de uma chamada ao método userEvents.import .
|
Quando usar | Se quiser ter uma maior privacidade, com toda a autenticação a ocorrer no back-end, e for capaz de fazer uma importação de back-end. | |
Limitações | Normalmente, é mais complicado do que uma importação da Web. |
Limitações de tamanho
Existe um limite total do sistema de 40 mil milhões de eventos de utilizador. As seguintes limitações de tamanho para importações de dados de acordo com a plataforma de carregamento são:
Para a importação em massa a partir do Cloud Storage, cada ficheiro tem de ter 2 GB ou menos, e pode incluir até 100 ficheiros num único pedido de importação em massa.
Para importações do BigQuery, a limitação de tamanho é de 128 GB.
Para importações inline, é sugerido um máximo recomendado de 10 000 eventos de utilizador por pedido.
Para o número mínimo de dias necessários para registar eventos de utilizadores em direto ou importar eventos de utilizadores históricos para a preparação do modelo e a otimização da pesquisa:
- Preparação e otimização do modelo geral: a preparação e a otimização iniciais do modelo demoram normalmente 2 a 5 dias a serem concluídas, embora possa demorar mais tempo para conjuntos de dados maiores.
Otimização da pesquisa
Para otimizar a experiência de pesquisa com base nos eventos carregados, são necessários, pelo menos, 250 000 eventos de pesquisa nos últimos 90 dias.
Para otimizar os resultados da pesquisa através de eventos do utilizador, são necessários 500 000 eventos detail-page-view atribuíveis a um evento de pesquisa nos últimos 30 dias.
É necessária uma média de 10 eventos de visualização da página de detalhes atribuíveis a um evento de pesquisa por produto nos últimos 30 dias, a menos que os eventos dos últimos 21 dias sejam carregados.
Para a personalização da pesquisa, são necessários, pelo menos, 100 000 eventos de pesquisa publicados pela pesquisa nos últimos 30 dias.
Importe eventos de utilizadores do Cloud Storage
Importe eventos de utilizadores do Cloud Storage através da Google Cloud consola
ou do método userEvents.import
.
Consola
-
Aceda à página Dados> na consola de pesquisa para comércio.
Aceda à página Dados - Clique em Importar para abrir o painel Importar dados.
- Escolha Eventos do utilizador.
- Selecione Google Cloud Storage como a origem de dados.
- Escolha Esquema de eventos de utilizadores de retalho como esquema.
- Introduza a localização do Cloud Storage dos seus dados.
- Clique em Importar.
curl
Use o método userEvents.import
para importar os eventos de utilizador.
Crie um ficheiro de dados para os parâmetros de entrada da importação. Use o objeto
GcsSource
para apontar para o seu contentor do Cloud Storage.Pode fornecer vários ficheiros ou apenas um.
- INPUT_FILE: um ou mais ficheiros no Cloud Storage que contêm os dados de eventos do utilizador. Consulte o artigo Acerca dos eventos de utilizador para ver exemplos de cada formato de tipo de evento de utilizador. Certifique-se de que cada evento do utilizador está na sua própria linha única, sem quebras de linha.
- ERROR_DIRECTORY: Um diretório do Cloud Storage para informações de erro sobre a importação.
Os campos do ficheiro de entrada têm de estar no formato
gs://<bucket>/<path-to-file>/
. O diretório de erros tem de estar no formatogs://<bucket>/<folder>/
. Se o diretório de erros não existir, o Vertex AI Search para comércio cria-o. O contentor já tem de existir.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Importe as informações do catálogo fazendo um pedido
POST
ao método RESTuserEvents:import
, indicando o nome do ficheiro de dados.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
Importe eventos do utilizador do BigQuery
Importe eventos do utilizador do BigQuery através da Google Cloud consola
ou do método userEvents.import
.
Configure o acesso ao BigQuery
Siga as instruções em Configurar o acesso ao seu conjunto de dados do BigQuery para atribuir à conta de serviço do Vertex AI Search for commerce a função mínima de utilizador do BigQuery necessária para que a importação seja bem-sucedida e a função adicional de editor de dados do BigQuery para o seu conjunto de dados do BigQuery. A função de proprietário de dados do BigQuery é desnecessária.
Importe os seus eventos do utilizador a partir do BigQuery
Pode importar eventos de utilizadores através da consola de pesquisa para comércio ou do método userEvents.import
.
Consola
-
Aceda à página Dados> na consola de pesquisa para comércio.
Aceda à página Dados - Clique em Importar para abrir o painel Importar dados.
- Escolha Eventos do utilizador.
- Selecione BigQuery como origem de dados.
-
Selecione o esquema de dados.
- Google Analytics 4: use para eventos do Google Analytics 4.
- Google Analytics 360: use para eventos do Google Analytics 360, a menos que esteja a importar apenas visualizações da página inicial do Google Analytics 360 (nesse caso, use o esquema de eventos de utilizadores de retalho).
- Esquema de eventos de utilizadores de retalho: use para importar eventos de origens que não sejam o Google Analytics e para importar apenas eventos home-page-views do Google Analytics 360.
- Introduza a tabela do BigQuery onde os seus dados se encontram.
- Opcional: introduza a localização de um contentor do Cloud Storage no seu projeto como uma localização temporária para os seus dados.
Se não for especificado, é usada uma localização predefinida. Se especificado, o BigQuery e o contentor do Cloud Storage têm de estar na mesma região. - Opcional: em Mostrar opções avançadas, introduza a localização de um contentor do Cloud Storage no seu projeto como uma localização temporária para os seus dados.
Se não for especificado, é usada uma localização predefinida. Se especificado, o BigQuery e o contentor do Cloud Storage têm de estar na mesma região. - Clique em Importar.
curl
Importe os eventos do utilizador incluindo os dados dos eventos na chamada ao método userEvents.import
. Consulte a referência da API
userEvents.import
.
O valor que especifica para dataSchema
depende do que está a importar:
user_event_ga4
: Use para eventos do Google Analytics 4.user_event_ga360
: use para eventos do Google Analytics 360, a menos que esteja a importar apenas visualizações de páginas iniciais do Google Analytics 360 (nesse caso, useuser_event
).user_event
: use para importar eventos de origens que não sejam o Google Analytics e para importar apenas visualizações de páginas iniciais do Google Analytics 360.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'
Importe eventos de utilizadores do Analytics 360 com o BigQuery
Pode importar eventos de utilizadores do Analytics 360 se tiver integrado o Analytics 360 com o BigQuery e usar o comércio eletrónico melhorado.
Os procedimentos seguintes pressupõem que tem experiência na utilização do BigQuery e do Analytics 360.
Antes de começar
Antes de começar os passos seguintes, certifique-se de que:
- Está a usar o Comércio eletrónico otimizado.
- Tem o BigQuery associado ao Analytics 360.
Verifique a sua origem de dados
Certifique-se de que os dados de eventos do utilizador que vai importar estão formatados corretamente numa tabela do BigQuery à qual tem acesso.
Certifique-se de que a tabela tem o nome
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD
.Consulte a documentação do Google Analytics para saber mais sobre o formato e a nomenclatura das tabelas.
Na consola do BigQuery Google Cloud , selecione a tabela no painel Explorador para pré-visualizar a tabela.
Verifique se:
A coluna
clientId
tem um valor válido, por exemplo,123456789.123456789
.Tenha em atenção que este valor é diferente do valor completo do cookie _ga (que tem um formato como
GA1.3.123456789.123456789
).A coluna
hits.transaction.currencyCode
tem um código de moeda válido.Se planeia importar eventos
search
, verifique se existe uma colunahits.page.searchKeyword
ouhits.customVariable.searchQuery
.Embora o Vertex AI Search para comércio exija que
searchQuery
eproductDetails
devolvam uma lista de resultados da pesquisa, o Analytics 360 não armazena consultas de pesquisa e impressões de produtos num único evento. Para que a Vertex AI Search for commerce funcione, tem de criar uma etiqueta na camada de dados ou um píxel JavaScript para poder importar ambos os tipos de eventos do utilizador de origens do Google Analytics:searchQuery
, que é lido a partir do parâmetrosearch_term
ou de eventosview_search_results
, é derivado dehits.page.searchKeyword
ou dehits.customVariables.customVarValue
sehits.customVariables.customVarName
forsearchQuery
.productDetails
, a impressão do produto que é lida a partir do parâmetroitems
do eventoview_item_list
, é obtida a partir dehits.product
sehits.product.isImpressions
forTRUE
.
Verifique a consistência dos IDs dos artigos entre o catálogo carregado e a tabela de eventos do utilizador do Analytics 360.
Usando qualquer ID do produto da coluna
hits.product.productSKU
na pré-visualização da tabela do BigQuery, use o métodoproduct.get
para se certificar de que o mesmo produto está no catálogo carregado.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Importe os seus eventos do Analytics 360
Pode importar eventos do Google Analytics 360 através da
consola de pesquisa de comércio ou do método userEvents.import
.
Consola
-
Aceda à página Dados> na consola de pesquisa para comércio.
Aceda à página Dados - Clique em Importar para abrir o painel Importar dados.
- Escolha Eventos do utilizador.
- Selecione BigQuery como origem de dados.
-
Selecione o esquema de dados.
- Google Analytics 4: use para eventos do Google Analytics 4.
- Google Analytics 360: use para eventos do Google Analytics 360, a menos que esteja a importar apenas visualizações da página inicial do Google Analytics 360 (nesse caso, use o esquema de eventos de utilizadores de retalho).
- Esquema de eventos de utilizadores de retalho: use para importar eventos de origens que não sejam o Google Analytics e para importar apenas eventos home-page-views do Google Analytics 360.
- Introduza a tabela do BigQuery onde os seus dados se encontram.
- Opcional: introduza a localização de um contentor do Cloud Storage no seu projeto como uma localização temporária para os seus dados.
Se não for especificado, é usada uma localização predefinida. Se especificado, o BigQuery e o contentor do Cloud Storage têm de estar na mesma região. - Opcional: em Mostrar opções avançadas, introduza a localização de um contentor do Cloud Storage no seu projeto como uma localização temporária para os seus dados.
Se não for especificado, é usada uma localização predefinida. Se especificado, o BigQuery e o contentor do Cloud Storage têm de estar na mesma região. - Clique em Importar.
REST
Importe os eventos do utilizador incluindo os dados dos eventos na chamada
ao método userEvents.import
.
Para dataSchema
, use o valor user_event_ga360
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'
Java
Importe as visualizações de páginas iniciais do Analytics 360 com o BigQuery
No Analytics 360, os eventos de visualização da página inicial não são distintos de outros eventos de visualização de páginas. Isto significa que os eventos home-page-view não são importados como eventos com os outros tipos de eventos (como detail-page-view) em Importe os seus eventos do Analytics 360.
O procedimento seguinte explica como pode extrair eventos de visualização da página inicial dos seus dados do Analytics 360 e importá-los para o Vertex AI Search for commerce. Resumidamente, isto é feito através da extração das visualizações da página inicial dos utilizadores (identificadas pelo caminho da página inicial) para uma nova tabela do BigQuery e, em seguida, da importação de dados dessa nova tabela para a Pesquisa do Vertex AI para comércio.
Para importar eventos de visualização da página inicial do Analytics 360 para o Vertex AI Search para comércio:
Crie um conjunto de dados do BigQuery ou certifique-se de que tem um conjunto de dados do BigQuery disponível ao qual pode adicionar uma tabela.
Este conjunto de dados pode estar no seu projeto do Vertex AI Search for commerce ou no projeto onde tem os seus dados do Analytics 360. É o conjunto de dados de destino para o qual vai copiar os eventos home-page-view do Analytics 360.
Crie uma tabela do BigQuery no conjunto de dados da seguinte forma:
Substitua as variáveis no código SQL seguinte da seguinte forma.
target_project_id: o projeto onde se encontra o conjunto de dados do passo 1.
target_dataset: o nome do conjunto de dados do passo 1.
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
Copie o exemplo de código SQL.
Abra a página do BigQuery na Google Cloud consola.
Se ainda não estiver selecionado, selecione o projeto de destino.
No painel Editor, cole o exemplo de código SQL.
Clique em
Executar e aguarde pela conclusão da execução da consulta.
A execução deste código cria uma tabela no formato
target_project_id:target_dataset.ga_homepage_YYYYMMDD
, por exemplo,my-project:view_events.ga_homepage_20230115
.Copie os eventos de visualização da página inicial do Analytics 360 da tabela de dados do Analytics 360 para a tabela criada no passo 2 anterior.
Substitua as variáveis no seguinte código de exemplo SQL da seguinte forma:
source_project_id: o ID do projeto que contém os dados do Analytics 360 numa tabela do BigQuery.
source_dataset: o conjunto de dados no projeto de origem que contém os dados do Analytics 360 numa tabela do BigQuery.
source_table: a tabela no projeto de origem que contém os dados do Analytics 360.
target_project_id: o mesmo ID do projeto de destino que no passo 2 anterior.
target_dataset: o mesmo conjunto de dados de destino que no passo 2 anterior.
path: este é o caminho para a página inicial. Normalmente, é
/
. Por exemplo, se a página inicial forexample.com/
. No entanto, se a página inicial for comoexamplepetstore.com/index.html
, o caminho é/index.html
.
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
Copie o exemplo de código SQL.
Abra a página do BigQuery na Google Cloud consola.
Se ainda não estiver selecionado, selecione o projeto de destino.
No painel Editor, cole o exemplo de código SQL.
Clique em
Executar e aguarde pela conclusão da execução da consulta.
Siga as instruções em Importe eventos do utilizador do BigQuery para importar os eventos home-page-view da tabela de destino. Durante a seleção do esquema, se fizer a importação através da consola, selecione Esquema de eventos do utilizador de retalho. Se fizer a importação através da
userEvents.import
, especifiqueuser_event
para o valordataSchema
.Elimine a tabela e o conjunto de dados que criou nos passos 1 e 2.
Importe eventos de utilizadores do Google Analytics 4 com o BigQuery
Pode importar eventos de utilizadores do Google Analytics 4 se tiver integrado o Google Analytics 4 com o BigQuery e usar o comércio eletrónico do Google Analytics.
Os procedimentos seguintes pressupõem que tem experiência na utilização do BigQuery e do Google Analytics 4.
Antes de começar
Antes de começar os passos seguintes, certifique-se de que:
- Está a usar o comércio eletrónico do Google Analytics.
- Tem o BigQuery associado ao Google Analytics 4.
Verifique a sua origem de dados
Para se certificar de que os dados de eventos do utilizador estão preparados para importação, siga estes passos.
Para ver uma tabela dos campos do Google Analytics 4 que a Vertex AI Search for commerce usa e a que campos da Vertex AI Search for commerce são mapeados, consulte os campos de eventos do utilizador do Google Analytics 4.
Para todos os parâmetros de eventos do Google Analytics, consulte a documentação de referência de eventos do Google Analytics.
Certifique-se de que os dados de eventos do utilizador que vai importar estão formatados corretamente numa tabela do BigQuery à qual tem acesso.
- O conjunto de dados deve ter o nome
analytics_PROPERTY_ID
. - A tabela deve ter o nome
events_YYYYMMDD
.
Para obter informações sobre os nomes e o formato das tabelas, consulte a documentação do Google Analytics.
- O conjunto de dados deve ter o nome
Na consola do BigQuery, selecione o conjunto de dados no painel Explorador e encontre a tabela de eventos do utilizador que planeia importar. Google Cloud
Verifique se:
A coluna
event_params.key
tem uma chavecurrency
e o respetivo valor de string associado é um código de moeda válido.Se planeia importar eventos
search
, verifique se a colunaevent.event_params.key
tem uma chavesearch_term
e um valor associado.Embora a Vertex AI Search for commerce exija
searchQuery
eproductDetails
para devolver uma lista de resultados da pesquisa, o Google Analytics 4 não armazena consultas de pesquisa e impressões de produtos num único evento. Para que a Pesquisa do Vertex AI para comércio funcione, tem de criar uma etiqueta na camada de dados ou a partir de um píxel JavaScript para poder importar ambos os tipos de eventos do utilizador de origens do Google Analytics:searchQuery
, que é lido a partir do parâmetrosearch_term
ou de eventosview_search_results
.productDetails
, a impressão do produto que é lida a partir do parâmetroitems
do eventoview_item_list
.
Para ver informações sobre o
search
no Google Analytics 4, consulte o artigosearch
na documentação do Google Analytics.
Verifique a consistência dos IDs dos artigos entre o catálogo carregado e a tabela de eventos do utilizador do Google Analytics 4.
Para se certificar de que um produto na tabela de utilizadores do Google Analytics 4 também está no catálogo carregado, copie um ID do produto da coluna
event.items.item_id
na pré-visualização da tabela do BigQuery e use o métodoproduct.get
para verificar se esse ID do produto está no catálogo carregado.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Importe os seus eventos do Google Analytics 4
Pode importar eventos do Google Analytics 4 através da pesquisa da consola de comércio ou do método userEvents.import
.
Use a consola
-
Aceda à página Dados> na consola de pesquisa para comércio.
Aceda à página Dados - Clique em Importar para abrir o painel Importar dados.
- Escolha Eventos do utilizador.
- Selecione BigQuery como origem de dados.
-
Selecione o esquema de dados.
- Google Analytics 4: use para eventos do Google Analytics 4.
- Google Analytics 360: use para eventos do Google Analytics 360, a menos que esteja a importar apenas visualizações da página inicial do Google Analytics 360 (nesse caso, use o esquema de eventos de utilizadores de retalho).
- Esquema de eventos de utilizadores de retalho: use para importar eventos de origens que não sejam o Google Analytics e para importar apenas eventos home-page-views do Google Analytics 360.
- Introduza a tabela do BigQuery onde os seus dados se encontram.
- Opcional: introduza a localização de um contentor do Cloud Storage no seu projeto como uma localização temporária para os seus dados.
Se não for especificado, é usada uma localização predefinida. Se especificado, o BigQuery e o contentor do Cloud Storage têm de estar na mesma região. - Opcional: em Mostrar opções avançadas, introduza a localização de um contentor do Cloud Storage no seu projeto como uma localização temporária para os seus dados.
Se não for especificado, é usada uma localização predefinida. Se especificado, o BigQuery e o contentor do Cloud Storage têm de estar na mesma região. - Clique em Importar.
Use a API
Importe os eventos do utilizador incluindo os dados dos eventos na chamada ao método userEvents.import
. Consulte a referência da API
userEvents.import
.
Para dataSchema
, use o valor user_event_ga4
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'
Importe eventos do utilizador inline
Pode importar eventos do utilizador inline incluindo os dados dos eventos na sua chamada ao método userEvents.import
.
A forma mais fácil de o fazer é colocar os dados de eventos do utilizador num ficheiro JSON e fornecer o ficheiro ao curl.
Para ver os formatos dos tipos de eventos do utilizador, consulte o artigo Acerca dos eventos do utilizador.
curl
Crie o ficheiro JSON:
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ \{ "<userEvent1>" \}, \{ "<userEvent2>" \}, \.... \] \} } }
Chame o método POST:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
Dados do histórico do catálogo
Também pode importar dados do catálogo que aparecem no seu histórico de eventos do utilizador. Estes dados do catálogo podem ser úteis porque as informações dos produtos anteriores podem ser usadas para enriquecer a captura de eventos do utilizador, o que, por sua vez, pode melhorar a precisão do modelo.
Para mais detalhes, consulte o artigo Importe dados do catálogo do histórico.
Veja eventos importados
Veja as métricas de integração de eventos no separador Eventos na consola de pesquisa para comércio página Dados. Esta página mostra todos os eventos escritos ou importados no último ano. As métricas podem demorar até 24 horas a aparecer após a ingestão de dados bem-sucedida.
Avaliação de testes A/B
Os seguintes parâmetros aplicam-se aos testes A/B, consoante o objetivo do teste:
Para um objetivo de taxa de cliques (CTR), são necessários, pelo menos, 21 dias de eventos de utilizadores ou volumes de eventos específicos. Por exemplo, mais de 2 milhões de eventos de pesquisa e mais de 500 000 cliques em pesquisas.
Para um objetivo de taxa de conversão (CVR) ou receita, são necessários, pelo menos, 28 dias de eventos de utilizadores ou volumes de eventos específicos. Por exemplo, mais de 4 milhões de eventos de pesquisa, mais de 1 milhão de cliques em pesquisas, mais de 0,5 eventos de compra por produto pesquisável.
Consulte a página Testes A/B para ver mais informações acerca dos testes A/B e das práticas recomendadas.