Esta página descreve como importar e manter atualizadas as informações do seu catálogo.
Os procedimentos de importação nesta página se aplicam às recomendações e à pesquisa. Depois que você importar dados, os dois serviços poderão usar esses dados. Portanto, não é necessário importar os mesmos dados duas vezes se você usar os dois serviços.
Importar dados do catálogo do BigQuery
Neste tutorial, você vai aprender a usar uma tabela do BigQuery para importar grandes quantidades de dados de catálogo sem limites.
Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:
Importar dados de catálogo do Cloud Storage
Neste tutorial, mostramos como importar um grande número de itens para um catálogo.
Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:
Importar dados de catálogo inline
Este tutorial mostra como importar produtos para um catálogo inline.
Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:
Antes de começar
Antes de importar as informações do seu catálogo, é preciso concluir as instruções Antes de começar, especificamente Como configurar seu projeto, Como criar uma conta de serviço e Como adicionar a conta de serviço ao seu ambiente local.
É necessário ter o papel do IAM de administrador de varejo para realizar a importação.
Práticas recomendadas de importação de catálogo
Dados de alta qualidade são necessários para gerar resultados de alta qualidade. Se os dados não tiverem campos ou tiverem valores de marcador em vez de valores reais, a qualidade das previsões e dos resultados da pesquisa será prejudicada.
Ao importar dados do catálogo, implemente as seguintes práticas recomendadas:
Pense bem ao determinar quais produtos ou grupos de produtos são principais e quais são variantes. Antes de fazer upload de dados, consulte Níveis de produto.
Alterar a configuração no nível do produto depois de importar todos os dados requer um esforço significativo.
Os itens principais são retornados como resultados da pesquisa ou recomendações. Os itens de variantes não são.
Por exemplo, se o grupo de SKU principal for "Camisa com gola em V", o modelo de recomendação vai retornar um item de camisa com gola em V e, talvez, uma camisa com gola redonda e uma com gola canoa. No entanto, se as variantes não forem usadas e cada SKU for principal, todas as combinações de cor/tamanho de camisa com gola em V serão retornadas como um item distinto no painel de recomendações: "Camisa com gola em V marrom, tamanho XL", "Camisa com gola em V marrom, tamanho L", até "Camisa com gola em V branca, tamanho M", "Camisa com gola em V branca, tamanho P".
As coleções podem ser reconhecidas juntas, já que os IDs de variantes longas são incluídos com os IDs de produtos principais em
collectionMemberIds[]
. Isso faz com que uma coleção de produtos, de que um usuário pode ter comprado um ou mais produtos no conjunto, seja capturada no evento do usuário, creditando todo o conjunto à compra. Isso facilita a veiculação de outros produtos do mesmo usuário em uma determinada coleção em uma consulta relacionada futura. Por exemplo, outros produtos de uma coleção de lençóis são devolvidos, como fronhas e lençóis de baixo correspondentes, depois que um usuário já comprou a capa de edredom.Observe os limites de importação de itens do produto.
Para a importação em massa do Cloud Storage, o tamanho de cada arquivo precisa ser 2 GB ou menor. É possível incluir até 100 arquivos por vez em uma única solicitação de importação em massa.
Para realizar a importação in-line, importe no máximo 5 mil itens de cada vez.
Verifique se todas as informações de catálogo necessárias estão incluídas e corretas.
Não use valores de marcador.
Inclua o máximo possível de informações opcionais do catálogo.
Verifique se todos os seus eventos usam uma única moeda, principalmente se você pretende usar o console do Google Cloud para conferir métricas de receita. A API Vertex AI Search for Retail não é compatível com o uso de várias moedas por catálogo.
Mantenha seu catálogo atualizado.
O ideal é atualizar o catálogo diariamente. A programação de importações periódicas de catálogo evita que a qualidade do modelo diminua com o tempo. É possível programar importações automáticas e recorrentes ao importar o catálogo usando o console da Pesquisa para varejo. Se preferir, use o Google Cloud Scheduler para automatizar importações.
Não registre eventos de usuário de itens de produtos que ainda não foram importados.
Depois de importar as informações do catálogo, revise os relatórios de erros e as informações de geração de registros do seu projeto.
Alguns erros são esperados, mas, se você tiver um grande número de erros, revise-os e corrija os problemas de processo que os levaram.
Sobre a importação de dados do catálogo
É possível importar os dados do produto do Merchant Center, do Cloud Storage, do BigQuery ou especificar os dados in-line na solicitação. Cada um desses procedimentos são importações únicas, com exceção da vinculação do Merchant Center. Programe importações de catálogo regulares (de preferência, diariamente), para garantir que seu catálogo esteja atualizado. Consulte Como manter seu catálogo atualizado.
Também é possível importar itens de produtos individuais. Para mais informações, consulte Fazer upload de um produto.
Considerações sobre importação de catálogo
Nesta seção, descrevemos os métodos que podem ser usados para importação em lote dos dados de catálogo, quando você usa cada método e algumas das limitações deles.
Sincronização no Merchant Center | Descrição | Importa dados de catálogo pelo Merchant Center vinculando a conta à Vertex AI para Pesquisa para o varejo. Após a vinculação, as atualizações nos dados do catálogo no Merchant Center são sincronizadas em tempo real com a Vertex AI para Pesquisa para o varejo. |
---|---|---|
Quando usar | Se você tiver uma integração com o Google Merchant Center. | |
Limitações |
Suporte limitado a esquemas. Por exemplo, as coleções de produtos não são compatíveis
com o Merchant Center. O Merchant Center se tornará a fonte da verdade para os dados até que eles sejam desvinculados. Por isso, os atributos personalizados necessários precisam ser adicionados aos dados do Merchant Center.
Controle limitado. Não é possível especificar determinados campos ou conjuntos de itens para importar do Merchant Center. todos os itens e campos existentes no Merchant Center são importados. |
|
BigQuery | Descrição | Importe dados de uma tabela do BigQuery carregada anteriormente que usa o esquema de varejo do Search for Retail da Vertex AI ou o esquema do Merchant Center. Pode ser realizado usando o console do Google Cloud ou o curl. |
Quando usar |
Se você tiver catálogos de produtos com muitos atributos. A importação do BigQuery usa a pesquisa da Vertex AI para o esquema de varejo, que tem mais atributos de produto do que outras opções de importação, incluindo atributos personalizados de chave-valor.
Se você tiver grandes volumes de dados. A importação do BigQuery não tem um limite de dados. Se você já usa o BigQuery. |
|
Limitações | Exige a etapa extra de criação de uma tabela do BigQuery que é mapeada para o esquema de varejo da Vertex AI para Pesquisa. | |
Cloud Storage | Descrição |
Importe dados em um formato JSON de arquivos carregados em um bucket do
Cloud Storage. Cada arquivo precisa ter 2 GB ou menos e até 100 arquivos por vez são importados. A importação pode ser feita usando o console do Google Cloud
ou o curl. Usa o formato de dados JSON Product , que permite atributos personalizados.
|
Quando usar | Se você precisa carregar uma grande quantidade de dados em uma única etapa | |
Limitações | Não é ideal para catálogos com atualizações frequentes de inventário e preços, já que as alterações não são refletidas imediatamente. | |
Importação in-line | Descrição |
Importação usando uma chamada para o método Product.import . Usa
o objeto ProductInlineSource , que tem menos atributos de catálogo
de produtos do que o esquema de varejo da Vertex AI para Pesquisa, mas é compatível com atributos
personalizados.
|
Quando usar | Se você tem dados de catálogo planos e não relacionais ou uma alta frequência de atualizações de quantidade ou preço. | |
Limitações | Apenas 100 itens do catálogo podem ser importados por vez. No entanto, muitas etapas de carregamento podem ser executadas: não há limite de itens. |
Limpar ramificações do catálogo
Se você estiver importando novos dados de catálogo para uma ramificação existente, é importante que a ramificação do catálogo esteja vazia. Isso garante a integridade dos dados importados para a ramificação. Quando a ramificação estiver vazia, você poderá importar novos dados de catálogo e vincular a ramificação a uma conta de comerciante.
Se você estiver veiculando tráfego de pesquisa ou previsão ao vivo e planeja limpar sua ramificação padrão, especifique outra ramificação como padrão antes de limpar. Como a ramificação padrão vai exibir resultados vazios após a limpeza, a limpeza de uma ramificação padrão ativa pode causar uma interrupção.
Para limpar dados de uma ramificação de catálogo, siga estas etapas:
Acesse a página Dados no console da Pesquisa para varejo.
Acessar a página "Dados"Selecione uma ramificação do catálogo no campo Nome da ramificação.
No menu de três pontos ao lado do campo Nome da filial, escolha Limpar filial.
Uma mensagem é exibida alertando que você está prestes a excluir todos os dados da filial, bem como todos os atributos criados para ela.
Entre na filial e clique em Confirmar para limpar os dados do catálogo da filial.
Uma operação de longa duração é iniciada para limpar dados da ramificação do catálogo. Quando a operação de eliminação for concluída, o status dela vai aparecer na lista Catálogo de produtos na janela Status da atividade.
Sincronizar o Merchant Center com a Vertex AI para Pesquisa para varejo
Para a sincronização contínua entre o Merchant Center e a Vertex AI para Pesquisa para varejo, vincule sua conta do Merchant Center à Vertex AI para Pesquisa para varejo. Após a vinculação, as informações do catálogo na sua conta do Merchant Center são importadas imediatamente para a Vertex AI Search for Retail.
Ao configurar uma sincronização do Merchant Center para a Vertex AI para Pesquisa para varejo, você precisa ter a função de administrador atribuída no Merchant Center. Embora uma função de acesso padrão permita ler os feeds do Merchant Center na UI, você vai receber uma mensagem de erro ao tentar sincronizar o Merchant Center com a Vertex AI para Pesquisa para varejo. Portanto, antes de sincronizar o Merchant Center com a Vertex AI para Pesquisa para varejo, você precisa fazer upgrade da sua função.
Embora a Vertex AI para Pesquisa para varejo esteja vinculada à conta do Merchant Center, as alterações nos dados dos produtos dela são atualizadas automaticamente em minutos na Vertex AI para Pesquisa para varejo. Se você quiser impedir que as alterações do Merchant Center sejam sincronizadas com a Pesquisa da Vertex AI para varejo, desvincule sua conta do Merchant Center.
Desvincular sua conta do Merchant Center não exclui nenhum produto da Vertex AI para Pesquisa para varejo. Para excluir produtos importados, consulte Excluir informações do produto.
Sincronizar sua conta do Merchant Center
Para sincronizar sua conta do Merchant Center, conclua as etapas a seguir.
Console
-
Acesse a página Dados no console da Pesquisa para varejo.
Acessar a página "Dados" - Clique em Importar para abrir o painel Importar dados.
- Escolha Catálogo de produtos.
- Selecione Merchant Center Sync como sua fonte de dados.
- Selecione sua conta do Merchant Center. Verifique Acesso do usuário se não encontrar sua conta.
- Opcional: selecione Filtro de feeds do Merchant Center para importar apenas ofertas de feeds selecionados.
Se não for especificado, as ofertas de todos os feeds serão importadas, incluindo feeds futuros. - Opcional: para importar apenas ofertas segmentadas para determinados países ou idiomas, abra Mostrar opções avançadas e selecione os países de venda e os idiomas do Merchant Center para filtrar.
- Selecione a ramificação para fazer o upload do catálogo.
- Clique em Importar.
curl
Verifique se a conta de serviço no seu ambiente local tem acesso à conta do Merchant Center e à Vertex AI Search for Retail. Para verificar quais contas têm acesso à sua conta do Merchant Center, consulte Acesso do usuário para o Merchant Center.
Use o método
MerchantCenterAccountLink.create
para estabelecer a vinculação.curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "merchantCenterAccountId": MERCHANT_CENTER_ID, "branchId": "BRANCH_ID", "feedFilters": [ {"primaryFeedId": PRIMARY_FEED_ID_1} {"primaryFeedId": PRIMARY_FEED_ID_2} ], "languageCode": "LANGUAGE_CODE", "feedLabel": "FEED_LABEL", }' \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_ID/locations/global/catalogs/default_catalog/merchantCenterAccountLinks"
- MERCHANT_CENTER_ID: o ID da conta do Merchant Center.
- BRANCH_ID: o ID da ramificação com que você quer estabelecer a vinculação. Aceita os valores "0", "1" ou "2".
- LANGUAGE_CODE: (OPCIONAL) o código de idioma de duas letras dos
produtos que você quer importar. Como mostrado no
Merchant Center na coluna
Language
do produto. Se não for definido, todos os idiomas serão importados. - FEED_LABEL: (OPCIONAL) O rótulo do feed dos produtos que você quer importar. Você pode conferir o rótulo do feed no Merchant Center na coluna Rótulo do feed do produto. Se não for definido, todos os rótulos do feed serão importados.
- FEED_FILTERS: (OPCIONAL) Lista de
feeds principais de que os produtos serão
importados. Se você não selecionar feeds, todos os feeds da conta do Merchant Center serão compartilhados. Os IDs
podem ser encontrados no recurso de feeds de dados da API Content ou
abrindo o Merchant Center, selecionando um feed e
extraindo o ID do feed do parâmetro dataSourceId no
URL do site. Por exemplo,
mc/products/sources/detail?a=MERCHANT_CENTER_ID&dataSourceId=PRIMARY_FEED_ID
.
Para conferir o Merchant Center vinculado, acesse a página Dados do console Pesquisa para varejo e clique no botão Merchant Center no canto superior direito. Isso abre o painel Contas do Merchant Center vinculadas. Também é possível adicionar outras contas do Merchant Center neste painel.
Consulte Como visualizar informações agregadas sobre seu catálogo para instruções sobre como visualizar os produtos que foram importados.
Listar os links da sua conta do Merchant Center
Listar as vinculações da sua conta do Merchant Center.
Console
Acesse a página Dados> no console da Pesquisa para varejo.
Acessar a página "Dados"Clique no botão Merchant Center no canto superior direito da página para abrir uma lista das suas contas vinculadas do Merchant Center.
curl
Use o método MerchantCenterAccountLink.list
para listar o recurso de links.
curl -X GET \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/merchantCenterAccountLinks"
Desvincular sua conta do Merchant Center
Desvincular sua conta do Merchant Center impede que ela sincronize os dados de catálogo com a Vertex AI para Pesquisa para varejo. Esse procedimento não exclui nenhum produto na Vertex AI para Pesquisa para varejo que já tenha sido enviado.
Console
Acesse a página Dados no console da Pesquisa para varejo.
Acessar a página "Dados"Clique no botão Merchant Center no canto superior direito da página para abrir uma lista das suas contas vinculadas do Merchant Center.
Clique em Desvincular ao lado da conta do Merchant Center que você quer desvincular e confirme sua escolha na caixa de diálogo exibida.
curl
Use o método MerchantCenterAccountLink.delete
para remover o recurso MerchantCenterAccountLink
.
curl -X DELETE \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/merchantCenterAccountLinks/BRANCH_ID_MERCHANT_CENTER_ID"
Limitações ao vincular ao Merchant Center
Uma conta do Merchant Center pode ser vinculada a qualquer número de ramificações de catálogo, mas uma única ramificação de catálogo só pode ser vinculada a uma conta do Merchant Center.
Uma conta do Merchant Center não pode ser uma conta de múltiplos clientes (MCA). No entanto, é possível vincular subcontas individuais.
A primeira importação depois de vincular sua conta do Merchant Center pode levar horas para ser concluída. O tempo depende do número de ofertas na conta do Merchant Center.
As modificações de produtos que usam métodos de API são desativadas para ramificações vinculadas a uma conta do Merchant Center. Qualquer alteração nos dados do catálogo de produtos nessas ramificações precisa ser feita usando o Merchant Center. Essas mudanças são sincronizadas automaticamente com a Vertex AI para Pesquisa para varejo.
O tipo de produto da coleção não é compatível com ramificações que usam o Merchant Center.
Sua conta do Merchant Center só pode ser vinculada a ramificações de catálogo vazias para garantir a correção dos dados. Para excluir produtos de uma ramificação de catálogo, consulte Excluir informações do produto.
Importar dados de catálogo do Merchant Center
O Merchant Center é uma ferramenta que você pode usar para disponibilizar os dados da sua loja e dos seus produtos para anúncios do Shopping e outros serviços do Google.
É possível importar dados de catálogo em massa do Merchant Center como um procedimento único do BigQuery usando o esquema do Merchant Center (somente recomendações).
Importação em massa do Merchant Center
É possível importar dados de catálogo do Merchant Center usando o
console Pesquisa para varejo ou o método products.import
. A importação
em massa é um procedimento único e só é compatível com
recomendações.
Para importar seu catálogo do Merchant Center, siga estas etapas:
Usando as instruções nas transferências do Merchant Center, configure uma transferência do Merchant Center para o BigQuery.
Use o esquema da tabela de produtos do Google Merchant Center. Configure a transferência para que ela se repita diariamente, mas defina o prazo de validade do conjunto de dados em dois dias.
Se o conjunto de dados do BigQuery estiver em outro projeto, configure as permissões necessárias para que a Pesquisa da Vertex AI para varejo possa acessar o conjunto de dados do BigQuery. Saiba mais.
Importe os dados do catálogo do BigQuery para a Vertex AI Search for Retail.
Console
Acesse a página Dados> no console da Pesquisa para varejo.
Acessar a página "Dados"Clique em Importar para abrir o painel "Importar".
Escolha Catálogo de produtos.
Selecione BigQuery como a fonte de dados.
Selecione a ramificação para fazer o upload do catálogo.
Selecione Merchant Center como o esquema de dados.
Insira a tabela do BigQuery em que seus dados estão localizados.
Opcional: insira o local de um bucket do Cloud Storage no projeto como um local temporário para seus dados.
Se não for especificado, um local padrão será usado. Caso seja especificado, os buckets do BigQuery e do Cloud Storage precisam estar na mesma região.
Escolha se você quer programar um upload recorrente dos dados do seu catálogo.
Se esta for a primeira vez que você está importando o catálogo ou se estiver importando o catálogo novamente depois de limpá-lo, selecione os níveis do produto. Saiba mais sobre os níveis de produto.
Alterar a configuração no nível do produto depois de importar todos os dados requer um esforço significativo.
Clique em Importar.
curl
Se esta for a primeira vez que você está carregando o catálogo ou se estiver importando o catálogo novamente após a limpeza, defina os níveis do produto usando o método
Catalog.patch
. Essa operação requer o papel de Administrador de varejo. Saiba mais sobre os níveis de produto.ingestionProductType
: compatível com os valoresprimary
(padrão) evariant
.merchantCenterProductIdField
: compatível com os valoresofferId
(padrão) eitemGroupId
. Se você não usa o Merchant Center, defina o valor padrãoofferId
.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "productLevelConfig": { "ingestionProductType": "PRODUCT_TYPE", "merchantCenterProductIdField": "PRODUCT_ID_FIELD" } }' \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
Importe o catálogo usando o método
Products.import
.- DATASET_ID: o ID do conjunto de dados do BigQuery.
- TABLE_ID: o ID da tabela do BigQuery que contém os dados.
- STAGING_DIRECTORY: opcional. Um diretório do Cloud Storage usado como um local temporário para seus dados antes de importá-los para o BigQuery. Deixe esse campo em branco para criar automaticamente um diretório temporário (recomendado).
- ERROR_DIRECTORY: opcional. Um diretório do Cloud Storage para informações de erros sobre a importação. Deixe esse campo em branco para criar automaticamente um diretório temporário (recomendado).
dataSchema
: para a propriedadedataSchema
, use o valorproduct_merchant_center
. Veja o esquema da tabela de produtos do Merchant Center.
Recomendamos que você não especifique diretórios de preparo ou erro. Dessa forma, um bucket do Cloud Storage com novos diretórios de preparo e erro pode ser criado automaticamente. Esses diretórios são criados na mesma região que o conjunto de dados do BigQuery e são exclusivos para cada importação, o que impede que vários jobs de importação organizem dados para o mesmo diretório e, possivelmente, reimportam os mesmos dados. Após três dias, o bucket e os diretórios são excluídos automaticamente para reduzir os custos de armazenamento.
Um nome de bucket criado automaticamente inclui o ID do projeto, a região do bucket e o nome do esquema de dados, separados por sublinhados (por exemplo,
4321_us_catalog_retail
). Os diretórios criados automaticamente são chamados destaging
ouerrors
, anexados por um número (por exemplo,staging2345
ouerrors5678
).Se você especificar diretórios, o bucket do Cloud Storage precisará estar na mesma região do conjunto de dados do BigQuery. Caso contrário, a importação falhará. Forneça os diretórios de preparo e erro no formato
gs://<bucket>/<folder>/
. cada uma delas deve ser diferente.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "inputConfig":{ "bigQuerySource": { "datasetId":"DATASET_ID", "tableId":"TABLE_ID", "dataSchema":"product_merchant_center" } } }' \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
Importar dados do catálogo do BigQuery
Para importar dados do catálogo no formato correto do BigQuery, use o esquema do Search for Retail da Vertex AI para criar uma tabela do BigQuery com o formato correto e carregue a tabela vazia com os dados do catálogo. Em seguida, faça o upload dos seus dados para a Vertex AI para Pesquisa para varejo.
Para mais ajuda com as tabelas do BigQuery, consulte Introdução às tabelas. Para ajuda com as consultas do BigQuery, consulte Visão geral da consulta de dados do BigQuery.
Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:
Para importar seu catálogo:
Se o conjunto de dados do BigQuery estiver em outro projeto, configure as permissões necessárias para que a Pesquisa da Vertex AI para varejo possa acessar o conjunto de dados do BigQuery. Saiba mais.
Importe os dados do seu catálogo para a Vertex AI para Pesquisa para varejo.
Console
-
Acesse a página Dados> no console da Pesquisa para varejo.
Acessar a página "Dados" - Clique em Importar para abrir o painel Importar dados.
- Escolha Catálogo de produtos.
- Selecione BigQuery como a fonte de dados.
- Selecione a ramificação para fazer o upload do catálogo.
- Escolha Esquema de catálogos de produtos de varejo. Este é o esquema de produtos da Vertex AI para Pesquisa para varejo.
- Insira a tabela do BigQuery em que seus dados estão localizados.
- Opcional: em Mostrar opções avançadas, insira o local de um bucket do Cloud Storage no projeto como um local temporário para seus dados.
Se não for especificado, um local padrão será usado. Caso seja especificado, o bucket do BigQuery e do Cloud Storage precisam estar na mesma região. - Se a pesquisa não estiver ativada e você estiver usando
o esquema do Merchant Center, selecione o nível do produto.
Selecione o nível do produto se esta for a primeira vez que você está importando o catálogo ou se estiver importando o catálogo novamente depois de limpá-lo. Saiba mais sobre os níveis de produto. Alterar os níveis de produto depois de importar todos os dados requer um esforço significativo.
Importante:não é possível ativar a pesquisa para projetos com um catálogo de produtos que foi ingerido como variantes. - Clique em Importar.
curl
Se esta for a primeira vez que você está carregando o catálogo ou se estiver importando o catálogo novamente após a limpeza, defina os níveis do produto usando o método
Catalog.patch
. Essa operação requer o papel de Administrador de varejo.ingestionProductType
: aceita os valoresprimary
(padrão) evariant
.merchantCenterProductIdField
: tem suporte aos valoresofferId
eitemGroupId
. Se você não usa o Merchant Center, não é necessário definir esse campo.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "productLevelConfig": { "ingestionProductType": "PRODUCT_TYPE", "merchantCenterProductIdField": "PRODUCT_ID_FIELD" } }' \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
Crie um arquivo de dados para os parâmetros de entrada para a importação.
Use o objeto BigQuerySource para apontar para o conjunto de dados do BigQuery.
- DATASET_ID: o ID do conjunto de dados do BigQuery.
- TABLE_ID: o ID da tabela do BigQuery que contém os dados.
- PROJECT_ID: o ID do projeto em que está a origem do BigQuery. Se não for especificado, o ID do projeto será herdado da solicitação principal.
- STAGING_DIRECTORY: opcional. Um diretório do Cloud Storage usado como um local temporário para seus dados antes de importá-los para o BigQuery. Deixe esse campo em branco para criar automaticamente um diretório temporário (recomendado).
- ERROR_DIRECTORY: opcional. Um diretório do Cloud Storage para informações de erros sobre a importação. Deixe esse campo em branco para criar automaticamente um diretório temporário (recomendado).
dataSchema
: para a propriedadedataSchema
, use o valorproduct
(padrão). Você vai usar o esquema da Vertex AI para Pesquisa para varejo.
Recomendamos que você não especifique diretórios de preparo ou erro. Dessa forma, um bucket do Cloud Storage com novos diretórios de preparo e erro pode ser criado automaticamente. Esses diretórios são criados na mesma região que o conjunto de dados do BigQuery e são exclusivos para cada importação, o que impede que vários jobs de importação organizem dados para o mesmo diretório e, possivelmente, reimportam os mesmos dados. Após três dias, o bucket e os diretórios são excluídos automaticamente para reduzir os custos de armazenamento.
Um nome de bucket criado automaticamente inclui o ID do projeto, a região do bucket e o nome do esquema de dados, separados por sublinhados (por exemplo,
4321_us_catalog_retail
). Os diretórios criados automaticamente são chamados destaging
ouerrors
, anexados por um número (por exemplo,staging2345
ouerrors5678
).Se você especificar diretórios, o bucket do Cloud Storage precisará estar na mesma região do conjunto de dados do BigQuery. Caso contrário, a importação falhará. Forneça os diretórios de preparo e erro no formato
gs://<bucket>/<folder>/
. cada uma delas deve ser diferente.{ "inputConfig":{ "bigQuerySource": { "projectId":"PROJECT_ID", "datasetId":"DATASET_ID", "tableId":"TABLE_ID", "dataSchema":"product"} } }
Importe as informações do seu catálogo fazendo uma solicitação
POST
para o método RESTProducts:import
, fornecendo o nome do arquivo de dados (aqui, mostrado comoinput.json
).curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" -d @./input.json \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
É possível verificar o status de maneira programática usando a API. Você receberá um objeto de resposta com esta aparência:
{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "done": false }
O campo de nome é o ID do objeto de operação. Para solicitar o status desse objeto, substitua o campo de nome pelo valor retornado pelo método
import
, até o campodone
retornar comotrue
:curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456"
Quando a operação for concluída, o objeto retornado terá um valor
done
detrue
e incluirá um objeto Status semelhante ao exemplo a seguir:{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "metadata": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata", "createTime": "2020-01-01T03:33:33.000001Z", "updateTime": "2020-01-01T03:34:33.000001Z", "successCount": "2", "failureCount": "1" }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse", }, "errorsConfig": { "gcsPrefix": "gs://error-bucket/error-directory" } }
Você pode inspecionar os arquivos no diretório de erros no Cloud Storage para ver se ocorreram erros durante a importação.
-
Acesse a página Dados> no console da Pesquisa para varejo.
Configurar o acesso ao conjunto de dados do BigQuery
Para configurar o acesso quando o conjunto de dados do BigQuery estiver em um projeto diferente do serviço de pesquisa da Vertex AI para varejo, conclua as etapas a seguir.
Abra a página "IAM" no console do Google Cloud.
Selecione seu projeto da Vertex AI para Pesquisa para varejo.
Encontre a conta de serviço com o nome Conta de serviço de varejo.
Se você ainda não iniciou uma operação de importação, essa conta de serviço pode não estar listada. Se essa conta de serviço não for exibida, retorne à tarefa de importação e inicie a importação. Quando ela falhar devido a erros de permissão, volte aqui e conclua esta tarefa.
Copie o identificador da conta de serviço, que se parece com um endereço de e-mail (por exemplo,
service-525@gcp-sa-retail.iam.gserviceaccount.com
).Alterne para seu projeto do BigQuery (na mesma página IAM e administrador) e clique em person_add Conceder acesso.
Em Novos administradores, insira o identificador da conta de serviço do Vertex AI Search for Retail e selecione o papel BigQuery > Usuário do BigQuery.
Clique em Adicionar outro papel e selecione BigQuery > Editor de dados do BigQuery.
Se você não quiser fornecer o papel de editor de dados a todo o projeto, adicione esse papel diretamente ao conjunto de dados. Saiba mais.
Clique em Salvar.
Importar dados de catálogo do Cloud Storage
Para importar dados do catálogo no formato JSON, crie um ou mais arquivos JSON que contenham os dados do catálogo que você quer importar e faça o upload deles para o Cloud Storage. Em seguida, você pode importar para a Vertex AI para Pesquisa para varejo.
Para ver um exemplo do formato de item JSON do produto, consulte Formato de dados JSON do item do produto.
Para ajuda com o upload de arquivos para o Cloud Storage, consulte Fazer upload de objetos.
Verifique se a conta de serviço da Pesquisa da Vertex AI para varejo tem permissão para ler e gravar no bucket.
A conta de serviço de varejo da Vertex AI Search está listada na página do IAM no console do Google Cloud com o nome Conta de serviço de varejo. Use o identificador da conta de serviço, que se parece com um endereço de e-mail (por exemplo,
service-525@gcp-sa-retail.iam.gserviceaccount.com
) ao adicionar a conta às permissões do bucket.Importe os dados do catálogo.
Console
-
Acesse a página Dados> no console da Pesquisa para varejo.
Acessar a página "Dados" - Clique em Importar para abrir o painel Importar dados.
- Escolha Catálogo de produtos como a origem de dados.
- Selecione a ramificação para fazer o upload do catálogo.
- Escolha Esquema de catálogos de produtos de varejo como o esquema.
- Insira o local dos seus dados no Cloud Storage.
- Se a pesquisa não estiver ativada, selecione os níveis do produto.
É necessário selecionar os níveis do produto se esta for a primeira vez que você está importando o catálogo ou se estiver importando o catálogo novamente depois de limpá-lo. Saiba mais sobre os níveis de produto. Alterar os níveis de produto depois de importar todos os dados requer um esforço significativo.
Importante:não é possível ativar a pesquisa para projetos com um catálogo de produtos que foi ingerido como variantes. - Clique em Importar.
curl
Se esta for a primeira vez que você está carregando o catálogo ou se estiver importando o catálogo novamente após a limpeza, defina os níveis do produto usando o método
Catalog.patch
. Saiba mais sobre os níveis de produto.ingestionProductType
: compatível com os valoresprimary
(padrão) evariant
.merchantCenterProductIdField
: tem suporte aos valoresofferId
eitemGroupId
. Se você não usa o Merchant Center, não é necessário definir esse campo.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "productLevelConfig": { "ingestionProductType": "PRODUCT_TYPE", "merchantCenterProductIdField": "PRODUCT_ID_FIELD" } }' \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
Crie um arquivo de dados para os parâmetros de entrada para a importação. Use o objeto
GcsSource
para apontar para o bucket do Cloud Storage.É possível fornecer vários arquivos ou apenas um. este exemplo usa dois arquivos.
- INPUT_FILE: um ou mais arquivos no Cloud Storage que contêm os dados do catálogo.
- ERROR_DIRECTORY: um diretório do Cloud Storage para informações de erro sobre a importação.
Os campos do arquivo de entrada precisam estar no formato
gs://<bucket>/<path-to-file>/
. O diretório de erro precisa estar no formatogs://<bucket>/<folder>/
. Se o diretório de erros não existir, ele será criado. O bucket já precisa existir.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"] } }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Importe as informações do seu catálogo fazendo uma solicitação
POST
para o método RESTProducts:import
, fornecendo o nome do arquivo de dados (aqui, mostrado comoinput.json
).curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" -d @./input.json \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
A maneira mais fácil de verificar o status da operação de importação é usar o console do Google Cloud. Para mais informações, consulte Como conferir o status de uma operação de integração específica.
Também é possível verificar o status de maneira programática usando a API. Você receberá um objeto de resposta com esta aparência:
{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "done": false }
O campo de nome é o ID do objeto de operação. Solicite o status desse objeto e substitua o campo de nome pelo valor retornado pelo método de importação, até que o campo
done
retorne comotrue
:curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/[OPERATION_NAME]"
Quando a operação for concluída, o objeto retornado terá um valor
done
detrue
e incluirá um objeto Status semelhante ao seguinte exemplo:{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "metadata": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata", "createTime": "2020-01-01T03:33:33.000001Z", "updateTime": "2020-01-01T03:34:33.000001Z", "successCount": "2", "failureCount": "1" }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse" }, "errorsConfig": { "gcsPrefix": "gs://error-bucket/error-directory" } }
É possível inspecionar os arquivos no diretório de erros no Cloud Storage para ver que tipo de erros ocorreu durante a importação.
-
Acesse a página Dados> no console da Pesquisa para varejo.
Importar dados de catálogo inline
curl
Para importar as informações do catálogo inline,
faça uma solicitação POST
para o método REST Products:import
,
usando o objeto productInlineSource
para especificar os dados do
catálogo.
Forneça um produto inteiro em uma única linha. Cada produto precisa estar em uma linha.
Para ver um exemplo do formato de item JSON do produto, consulte Formato de dados JSON do item do produto.
Crie o arquivo JSON para seu produto e chame-o
./data.json
:{ "inputConfig": { "productInlineSource": { "products": [ { PRODUCT_1 } { PRODUCT_2 } ] } } }
Chame o método POST:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
Java
Formato de dados JSON do item do produto
As entradas Product
no arquivo JSON devem ser semelhantes aos exemplos a seguir.
Forneça um produto inteiro em uma única linha. Cada produto precisa estar em uma linha.
Campos obrigatórios mínimos:
{
"id": "1234",
"categories": "Apparel & Accessories > Shoes",
"title": "ABC sneakers"
}
{
"id": "5839",
"categories": "casual attire > t-shirts",
"title": "Crew t-shirt"
}
Objeto completo:
{
"name": "projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products/1234",
"id": "1234",
"categories": "Apparel & Accessories > Shoes",
"title": "ABC sneakers",
"description": "Sneakers for the rest of us",
"attributes": { "vendor": {"text": ["vendor123", "vendor456"]} },
"language_code": "en",
"tags": [ "black-friday" ],
"priceInfo": {
"currencyCode": "USD", "price":100, "originalPrice":200, "cost": 50
},
"availableTime": "2020-01-01T03:33:33.000001Z",
"availableQuantity": "1",
"uri":"http://example.com",
"images": [
{"uri": "http://example.com/img1", "height": 320, "width": 320 }
]
}
{
"name": "projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products/4567",
"id": "4567",
"categories": "casual attire > t-shirts",
"title": "Crew t-shirt",
"description": "A casual shirt for a casual day",
"attributes": { "vendor": {"text": ["vendor789", "vendor321"]} },
"language_code": "en",
"tags": [ "black-friday" ],
"priceInfo": {
"currencyCode": "USD", "price":50, "originalPrice":60, "cost": 40
},
"availableTime": "2020-02-01T04:44:44.000001Z",
"availableQuantity": "2",
"uri":"http://example.com",
"images": [
{"uri": "http://example.com/img2", "height": 320, "width": 320 }
]
}
Dados históricos do catálogo
A Vertex AI para Pesquisa de varejo oferece suporte para importação e gerenciamento de dados históricos de catálogo. Os dados históricos do catálogo podem ser úteis quando você usa eventos históricos do usuário para treinar modelos. As informações anteriores do produto podem ser usadas para enriquecer dados históricos de eventos do usuário e melhorar a precisão do modelo.
Os produtos históricos são armazenados como expirados. Elas não são retornadas em respostas de pesquisa, mas são visíveis para as chamadas de API Update
, List
e Delete
.
Importar dados históricos de catálogo
Quando o campo expireTime
de um produto é definido como um carimbo de data/hora no passado, esse produto é considerado como histórico. Defina a disponibilidade do produto como
OUT_OF_STOCK para evitar que as
recomendações sejam afetadas.
Recomendamos o uso dos seguintes métodos para importar dados históricos de catálogo:
- Chamada para o método
Product.Create
. - Importação inline de produtos expirados.
- Importação de produtos expirados do BigQuery.
Chame o método Product.Create
.
Use o método Product.Create
para criar uma entrada Product
com o campo expireTime
definido para um carimbo de data/hora no passado.
Produtos importados expirados
As etapas são idênticas às da importação inline, exceto pelo fato de os
produtos precisarem ter os campos expireTime
definidos como um
carimbo de data/hora passado.
Forneça um produto inteiro em uma única linha. Cada produto precisa estar em uma linha.
Um exemplo do ./data.json
usado na solicitação de importação in-line:
{ "inputConfig": { "productInlineSource": { "products": [ { "id": "historical_product_001", "categories": "Apparel & Accessories > Shoes", "title": "ABC sneakers", "expire_time": { "second": "2021-10-02T15:01:23Z" // a past timestamp } }, { "id": "historical product 002", "categories": "casual attire > t-shirts", "title": "Crew t-shirt", "expire_time": { "second": "2021-10-02T15:01:24Z" // a past timestamp } } ] } } }
Importar produtos expirados do BigQuery ou do Cloud Storage
Use os mesmos procedimentos documentados para
importar dados de catálogo do BigQuery ou
importar dados de catálogo do Cloud Storage. No entanto, defina
o campo expireTime
como um carimbo de data/hora no passado.
Mantenha seu catálogo atualizado
Para melhores resultados, seu catálogo precisa conter informações atuais. Recomendamos importar o catálogo diariamente para garantir que ele esteja atualizado. Use o Google Cloud Scheduler para programar importações ou escolha uma opção de programação automática ao importar dados usando o console do Google Cloud.
É possível atualizar apenas itens de produtos novos ou alterados ou importar todo o catálogo. Se você importar produtos que já estão no seu catálogo, eles não serão adicionados novamente. Todos os itens que foram alterados serão atualizados.
Para atualizar um único item, consulte Atualizar informações do produto.
Atualização em lote
Você pode usar o método de importação para atualizar seu catálogo em lote. Isso é feito da mesma maneira que a importação inicial. Siga as etapas em Importar dados de catálogo.
Monitorar a integridade da importação
Para monitorar a transferência e a integridade do catálogo:
Confira informações agregadas sobre seu catálogo e visualize os produtos enviados na guia Catálogo da página Dados de varejo.
Avalie se você precisa atualizar os dados do catálogo para melhorar a qualidade dos resultados da pesquisa e desbloquear níveis de desempenho da pesquisa na página Qualidade de dados.
Para saber mais sobre como verificar a qualidade dos dados de pesquisa e conferir os níveis de desempenho da pesquisa, consulte Desbloquear níveis de desempenho da pesquisa. Para um resumo das métricas de catálogo disponíveis nesta página, consulte Métricas de qualidade do catálogo.
Para criar alertas que informam se algo der errado com seus uploads de dados, siga os procedimentos em Configurar alertas do Cloud Monitoring.
É importante manter seu catálogo atualizado para conseguir resultados de alta qualidade. Use alertas para monitorar as taxas de erro de importação e tomar medidas se necessário.
A seguir
- Comece a gravar eventos de usuários.
- Veja informações agregadas sobre seu catálogo.
- Configure alertas de upload de dados.