Esta página descreve como importar as informações do seu catálogo e mantê-las data.
Os procedimentos de importação nesta página se aplicam às recomendações e à pesquisa. Depois de importar os dados, os dois serviços podem usar esses dados, então você não precisa importar os mesmos dados duas vezes se você usar os dois serviços.
Importar dados do catálogo do BigQuery
Neste tutorial, mostramos como usar uma tabela do BigQuery para importar grandes quantidades de dados de catálogo sem limites.
Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:
Importar dados do catálogo do Cloud Storage
Neste tutorial, mostramos como importar um grande número de itens para um catálogo.
Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:
Importar dados de catálogo inline
Neste tutorial, mostramos como importar produtos para um catálogo inline.
Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:
Antes de começar
Antes de importar as informações do seu catálogo, é preciso concluir as instruções Antes de começar, especificamente Como configurar seu projeto, Como criar uma conta de serviço e Como adicionar a conta de serviço ao seu ambiente local.
É necessário ter o papel do IAM de administrador de varejo para realizar a importação.
Práticas recomendadas de importação de catálogo
Dados de alta qualidade são necessários para gerar resultados de alta qualidade. Se os dados não tiverem campos ou tiverem valores de marcador em vez de valores reais, a qualidade das previsões e dos resultados da pesquisa será prejudicada.
Ao importar dados do catálogo, implemente as seguintes práticas recomendadas:
Pense bem ao determinar quais produtos ou grupos de produtos são principais e quais são variantes. Antes de fazer o upload de quaisquer dados, consulte os Níveis de produto.
Alterar a configuração no nível do produto depois de importar todos os dados requer um esforço significativo.
Os itens principais são retornados como resultados de pesquisa ou recomendações. Os itens de variantes não são.
Por exemplo, se o grupo principal de SKUs for "camisa com gola em V", o de recomendação retorna um item de camisa de gola em V e, talvez, um camisa de gola redonda e uma camisa de gola redonda. No entanto, se as variantes não forem usadas e cada SKU for principal, todas as combinações de cor e tamanho de camisa de gola em V é retornado como um item distinto no painel de recomendações: "Decote em V marrom camiseta, tamanho XG", "Camisa de gola V marrom, tamanho G", até "Decote branco branco" camiseta, tamanho M", "Camisa branca de gola V, tamanho P".
Observe os limites de importação de itens do produto.
Para a importação em massa do Cloud Storage, o tamanho de cada arquivo precisa ser 2 GB ou menor. É possível incluir até 100 arquivos por vez em uma única solicitação de importação em massa.
Para realizar a importação in-line, importe no máximo 5 mil itens de cada vez.
Verifique se todas as informações de catálogo necessárias estão incluídas e corretas.
Não use valores de marcador.
Inclua o máximo possível de informações opcionais do catálogo.
Verifique se todos os seus eventos usam uma única moeda, especialmente se você planeja usá-la Console do Google Cloud para acessar métricas de receita. A API Vertex AI Search for Retail não é compatível com o uso de várias moedas por catálogo.
Mantenha seu catálogo atualizado.
O ideal é atualizar o catálogo diariamente. A programação de importações periódicas de catálogo evita que a qualidade do modelo diminua com o tempo. Você pode programar importações automáticas e recorrentes quando você importa seu catálogo usando o Pesquise o console de varejo. Se preferir, use o Google Cloud Scheduler para automatizar importações.
Não registre eventos de usuário de itens de produtos que ainda não foram importados.
Depois de importar as informações do catálogo, revise os relatórios de erros e as informações de geração de registros do seu projeto.
Alguns erros são esperados, mas, se você tiver um grande número de erros, revise-os e corrija os problemas de processo que os levaram.
Sobre a importação de dados do catálogo
É possível importar os dados do produto do Merchant Center, do Cloud Storage, do BigQuery ou especificar os dados in-line na solicitação. Cada um desses procedimentos são importações únicas com exceto na vinculação do Merchant Center. Programe importações de catálogo regulares (de preferência, diariamente), para garantir que seu catálogo esteja atualizado. Consulte Manter seu catálogo atualizado.
Também é possível importar itens de produtos individuais. Para mais informações, consulte Fazer upload de um produto.
Considerações sobre importação de catálogo
Nesta seção, descrevemos os métodos que podem ser usados para importação em lote dos dados de catálogo, quando você usa cada método e algumas das limitações deles.
Sincronização no Merchant Center | Descrição | Importa dados de catálogo pelo Merchant Center vinculando as contas a conta com a Vertex AI para Pesquisa para Retail. Após a vinculação, as atualizações nos dados do catálogo no Merchant Center são sincronizadas em tempo real com a Vertex AI para Pesquisa para varejo. |
---|---|---|
Quando usar | Se você tiver uma integração com o Google Merchant Center. | |
Limitações |
Suporte limitado a esquemas. Por exemplo, as coleções de produtos não são compatíveis
com o Merchant Center. O Merchant Center se tornará a fonte da verdade para os dados até que eles sejam desvinculados. Por isso, os atributos personalizados necessários precisam ser adicionados aos dados do Merchant Center.
Controle limitado. Não é possível especificar determinados campos ou conjuntos de itens para importar do Merchant Center. todos os itens e campos existentes no Merchant Center são importados. |
|
BigQuery | Descrição | Importar dados de uma tabela do BigQuery já carregada que usa o esquema da Vertex AI para Pesquisa para Retail ou o esquema do Merchant Center. Pode ser realizado usando o console do Google Cloud ou o curl. |
Quando usar |
Se você tiver catálogos de produtos com muitos atributos. Google BigQuery
usa o esquema da Vertex AI para Pesquisa para Retail, que tem mais opções
do que as outras opções de importação, incluindo chaves-valor personalizadas
atributos.
Se você tiver grandes volumes de dados. A importação do BigQuery não tem um limite de dados. Se você já usa o BigQuery. |
|
Limitações | Exige a etapa extra de criação de uma tabela do BigQuery que é mapeada para o esquema de varejo da Vertex AI para Pesquisa. | |
Cloud Storage | Descrição |
Importe dados em um formato JSON de arquivos carregados em um bucket do
Cloud Storage. Cada arquivo precisa ter 2 GB ou menos e até 100 arquivos por vez são importados. A importação pode ser feita usando o console do Google Cloud
ou o curl. Usa o formato de dados JSON Product , que permite atributos personalizados.
|
Quando usar | Se você precisa carregar uma grande quantidade de dados em uma única etapa | |
Limitações | Não é ideal para catálogos com atualizações frequentes de inventário e preços, já que as alterações não são refletidas imediatamente. | |
Importação in-line | Descrição |
Importação usando uma chamada para o método Product.import . Usos
o objeto ProductInlineSource , que tem menos produtos
de catálogo do que o esquema da Vertex AI para Pesquisa para Retail, mas oferece suporte
atributos.
|
Quando usar | Se você tem dados de catálogo planos e não relacionais ou uma alta frequência de atualizações de quantidade ou preço. | |
Limitações | Apenas 100 itens do catálogo podem ser importados por vez. No entanto, muitas etapas de carregamento podem ser executadas: não há limite de itens. |
Limpar ramificações do catálogo
Se você estiver importando novos dados de catálogo para uma ramificação existente, é importante que a ramificação do catálogo esteja vazia. Isso garante a integridade dos dados importados ao a ramificação. Quando a ramificação estiver vazia, você poderá importar novos dados de catálogo e vincular a ramificação a uma conta de comerciante.
Se você estiver veiculando tráfego de previsão ou pesquisa em tempo real e planeja limpar o tráfego padrão considere primeiro especificar outra como padrão antes da limpeza. Como a ramificação padrão vai exibir resultados vazios após a limpeza, a limpeza de uma ramificação padrão ativa pode causar uma interrupção.
Para limpar dados de uma ramificação de catálogo, siga estas etapas:
Acesse a página Dados > no console do Search for Retail.
Acessar a página "Dados"Selecione uma ramificação do catálogo no campo Nome da ramificação.
No menu de três pontos ao lado do campo Nome da ramificação, escolha Limpar ramificação.
Uma mensagem será exibida avisando que você está prestes a excluir todos os dados do a ramificação e os atributos criados para ela.
Insira a ramificação e clique em Confirmar para limpar os dados do catálogo ramificação.
Uma operação de longa duração é iniciada para limpar os dados da ramificação de catálogo. Quando a operação de limpeza for concluída, o status da limpeza será exibido em da lista Catálogo de produtos no campo Status da atividade janela.
Sincronizar o Merchant Center com a Vertex AI para Pesquisa para Retail
Para a sincronização contínua entre o Merchant Center e a Vertex AI para Pesquisa para varejo, vincule sua conta do Merchant Center à Vertex AI para Pesquisa para varejo. Após a vinculação, as informações do catálogo na sua conta do Merchant Center são importadas imediatamente para a Vertex AI Search para varejo.
Ao configurar uma sincronização do Merchant Center para a Vertex AI para Pesquisa para varejo, é necessário ter a função de administrador atribuída no Merchant Center. Embora uma função de acesso padrão permita ler os feeds do Merchant Center na interface, você vai receber uma mensagem de erro ao tentar sincronizar o Merchant Center com a Vertex AI Search for Retail. Portanto, antes de sincronizar o Merchant Center com a Vertex AI para Pesquisa para Retail, é necessário fazer upgrade da sua função.
Embora a Vertex AI para Pesquisa para varejo esteja vinculada à conta do Merchant Center, as alterações nos dados dos produtos dela são atualizadas automaticamente em minutos na Vertex AI para Pesquisa para varejo. Se você não quiser que as alterações no Merchant Center sejam sincronizadas à Vertex AI para Pesquisa para Retail, é possível desvincular sua conta do Merchant Center.
Desvincular sua conta do Merchant Center não exclui nenhum produto da Vertex AI para Pesquisa para varejo. Para excluir produtos importados, consulte Excluir informações do produto.
Sincronizar sua conta do Merchant Center
Para sincronizar sua conta do Merchant Center, conclua as etapas a seguir.
Console
-
Acesse a página Dados > no console do Search for Retail.
Acessar a página "Dados" - Clique em Importar para abrir o painel Importar dados.
- Escolha Catálogo de produtos.
- Selecione Merchant Center Sync como sua fonte de dados.
- Selecione sua conta do Merchant Center. Verifique Acesso do usuário se não encontrar sua conta.
- Opcional: selecione o filtro de feeds do Merchant Center para importar somente ofertas de feeds selecionados.
Se não for especificado, as ofertas de todos os feeds serão importadas, incluindo feeds futuros. - Opcional: para importar apenas ofertas segmentadas para determinados países ou idiomas, abra Mostrar opções avançadas e selecione os países de venda e os idiomas do Merchant Center para filtrar.
- Selecione a ramificação para fazer o upload do catálogo.
- Clique em Importar.
curl
Verifique se a conta de serviço no seu ambiente local tem acesso tanto à conta do Merchant Center Vertex AI para Pesquisa para Retail. Para verificar quais contas têm acesso à sua conta do Merchant Center, consulte Acesso do usuário para o Merchant Center.
Use o método
MerchantCenterAccountLink.create
para estabelecer a vinculação.curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "merchantCenterAccountId": MERCHANT_CENTER_ID, "branchId": "BRANCH_ID", "feedFilters": [ {"primaryFeedId": PRIMARY_FEED_ID_1} {"primaryFeedId": PRIMARY_FEED_ID_2} ], "languageCode": "LANGUAGE_CODE", "feedLabel": "FEED_LABEL", }' \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_ID/locations/global/catalogs/default_catalog/merchantCenterAccountLinks"
- MERCHANT_CENTER_ID: o ID da conta do Merchant Center.
- BRANCH_ID: o ID da ramificação com que você quer estabelecer a vinculação. Aceita os valores "0", "1" ou "2".
- LANGUAGE_CODE: (OPCIONAL) o código de idioma de duas letras de
os produtos que você quer importar. Conforme visto em
Merchant Center na coluna
Language
das produto. Se ela não for definida, todos os idiomas serão importados. - FEED_LABEL: (OPCIONAL) o rótulo do feed. dos produtos que você quer importar. Confira o rótulo do feed Merchant Center no rótulo do feed do produto do produto da coluna. Se não for definido, todos os rótulos do feed serão importados.
- FEED_FILTERS: (OPCIONAL) lista de
feeds principais dos quais os produtos serão
importadas. Se você não selecionar feeds, todos os feeds da conta do Merchant Center serão compartilhados. Os IDs
podem ser encontradas no recurso de feeds de dados da API Content ou
acessar o Merchant Center, selecionar um feed
acessar o ID do feed do parâmetro dataSourceId na
o URL do site. Por exemplo,
mc/products/sources/detail?a=MERCHANT_CENTER_ID&dataSourceId=PRIMARY_FEED_ID
.
Para conferir o Merchant Center vinculado, acesse a página Dados do console Pesquisa para Varejo e clique no botão Merchant Center no canto superior direito. A página Vinculado do Merchant Center Contas. Também é possível adicionar outros contas deste painel.
Consulte Como visualizar informações agregadas sobre seu catálogo para instruções sobre como visualizar os produtos que foram importados.
Listar os links da sua conta do Merchant Center
Liste as vinculações da sua conta do Merchant Center.
Console
Acesse Dados> no console da Pesquisa para varejo.
Acessar a página "Dados"Clique no botão Merchant Center no canto superior direito da página para abrir uma lista das suas contas vinculadas do Merchant Center.
curl
Usar o método MerchantCenterAccountLink.list
para listar o recurso de links.
curl -X GET \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/merchantCenterAccountLinks"
Desvincular sua conta do Merchant Center
Desvincular sua conta do Merchant Center impede que ela sincronize os dados de catálogo com a Vertex AI para Pesquisa para varejo. Esse procedimento não excluir os produtos na Vertex AI para Pesquisa para Retail que já foram enviado.
Console
Acesse Dados> no console da Pesquisa para varejo.
Acessar a página "Dados"Clique no botão Merchant Center no canto superior direito da página para abrir uma lista das suas contas vinculadas do Merchant Center.
Clique em Desvincular ao lado da conta do Merchant Center que você quer desvincular e confirme sua escolha na caixa de diálogo exibida.
curl
Usar o MerchantCenterAccountLink.delete
para remover o recurso MerchantCenterAccountLink
.
curl -X DELETE \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/merchantCenterAccountLinks/BRANCH_ID_MERCHANT_CENTER_ID"
Limitações ao vincular ao Merchant Center
Uma conta do Merchant Center pode ser vinculada a qualquer número de ramificações de catálogo, mas uma única ramificação de catálogo só pode ser vinculada a uma conta do Merchant Center.
Uma conta do Merchant Center não pode ser uma conta de múltiplos clientes (MCA). No entanto, você pode vincular subcontas.
A primeira importação depois de vincular sua conta do Merchant Center pode levar horas para ser concluída. O tempo depende do número de ofertas na conta do Merchant Center.
As modificações de produtos que usam métodos de API são desativadas para ramificações vinculadas a uma conta do Merchant Center. Qualquer alteração nos dados do catálogo de produtos nessas ramificações precisa ser feita usando o Merchant Center. Essas mudanças são sincronizadas automaticamente com a Vertex AI para Pesquisa para varejo.
O tipo de produto da coleção não é compatível com ramificações que usam o Merchant Center.
Sua conta do Merchant Center só pode ser vinculada a ramificações de catálogo vazias para garantir a correção dos dados. Para excluir produtos de uma ramificação de catálogo, consulte Excluir informações do produto.
Importar dados de catálogo do Merchant Center
O Merchant Center é uma ferramenta que você pode usar para disponibilizar os dados da sua loja e dos seus produtos para anúncios do Shopping e outros serviços do Google.
É possível importar dados de catálogo em massa do Merchant Center como um procedimento único do BigQuery usando o esquema do Merchant Center (somente recomendações).
Importação em massa do Merchant Center
É possível importar dados de catálogo do Merchant Center usando o
console Pesquisa para varejo ou o método products.import
. A importação
em massa é um procedimento único e só é compatível com
recomendações.
Para importar seu catálogo do Merchant Center, siga estas etapas:
Usando as instruções nas transferências do Merchant Center, configure uma transferência do Merchant Center para o BigQuery.
Use o esquema da tabela de produtos do Google Merchant Center. Configure a transferência para que ela se repita diariamente, mas defina o prazo de validade do conjunto de dados em dois dias.
Se o conjunto de dados do BigQuery estiver em outro projeto, configure as permissões necessárias para que a Pesquisa da Vertex AI para varejo possa acessar o conjunto de dados do BigQuery. Saiba mais.
Importe os dados do catálogo do BigQuery para a Vertex AI Search for Retail.
Console
Acesse Dados> no console da Pesquisa para varejo.
Acessar a página "Dados"Clique em Importar para abrir o painel "Importar".
Escolha Catálogo de produtos.
Selecione BigQuery como a fonte de dados.
Selecione a ramificação para fazer o upload do catálogo.
Selecione Merchant Center como o esquema de dados.
Insira a tabela do BigQuery em que seus dados estão localizados.
Opcional: insira o local de um bucket do Cloud Storage no projeto como um local temporário para seus dados.
Se não for especificado, um local padrão será usado. Caso seja especificado, os buckets do BigQuery e do Cloud Storage precisam estar na mesma região.
Escolha se você quer programar um upload recorrente dos dados do seu catálogo.
Se esta for a primeira vez que você está importando o catálogo ou se estiver importando o catálogo novamente depois de limpá-lo, selecione os níveis do produto. Saiba mais sobre os níveis de produto.
Alterar a configuração no nível do produto depois de importar todos os dados requer um esforço significativo.
Clique em Importar.
curl
Se esta for a primeira vez que você está carregando o catálogo ou se estiver importando o catálogo novamente após a limpeza, defina os níveis do produto usando o método
Catalog.patch
. Essa operação requer o papel de Administrador de varejo. Saiba mais sobre os níveis de produto.ingestionProductType
: compatível com os valoresprimary
(padrão) evariant
.merchantCenterProductIdField
: compatível com os valoresofferId
(padrão) eitemGroupId
. Se você não usar Merchant Center, defina o valor padrãoofferId
.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "productLevelConfig": { "ingestionProductType": "PRODUCT_TYPE", "merchantCenterProductIdField": "PRODUCT_ID_FIELD" } }' \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
Importe o catálogo usando o método
Products.import
.- DATASET_ID: o ID do conjunto de dados do BigQuery.
- TABLE_ID: o ID da tabela do BigQuery que contém os dados.
- STAGING_DIRECTORY: opcional. Um diretório do Cloud Storage usado como um local temporário para seus dados antes de importá-los para o BigQuery. Deixe esse campo em branco para criar automaticamente um diretório temporário (recomendado).
- ERROR_DIRECTORY: opcional. Um diretório do Cloud Storage para informações de erros sobre a importação. Deixe esse campo em branco para criar automaticamente um diretório temporário (recomendado).
dataSchema
: para a propriedadedataSchema
, use o valorproduct_merchant_center
. Veja o esquema da tabela de produtos do Merchant Center.
Recomendamos que você não especifique diretórios de preparo ou erro. Dessa forma, um bucket do Cloud Storage com novos diretórios de preparo e erro pode ser criado automaticamente. Esses diretórios são criados no mesmo como o conjunto de dados do BigQuery e são exclusivos para cada importação (o que impede que vários jobs de importação preparem dados no mesmo diretório, e possivelmente reimportar os mesmos dados). Após três dias, o bucket e os diretórios são excluídos automaticamente para reduzir os custos de armazenamento.
Um nome de bucket criado automaticamente inclui o ID do projeto, a região do bucket e o nome do esquema de dados, separados por sublinhados (por exemplo,
4321_us_catalog_retail
). Os diretórios criados automaticamente são chamados destaging
ouerrors
, anexados por um número (por exemplo,staging2345
ouerrors5678
).Se você especificar diretórios, o bucket do Cloud Storage precisará estar na mesma região do conjunto de dados do BigQuery. Caso contrário, a importação falhará. Forneça os diretórios de preparo e erro no formato
gs://<bucket>/<folder>/
. cada uma delas deve ser diferente.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "inputConfig":{ "bigQuerySource": { "datasetId":"DATASET_ID", "tableId":"TABLE_ID", "dataSchema":"product_merchant_center" } } }' \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
Importar dados do catálogo do BigQuery
Para importar dados do catálogo no formato correto do BigQuery, use o esquema do Search for Retail da Vertex AI para criar uma tabela do BigQuery com o formato correto e carregue a tabela vazia com os dados do catálogo. Em seguida, faça o upload dos seus dados à Vertex AI para Pesquisa para Retail.
Para mais ajuda com as tabelas do BigQuery, consulte Introdução às tabelas. Para ajuda com as consultas do BigQuery, consulte Visão geral da consulta de dados do BigQuery.
Para seguir as instruções da tarefa diretamente no editor do Cloud Shell, clique em Orientação:
Para importar seu catálogo:
Se o conjunto de dados do BigQuery estiver em outro projeto, configure as permissões necessárias para que a Pesquisa da Vertex AI para varejo possa acessar o conjunto de dados do BigQuery. Saiba mais.
Importe os dados do seu catálogo para a Vertex AI para Pesquisa para Retail.
Console
-
Acesse Dados> no console da Pesquisa para varejo.
Acessar a página "Dados" - Clique em Importar para abrir o painel Importar dados.
- Escolha Catálogo de produtos.
- Selecione BigQuery como a fonte de dados.
- Selecione a ramificação para fazer o upload do catálogo.
- Escolha Esquema de catálogos de produtos de varejo. Este é o Esquema de produto da Vertex AI para Pesquisa para Retail.
- Insira a tabela do BigQuery em que seus dados estão localizados.
- Opcional: em Mostrar opções avançadas, insira o local de um bucket do Cloud Storage no projeto como um local temporário para seus dados.
Se não for especificado, um local padrão será usado. Se especificado, as instâncias do BigQuery O bucket do Cloud Storage precisa estar na mesma região. - Se a pesquisa não estiver ativada e você estiver usando
esquema do Merchant Center, selecione o nível do produto.
Você precisa selecione o nível do produto se esta for a primeira vez que você importa seu catálogo ou se estiver reimportar o catálogo depois de limpá-lo. Saiba mais sobre os níveis de produto. Alterando níveis de produto após a importação dos dados exige um esforço significativo.
Importante:não é possível ativar a pesquisa de projetos com do catálogo de produtos que foi ingerido como variantes. - Clique em Importar.
curl
Se esta for a primeira vez que você está carregando o catálogo ou se estiver importando o catálogo novamente após a limpeza, defina os níveis do produto usando o método
Catalog.patch
. Essa operação requer o papel de Administrador de varejo.ingestionProductType
: aceita os valoresprimary
(padrão) evariant
.merchantCenterProductIdField
: tem suporte aos valoresofferId
eitemGroupId
. Se você não usa o Merchant Center, não é necessário definir esse campo.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "productLevelConfig": { "ingestionProductType": "PRODUCT_TYPE", "merchantCenterProductIdField": "PRODUCT_ID_FIELD" } }' \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
Crie um arquivo de dados para os parâmetros de entrada para a importação.
Use o objeto BigQuerySource para apontar para o conjunto de dados do BigQuery.
- DATASET_ID: o ID do conjunto de dados do BigQuery.
- TABLE_ID: o ID da tabela do BigQuery que contém os dados.
- PROJECT_ID: o ID do projeto em que está a origem do BigQuery. Se não for especificado, o ID do projeto será herdado da solicitação principal.
- STAGING_DIRECTORY: opcional. Um diretório do Cloud Storage usado como um local temporário para seus dados antes de importá-los para o BigQuery. Deixe esse campo em branco para criar automaticamente um diretório temporário (recomendado).
- ERROR_DIRECTORY: opcional. Um diretório do Cloud Storage para informações de erros sobre a importação. Sair deste campo vazio para criar automaticamente uma diretório temporário (recomendado).
dataSchema
: para a propriedadedataSchema
, use o valorproduct
(padrão). Você vai usar o Esquema da Vertex AI para Pesquisa para Retail
Recomendamos que você não especifique diretórios de teste ou erro. Assim, um É possível criar um bucket do Cloud Storage com novos diretórios de teste e criadas automaticamente. Esses diretórios são criados na mesma região que o conjunto de dados do BigQuery e são exclusivos para cada importação, o que impede que vários jobs de importação organizem dados para o mesmo diretório e, possivelmente, reimportam os mesmos dados. Após três dias, o bucket e os diretórios são excluídos automaticamente para reduzir os custos de armazenamento.
Um nome de bucket criado automaticamente inclui o ID do projeto, a região do bucket e o nome do esquema de dados, separados por sublinhados (por exemplo,
4321_us_catalog_retail
). Os diretórios criados automaticamente são chamados destaging
ouerrors
, anexados por um número (por exemplo,staging2345
ouerrors5678
).Se você especificar diretórios, o bucket do Cloud Storage precisará estar na mesma região do conjunto de dados do BigQuery. Caso contrário, a importação falhará. Forneça os diretórios de preparo e erro no formato
gs://<bucket>/<folder>/
. cada uma delas deve ser diferente.{ "inputConfig":{ "bigQuerySource": { "projectId":"PROJECT_ID", "datasetId":"DATASET_ID", "tableId":"TABLE_ID", "dataSchema":"product"} } }
Importe as informações do seu catálogo fazendo uma solicitação
POST
para o método RESTProducts:import
, fornecendo o nome do arquivo de dados (aqui, mostrado comoinput.json
).curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" -d @./input.json \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
É possível verificar o status de maneira programática usando a API. Você receberá um objeto de resposta com esta aparência:
{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "done": false }
O campo de nome é o ID do objeto de operação. Para solicitar o status desse objeto, substitua o campo de nome pelo valor retornado pelo método
import
, até o campodone
retornar comotrue
:curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456"
Quando a operação for concluída, o objeto retornado terá um valor
done
detrue
e incluirá um objeto Status semelhante ao exemplo a seguir:{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "metadata": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata", "createTime": "2020-01-01T03:33:33.000001Z", "updateTime": "2020-01-01T03:34:33.000001Z", "successCount": "2", "failureCount": "1" }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse", }, "errorsConfig": { "gcsPrefix": "gs://error-bucket/error-directory" } }
Você pode inspecionar os arquivos no diretório de erros no Cloud Storage para ver se ocorreram erros durante a importação.
-
Acesse Dados> no console da Pesquisa para varejo.
Configurar o acesso ao conjunto de dados do BigQuery
Para configurar o acesso quando seu conjunto de dados do BigQuery estiver em um projeto do que o serviço da Vertex AI para Pesquisa para Retail, conclua as etapas a seguir.
Abra a página "IAM" no console do Google Cloud.
Selecione seu projeto da Vertex AI para Pesquisa para Retail.
Encontre a conta de serviço com o nome Conta de serviço de varejo.
Se você não tiver iniciado uma operação de importação anteriormente, esta conta de serviço pode não estar listada. Se essa conta de serviço não for exibida, retorne à tarefa de importação e inicie a importação. Quando ela falhar devido a erros de permissão, volte aqui e conclua esta tarefa.
Copie o identificador da conta de serviço, que se parece com um endereço de e-mail (por exemplo,
service-525@gcp-sa-retail.iam.gserviceaccount.com
).Alterne para o projeto do BigQuery (no mesmo IAM e administrador página) e clique em person_add Permitir acesso.
Em Novos administradores, insira o identificador da conta de serviço do Vertex AI Search for Retail e selecione o papel BigQuery > Usuário do BigQuery.
Clique em Adicionar outro papel e selecione BigQuery > Editor de dados do BigQuery.
Se você não quiser fornecer o papel de editor de dados a todo o projeto, adicione esse papel diretamente ao conjunto de dados. Saiba mais.
Clique em Salvar.
Importar dados de catálogo do Cloud Storage
Para importar dados do catálogo no formato JSON, crie um ou mais arquivos JSON que contenham os dados do catálogo que você quer importar e faça o upload deles para o Cloud Storage. Depois, é possível importá-los para a Vertex AI para Pesquisa para Retail.
Para ver um exemplo do formato de item JSON do produto, consulte Formato de dados JSON do item do produto.
Para receber ajuda com o upload de arquivos para o Cloud Storage, consulte Faça o upload de objetos.
Verifique se a conta de serviço da Pesquisa da Vertex AI para varejo tem permissão para ler e gravar no bucket.
A conta de serviço da Vertex AI para Pesquisa para Retail está listada no Página do IAM no console do Google Cloud chamado Conta de serviço de varejo. Use o identificador da conta de serviço, que se parece com um endereço de e-mail (por exemplo,
service-525@gcp-sa-retail.iam.gserviceaccount.com
) ao adicionar a conta às permissões do bucket.Importe os dados do seu catálogo.
Console
-
Acesse Dados> no console da Pesquisa para varejo.
Acessar a página "Dados" - Clique em Importar para abrir o painel Importar dados.
- Escolha Catálogo de produtos como sua fonte de dados.
- Selecione a ramificação para fazer o upload do catálogo.
- Escolha Esquema de catálogos de produtos de varejo como esquema.
- Insira o local dos seus dados no Cloud Storage.
- Se a pesquisa não estiver ativada, selecione os níveis do produto.
É necessário selecionar os níveis do produto se esta for a primeira vez que você está importando o catálogo ou se você estiver importando o catálogo novamente depois de limpá-lo. Saiba mais sobre os níveis de produto. Alterando níveis de produto após a importação dos dados exige um esforço significativo.
Importante: não é possível ativar a pesquisa para projetos com um catálogo de produtos que foi ingerido como variantes. - Clique em Importar.
curl
Se esta for a primeira vez que você está carregando o catálogo ou se estiver importando o catálogo novamente após a limpeza, defina os níveis do produto usando o método
Catalog.patch
. Saiba mais sobre os níveis de produto.ingestionProductType
: compatível com os valoresprimary
(padrão) evariant
.merchantCenterProductIdField
: tem suporte aos valoresofferId
eitemGroupId
. Se você não usa o Merchant Center, não é necessário definir esse campo.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "productLevelConfig": { "ingestionProductType": "PRODUCT_TYPE", "merchantCenterProductIdField": "PRODUCT_ID_FIELD" } }' \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
Crie um arquivo de dados para os parâmetros de entrada para a importação. Use o objeto
GcsSource
para apontar para o bucket do Cloud Storage.É possível fornecer vários arquivos ou apenas um. este exemplo usa dois arquivos.
- INPUT_FILE: um ou mais arquivos no Cloud Storage que contêm os dados do catálogo.
- ERROR_DIRECTORY: um diretório do Cloud Storage para informações de erro sobre a importação.
Os campos do arquivo de entrada precisam estar no formato
gs://<bucket>/<path-to-file>/
. O diretório de erro precisa estar no formatogs://<bucket>/<folder>/
. Se o diretório de erro não existir, ele será criado. O bucket já precisa existir.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"] } }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Importe as informações do seu catálogo fazendo uma solicitação
POST
para o método RESTProducts:import
, fornecendo o nome do arquivo de dados (aqui, mostrado comoinput.json
).curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" -d @./input.json \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
A maneira mais fácil de verificar o status da operação de importação é use o console do Google Cloud. Para mais informações, consulte Como conferir o status de uma operação de integração específica.
Também é possível verificar o status de maneira programática usando a API. Você receberá um objeto de resposta com esta aparência:
{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "done": false }
O campo de nome é o ID do objeto de operação. Solicite o status desse objeto e substitua o campo de nome pelo valor retornado pelo método de importação, até que o campo
done
retorne comotrue
:curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/[OPERATION_NAME]"
Quando a operação for concluída, o objeto retornado terá um valor
done
detrue
e incluirá um objeto Status semelhante ao seguinte exemplo:{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "metadata": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata", "createTime": "2020-01-01T03:33:33.000001Z", "updateTime": "2020-01-01T03:34:33.000001Z", "successCount": "2", "failureCount": "1" }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse" }, "errorsConfig": { "gcsPrefix": "gs://error-bucket/error-directory" } }
É possível inspecionar os arquivos no diretório de erros no Cloud Storage para ver que tipo de erros ocorreu durante a importação.
-
Acesse Dados> no console da Pesquisa para varejo.
Importar dados de catálogo inline
curl
Você importa as informações do seu catálogo inline
fazendo uma solicitação POST
ao método REST Products:import
;
usar o objeto productInlineSource
para especificar seu catálogo;
dados.
Forneça um produto inteiro em uma única linha. Cada produto deve estar sozinho linha
Para ver um exemplo do formato de item JSON do produto, consulte Formato de dados JSON do item do produto.
Crie o arquivo JSON para seu produto e chame-o
./data.json
:{ "inputConfig": { "productInlineSource": { "products": [ { PRODUCT_1 } { PRODUCT_2 } ] } } }
Chame o método POST:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
Java
Formato de dados JSON do item do produto
As entradas Product
no arquivo JSON devem ser semelhantes aos exemplos a seguir.
Forneça um produto inteiro em uma única linha. Cada produto deve estar sozinho linha
Campos obrigatórios mínimos:
{
"id": "1234",
"categories": "Apparel & Accessories > Shoes",
"title": "ABC sneakers"
}
{
"id": "5839",
"categories": "casual attire > t-shirts",
"title": "Crew t-shirt"
}
Objeto completo:
{
"name": "projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products/1234",
"id": "1234",
"categories": "Apparel & Accessories > Shoes",
"title": "ABC sneakers",
"description": "Sneakers for the rest of us",
"attributes": { "vendor": {"text": ["vendor123", "vendor456"]} },
"language_code": "en",
"tags": [ "black-friday" ],
"priceInfo": {
"currencyCode": "USD", "price":100, "originalPrice":200, "cost": 50
},
"availableTime": "2020-01-01T03:33:33.000001Z",
"availableQuantity": "1",
"uri":"http://example.com",
"images": [
{"uri": "http://example.com/img1", "height": 320, "width": 320 }
]
}
{
"name": "projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products/4567",
"id": "4567",
"categories": "casual attire > t-shirts",
"title": "Crew t-shirt",
"description": "A casual shirt for a casual day",
"attributes": { "vendor": {"text": ["vendor789", "vendor321"]} },
"language_code": "en",
"tags": [ "black-friday" ],
"priceInfo": {
"currencyCode": "USD", "price":50, "originalPrice":60, "cost": 40
},
"availableTime": "2020-02-01T04:44:44.000001Z",
"availableQuantity": "2",
"uri":"http://example.com",
"images": [
{"uri": "http://example.com/img2", "height": 320, "width": 320 }
]
}
Dados históricos do catálogo
A Vertex AI para Pesquisa de varejo oferece suporte para importação e gerenciamento de dados históricos de catálogo. Os dados históricos do catálogo podem ser úteis quando você usa eventos históricos do usuário para treinar modelos. Informações anteriores do produto podem ser usadas para enriquecer dados históricos de eventos do usuário e melhorar a precisão do modelo.
Os produtos históricos são armazenados como expirados. Elas não são retornadas em respostas de pesquisa, mas são visíveis para as chamadas de API Update
, List
e Delete
.
Importar dados históricos de catálogo
Quando o campo expireTime
de um produto é definido como um carimbo de data/hora no passado, esse produto é considerado como histórico. Defina a disponibilidade do produto como
OUT_OF_STOCK para evitar que as
recomendações sejam afetadas.
Recomendamos o uso dos seguintes métodos para importar dados históricos de catálogo:
- Chamada para o método
Product.Create
. - Importação inline de produtos expirados.
- Importação de produtos expirados do BigQuery.
Chame o método Product.Create
.
Use o método Product.Create
para criar uma entrada Product
com o campo expireTime
definido para um carimbo de data/hora no passado.
Produtos importados expirados
As etapas são idênticas à importação inline, com exceção dos produtos
os campos expireTime
precisam ter o passado definido
carimbo de data/hora.
Forneça um produto inteiro em uma única linha. Cada produto precisa estar em uma linha.
Um exemplo do ./data.json
usado na solicitação de importação in-line:
{ "inputConfig": { "productInlineSource": { "products": [ { "id": "historical_product_001", "categories": "Apparel & Accessories > Shoes", "title": "ABC sneakers", "expire_time": { "second": "2021-10-02T15:01:23Z" // a past timestamp } }, { "id": "historical product 002", "categories": "casual attire > t-shirts", "title": "Crew t-shirt", "expire_time": { "second": "2021-10-02T15:01:24Z" // a past timestamp } } ] } } }
Importar produtos expirados do BigQuery ou do Cloud Storage
Use os mesmos procedimentos documentados para
importar dados de catálogo do BigQuery ou
Como importar dados do catálogo do Cloud Storage. No entanto, não se esqueça de definir
o campo expireTime
para um carimbo de data/hora no passado.
Mantenha seu catálogo atualizado
Para melhores resultados, seu catálogo precisa conter informações atualizadas. Recomendamos importar o catálogo diariamente para garantir que ele esteja atualizado. Use o Google Cloud Scheduler para programar importações ou escolha uma opção de programação automática ao importar dados usando o console do Google Cloud.
É possível atualizar apenas itens de produtos novos ou alterados ou importar todo o catálogo. Se você importar produtos que já estão no seu catálogo, eles não serão adicionados novamente. Todos os itens que foram alterados serão atualizados.
Para atualizar um único item, consulte Atualizar informações do produto.
Atualização em lote
Você pode usar o método de importação para atualizar seu catálogo em lote. Você faz isso da mesma forma que você faz a importação inicial. siga as etapas Importe dados do catálogo.
Monitorar a integridade da importação
Para monitorar a transferência e a integridade do catálogo:
Acessar informações agregadas sobre o catálogo e a prévia enviada produtos na guia Catálogo da Pesquisa para varejo página Dados.
Avalie se você precisa atualizar os dados do catálogo para melhorar a qualidade dos resultados da pesquisa e desbloquear níveis de desempenho da pesquisa na página Qualidade de dados.
Saiba mais sobre como verificar a qualidade dos dados de pesquisa e conferir o desempenho dela níveis, consulte Desbloquear níveis de desempenho de pesquisa. Para um resumo disponíveis nesta página, consulte Métricas de qualidade do catálogo.
Para criar alertas que informam se algo deu errado com seus uploads de dados, siga os procedimentos em Configurar alertas do Cloud Monitoring.
É importante manter seu catálogo atualizado para conseguir resultados de alta qualidade. Use alertas para monitorar as taxas de erro de importação e tomar medidas se necessário.
A seguir
- Comece a gravar eventos de usuários.
- Veja informações agregadas sobre seu catálogo.
- Configure alertas de upload de dados.