Como parte da sua experiência de pesquisa com a Vertex AI para Pesquisa, é possível avaliar a qualidade dos resultados da pesquisa para apps de pesquisa genérica usando conjuntos de consultas de amostra.
É possível avaliar o desempenho de apps de pesquisa genérica que contêm informações estruturadas, não estruturados e de site. Não é possível avaliar o desempenho de apps vários repositórios de dados.
Esta página explica por que, quando e como avaliar a qualidade da pesquisa usando o método de avaliação.
Visão geral
Esta seção descreve por que e quando realizar a avaliação da qualidade da pesquisa. Para saber como realizar a avaliação de qualidade da pesquisa, consulte Processo para avaliar a qualidade da pesquisa.
Motivos para realizar a avaliação
A avaliação da qualidade da sua pesquisa fornece métricas que ajudam a realizar tarefas como o seguinte:
- Avalie a performance do seu mecanismo de pesquisa em nível agregado
- No nível da consulta, localize padrões para entender possíveis vieses ou falhas nos algoritmos de classificação.
- Compare os resultados históricos de avaliação para entender o impacto das mudanças na configuração da pesquisa.
Para ver uma lista de métricas, consulte Entender os resultados.
Quando realizar a avaliação
A Vertex AI para Pesquisa estende várias configurações de pesquisa para melhorar sua experiência de pesquisa. É possível realizar avaliação da qualidade da pesquisa depois que você fizer as seguintes alterações:
- Configurar controles de disponibilização
- Ajustar os resultados da pesquisa
- Usar incorporações personalizadas
- Filtrar resultados da pesquisa
- Aprimorar os resultados da pesquisa
Também é possível executar testes de avaliação regularmente porque o comportamento de pesquisa é atualizado periodicamente.
Sobre os conjuntos de consultas de exemplo
Os conjuntos de consultas de amostra são usados para avaliação da qualidade. O conjunto de consultas de exemplo precisa seguir o formato prescrito e conter entradas de consulta com os seguintes campos aninhados:
- Consultas: a consulta cujos resultados de pesquisa são usados para gerar a métricas de avaliação e determinar a qualidade da pesquisa. O Google recomenda usar um conjunto diversificado de consultas que reflete o padrão de pesquisa do seu usuário e do seu modelo.
Destino: o URI do documento esperado como resultado da pesquisa da consulta de exemplo. Para entender a definição de "documento" para "estruturado", não estruturados e de pesquisa em sites, consulte Documentos.
Quando os documentos de destino são comparados aos recuperados no resposta da pesquisa, são geradas métricas de desempenho. As métricas são geradas usando estas duas técnicas:
- Correspondência de documento: os URIs dos documentos de destino são comparados com
os URIs dos documentos recuperados. Isso determina se os documentos
esperados estão presentes nos resultados da pesquisa. Durante a comparação, a
API de avaliação tenta extrair os campos a seguir na seguinte
ordem e usar o primeiro valor disponível para corresponder ao destino com o
documento recuperado:
cdoc_url
no campostructData
da definição do documentouri
no campostructData
da definição do documentolink
no campoderivedStructData
da definição do documentourl
no campoderivedStructData
da definição do documento
- Correspondência de página: quando você inclui números de página nos destinos de amostra, a API de avaliação compara os resultados no nível da página. Isso determina se as páginas mencionadas nos destinos também são citadas em a resposta da pesquisa. Ative as respostas extrativas para habilitar a correspondência em nível de página. A API de avaliação corresponde à página da primeira extrativa no resultado da pesquisa.
- Correspondência de documento: os URIs dos documentos de destino são comparados com
os URIs dos documentos recuperados. Isso determina se os documentos
esperados estão presentes nos resultados da pesquisa. Durante a comparação, a
API de avaliação tenta extrair os campos a seguir na seguinte
ordem e usar o primeiro valor disponível para corresponder ao destino com o
documento recuperado:
Finalidade dos conjuntos de consultas de amostra
Usar o mesmo conjunto de consultas de amostra para todas as avaliações de qualidade da pesquisa em um determinado repositório de dados garante uma maneira consistente e confiável de medir os resultados da qualidade da pesquisa. Isso também estabelece um sistema justo e repetível.
Os resultados de cada avaliação são comparados aos resultados de destino de cada consulta de amostra para calcular diferentes métricas, como recall, precisão e ganho cumulativo normalizado (NDCG, na sigla em inglês). Essas métricas quantitativas são usadas para classificar os resultados de diferentes configurações de pesquisa.
Cotas e limites
O limite a seguir se aplica aos conjuntos de consultas de exemplo:
- Cada conjunto de consultas de exemplo pode conter no máximo 20.000 consultas.
A cota a seguir se aplica aos exemplos de conjuntos de consultas:
- É possível criar no máximo 100 conjuntos de consultas de amostra por projeto e 500 exemplos conjuntos de consultas por organização.
Para mais informações, consulte Cotas e limites.
Exemplo de formato de conjunto de consultas
O conjunto de consultas precisa seguir este esquema quando construídos no formato JSON. O conjunto de consultas pode conter várias entradas de consulta a uma consulta em cada entrada de consulta. Quando apresentado no formato JSON delimitado por nova linha (NDJSON, na sigla em inglês), cada entrada de consulta precisa estar em uma nova linha.
Importar do BigQuery e do Cloud Storage
A seção a seguir fornece os exemplos de modelos de conjuntos de consultas para importação do do BigQuery e do Cloud Storage.
Dados não estruturados
Use o modelo a seguir para criar um exemplo de arquivo de consulta no formato JSON para avaliar dados não estruturados com metadados.
{
"queryEntry": {
"query": "SAMPLE_QUERY",
"targets": [
{
"uri": "gs://PATH/TO/CLOUD/STORAGE/LOCATION_1.docx"
},
{
"uri": "gs://PATH/TO/CLOUD/STORAGE/LOCATION_2.pdf",
"pageNumbers": [
PAGE_NUMBER_1,
PAGE_NUMBER_2
]
},
{
"uri": "CDOC_URL"
}
]
}
}
Substitua:
SAMPLE_QUERY
: a consulta usada para testar a qualidade da pesquisa.PATH/TO/CLOUD/STORAGE/LOCATION
: o caminho para o local do Cloud Storage em que o resultado esperado está armazenado. Esse é o valor do campolink
naderivedStructData
da definição do documento.PAGE_NUMBER_1
: um campo opcional para indicar. os números de página no arquivo PDF em que a resposta esperada para a consulta é localizado. Isso é útil quando o arquivo tem várias páginas.CDOC_URL
: um campo opcional para indicar o campo ID do documento personalizadocdoc_url
nos metadados do documento no esquema do repositório de dados da Vertex AI para Pesquisa.
Dados estruturados
Use o modelo a seguir para elaborar um arquivo de consulta de exemplo no formato JSON para avaliar dados estruturados do BigQuery.
{
"queryEntry": {
"query": "SAMPLE_QUERY",
"targets": [
{
"uri": "CDOC_URL"
}
]
}
}
Substitua:
SAMPLE_QUERY
: a consulta usada para testar e avaliar a qualidade da pesquisaCDOC_URL
: um campo obrigatório para indicar a personalizaçãocdoc_url
para o campo de dados estruturados na Esquema do repositório de dados da Vertex AI para Pesquisa.
Dados do site
Use o modelo a seguir para criar um exemplo de arquivo de consulta no formato JSON para avaliar o conteúdo do site.
{
"queryEntry": {
"query": "SAMPLE_QUERY",
"targets": [
{
"uri": "WEBSITE_URL"
}
]
}
}
Substitua:
SAMPLE_QUERY
: a consulta usada para testar a qualidade da pesquisaWEBSITE_URL
: o site de destino para a consulta.
Veja um exemplo de um conjunto de consultas de amostra nos formatos JSON e NDJSON:
JSON
[
{
"queryEntry": {
"query": "2018 Q4 Google revenue",
"targets": [
{
"uri": "gs://cloud-samples-data/gen-app-builder/search/alphabet-investor-pdfs/2018Q4_alphabet_earnings_release.pdf"
},
{
"uri": "gs://cloud-samples-data/gen-app-builder/search/alphabet-investor-pdfs/201802024_alphabet_10K.pdf"
}
]
}
},
{
"queryEntry": {
"query": "2019 Q4 Google revenue",
"targets": [
{
"uri": "gs://cloud-samples-data/gen-app-builder/search/alphabet-investor-pdfs/2019Q4_alphabet_earnings_release.pdf"
}
]
}
}
]
NDJSON
{"queryEntry":{"query":"2018 Q4 Google revenue","targets":[{"uri":"gs://cloud-samples-data/gen-app-builder/search/alphabet-investor-pdfs/2018Q4_alphabet_earnings_release.pdf"},{"uri":"gs://cloud-samples-data/gen-app-builder/search/alphabet-investor-pdfs/201802024_alphabet_10K.pdf"}]}}
{"queryEntry":{"query":"2019 Q4 Google revenue","targets":[{"uri":"gs://cloud-samples-data/gen-app-builder/search/alphabet-investor-pdfs/2019Q4_alphabet_earnings_release.pdf"}]}}
Importar do sistema de arquivos local
A seção a seguir fornece os modelos de conjunto de consultas de exemplo para importação do sistema de arquivos local.
Dados não estruturados
Use o modelo a seguir para criar um exemplo de arquivo de consulta no formato JSON para avaliar dados não estruturados com metadados.
{
"inlineSource": {
"sampleQueries": [
{
"queryEntry": {
"query": "SAMPLE_QUERY",
"targets": [
{
"uri": "gs://PATH/TO/CLOUD/STORAGE/LOCATION_1.docx"
},
{
"uri": "gs://PATH/TO/CLOUD/STORAGE/LOCATION_2.pdf",
"pageNumbers": [
PAGE_NUMBER_1,
PAGE_NUMBER_2
]
},
{
"uri": "CDOC_URL"
}
]
}
}
]
}
}
Substitua:
SAMPLE_QUERY
: a consulta usada para testar e avaliar a qualidade da pesquisaPATH/TO/CLOUD/STORAGE/LOCATION
: o caminho para o local do Cloud Storage em que o arquivo de dados não estruturados a ser consultado está armazenado. Esse é o valor do campolink
no campoderivedStructData
da definição do documento.PAGE_NUMBER_1
: um campo opcional para indicar os números de página em que a resposta necessária para a consulta pode ser localizada no arquivo PDF. Isso é útil quando o arquivo tem várias páginas.CDOC_URL
: um campo opcional para indicar o campo ID do documento personalizadocdoc_url
nos metadados do documento no esquema do repositório de dados da Vertex AI para Pesquisa.
Dados estruturados
Use o modelo a seguir para elaborar um arquivo de consulta de exemplo no formato JSON para avaliar dados estruturados do BigQuery.
{
"inlineSource": {
"sampleQueries": [
{
"queryEntry": {
"query": "SAMPLE_QUERY",
"targets": [
{
"uri": "CDOC_URL"
}
]
}
}
]
}
}
Substitua:
SAMPLE_QUERY
: a consulta usada para testar e avaliar a qualidade da pesquisaCDOC_URL
: um campo obrigatório para indicar a personalizaçãocdoc_url
para o campo de dados estruturados na Esquema do repositório de dados da Vertex AI para Pesquisa.
Dados do site
Use o modelo a seguir para criar um exemplo de arquivo de consulta no formato JSON para avaliar o conteúdo do site.
{
"inlineSource": {
"sampleQueries": [
{
"queryEntry": {
"query": "SAMPLE_QUERY",
"targets": [
{
"uri": "WEBSITE_URL"
}
]
}
}
]
}
}
Substitua:
SAMPLE_QUERY
: a consulta usada para testar a qualidade da pesquisaWEBSITE_URL
: o site de destino para a consulta.
Veja um exemplo de um conjunto de consultas de amostra:
JSON
{
"inlineSource": {
"sampleQueries": [
{
"queryEntry": {
"query": "2018 Q4 Google revenue",
"targets": [
{
"uri": "gs://cloud-samples-data/gen-app-builder/search/alphabet-investor-pdfs/2018Q4_alphabet_earnings_release.pdf"
},
{
"uri": "gs://cloud-samples-data/gen-app-builder/search/alphabet-investor-pdfs/201802024_alphabet_10K.pdf"
}
]
}
},
{
"queryEntry": {
"query": "2019 Q4 Google revenue",
"targets": [
{
"uri": "gs://cloud-samples-data/gen-app-builder/search/alphabet-investor-pdfs/2019Q4_alphabet_earnings_release.pdf"
}
]
}
}
]
}
}
Processo para avaliar a qualidade da pesquisa
O processo de avaliação da qualidade da pesquisa é o seguinte:
- Crie um conjunto de consultas de exemplo.
- Importe uma consulta de amostra que esteja em conformidade com as diretrizes JSON.
- Faça uma avaliação de qualidade da pesquisa.
- Entenda os resultados.
As seções a seguir dão as instruções para executar essas etapas usando REST métodos da API.
Antes de começar
- O limite a seguir se aplica:
- Em um determinado momento, você só pode ter uma avaliação ativa por projeto.
- A cota a seguir se aplica:
- Você pode iniciar no máximo cinco solicitações de avaliação por dia em cada projeto. Para mais informações, consulte Cotas e limites.
- Para conferir métricas no nível da página, ative as respostas extrativas.
Criar um conjunto de consultas de exemplo
Você pode criar um conjunto de consultas de amostra e usá-lo para avaliar a qualidade da respostas de pesquisa para um determinado repositório de dados. Para criar um conjunto de consultas de amostra, faça o seguinte.
REST
O exemplo a seguir mostra como criar o conjunto de consultas de exemplo usando o método sampleQuerySets.create
.
Crie o conjunto de consultas de exemplo.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/sampleQuerySets?sampleQuerySetId=SAMPLE_QUERY_SET_ID" \ -d '{ "displayName": "SAMPLE_QUERY_SET_DISPLAY_NAME" }'
Substitua:
PROJECT_ID
: o ID do seu projeto do Google Cloud.SAMPLE_QUERY_SET_ID
: um ID personalizado para seu conjunto de consultas de exemplo.SAMPLE_QUERY_SET_DISPLAY_NAME
: um nome personalizado para o conjunto de consultas de amostra.
Importar dados de consulta de amostra
Depois de criar o conjunto de consultas de amostra, importe os dados da consulta de amostra. Para importar os dados da consulta de amostra, siga um destes procedimentos:
- Importar do Cloud Storage: importe um arquivo NDJSON de um local do Cloud Storage.
- Importar do BigQuery: importe dados do BigQuery de uma tabela do BigQuery. Para criar a tabela do BigQuery com base no arquivo NDJSON, consulte Como carregar dados JSON do Cloud Storage.
- Importar do sistema de arquivos local: crie e importe o conjunto de consultas de exemplo no sistema de arquivos local.
Cloud Storage
Crie os conjuntos de consultas de exemplo que estão em conformidade com o formato de conjunto de consultas de exemplo.
Importe o arquivo JSON que contém o conjunto de consultas de amostra de um Cloud Storage local usando o método
sampleQueries.import
.curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/sampleQuerySets/SAMPLE_QUERY_SET_ID/sampleQueries:import" \ -d '{ "gcsSource": { "inputUris": ["INPUT_FILE_PATH"], }, "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
Substitua:
PROJECT_ID
: o ID do seu projeto do Google Cloud.SAMPLE_QUERY_SET_ID
: o ID personalizado do conjunto de consultas de amostra que você definiu durante a criação do conjunto de consultas de amostra.INPUT_FILE_PATH
: o caminho para o local do Cloud Storage para o conjunto de consultas de exemplo.ERROR_DIRECTORY
: um campo opcional para especificar. o caminho para o local do Cloud Storage em que os arquivos de erro são registrados ao ocorrer um erro de importação. O Google recomenda deixar esse campo em branco ou remover o campoerrorConfig
para que a Vertex AI para Pesquisa possa criar automaticamente um local temporário.
Confira o status da operação de longa duração (LRO, na sigla em inglês) usando o
operations.get
.curl -X GET \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_NUMBER/locations/global/sampleQuerySets/SAMPLE_QUERY_SET_ID/operations/OPERATION_ID"
BigQuery
Crie os conjuntos de consulta de exemplo que estão em conformidade com o formato de conjunto de consulta de exemplo.
Importe o arquivo JSON que contém o conjunto de consultas de amostra de um local usando o método
sampleQueries.import
.curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/sampleQuerySets/SAMPLE_QUERY_SET_ID/sampleQueries:import" \ -d '{ "bigquerySource": { "projectId": "PROJECT_ID", "datasetId":"DATASET_ID", "tableId": "TABLE_ID" }, "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
Substitua:
PROJECT_ID
: o ID do seu projeto do Google Cloud.SAMPLE_QUERY_SET_ID
: o ID personalizado da conjunto de consultas de amostra que você definiu durante a criação do conjunto de consultas de amostra.DATASET_ID
: o ID do conjunto de dados do BigQuery que contém o conjunto de consultas de exemplo.TABLE_ID
: o ID do BigQuery. que contém o conjunto de consultas de amostra.ERROR_DIRECTORY
: um campo opcional para especificar o caminho para o local do Cloud Storage em que os arquivos de erro são registrados quando ocorrem erros de importação. O Google recomenda deixar este campo em branco ou remover campo "errorConfig" para que a Vertex AI para Pesquisa possa criar um local temporário.
Confira o status da operação de longa duração (LRO, na sigla em inglês) usando o
operations.get
.curl -X GET \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_NUMBER/locations/global/sampleQuerySets/SAMPLE_QUERY_SET_ID/operations/OPERATION_ID"
Sistemas de arquivos locais
Crie conjuntos de consultas de exemplo que estejam em conformidade com o formato de conjunto de consultas de exemplo.
Importe o arquivo JSON que contém o conjunto de consultas de amostra de um sistema de arquivos local local usando o método
sampleQueries.import
.curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/sampleQuerySets/SAMPLE_QUERY_SET_ID/sampleQueries:import" \ --data @PATH/TO/LOCAL/FILE.json
Substitua:
PROJECT_ID
: o ID do seu projeto do Google Cloud.SAMPLE_QUERY_SET_ID
: o ID personalizado do conjunto de consultas de amostra que você definiu durante a criação do conjunto.PATH/TO/LOCAL/FILE.json
: o caminho para o arquivo JSON que contém o conjunto de consultas de exemplo.
Confira o status da operação de longa duração (LRO, na sigla em inglês) usando o
operations.get
.curl -X GET \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_NUMBER/locations/global/sampleQuerySets/SAMPLE_QUERY_SET_ID/operations/OPERATION_ID"
Realizar avaliação de qualidade da pesquisa
Depois de importar os dados da consulta de amostra para os conjuntos de consultas de amostra, siga estas e as etapas para fazer a avaliação da qualidade da pesquisa.
REST
Inicie uma avaliação da qualidade da pesquisa.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/evaluations" \ -d '{ "evaluationSpec": { "querySetSpec": { "sampleQuerySet": "projects/PROJECT_ID/locations/global/sampleQuerySets/SAMPLE_QUERY_SET_ID" }, "searchRequest": { "servingConfig": "projects/PROJECT_ID/locations/global/collections/default_collection/engines/APP_ID/servingConfigs/default_search" } } }'
Substitua:
PROJECT_ID
: o ID do seu projeto do Google Cloud.SAMPLE_QUERY_SET_ID
: o ID personalizado do conjunto de consultas de amostra que você definiu durante a criação do conjunto de consultas de amostra.APP_ID
: o ID do app da Vertex AI para Pesquisa cuja qualidade de pesquisa você quer avaliar.
Monitore o progresso da avaliação.
curl -X GET \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/evaluations/EVALUATION_ID"
Substitua:
PROJECT_ID
: o ID do seu projeto do Google Cloud.EVALUATION_ID
: o ID do job de avaliação. retornado na etapa anterior quando você iniciou a avaliação.
Extraia os resultados agregados.
curl -X GET \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/evaluations/EVALUATION_ID"
Substitua:
PROJECT_ID
: o ID do seu projeto do Google Cloud.EVALUATION_ID
: o ID do job de avaliação. retornado na etapa anterior quando você iniciou a avaliação.
Extrair resultados no nível da consulta.
curl -X GET \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/evaluations/EVALUATION_ID:listResults"
Substitua:
PROJECT_ID
: o ID do seu projeto do Google Cloud.EVALUATION_ID
: o ID do job de avaliação. retornado na etapa anterior quando você iniciou a avaliação.
Entender os resultados
A tabela a seguir descreve as métricas retornadas na avaliação resultados.
Nome | Descrição | Requisitos |
---|---|---|
docRecall |
Recall por documento, em vários níveis de corte de top-k. Recall é a fração de documentos relevantes recuperados de todos os documentos relevantes.
Por exemplo, o valor Para uma única consulta, se três dos cinco documentos relevantes forem recuperados entre os cinco principais, o |
A consulta de amostra precisa conter o campo "URI". |
pageRecall |
Recall por página, em vários níveis de corte Top-K. Recall é a fração de páginas relevantes recuperadas de todas as páginas relevantes.
Por exemplo, o valor Para uma única consulta, se três de cinco páginas relevantes forem recuperadas entre as cinco principais, o |
|
docNdcg |
Ganho cumulativo descontado normalizado (NDCG, na sigla em inglês) por documento, em vários níveis de corte Top-K. O NDCG mede a qualidade da classificação, dando maior relevância aos principais resultados. O valor do NDCG pode ser calculado para cada consulta de acordo com o CDG normalizado. |
A consulta de exemplo precisa conter o campo URI. |
pageNdcg |
Ganho cumulativo descontado normalizado (NDCG, na sigla em inglês) por página, em vários níveis de corte de top-k. O NDCG mede a qualidade da classificação, dando maior relevância aos principais resultados. O valor do NDCG pode ser calculado para cada consulta de acordo com o CDG normalizado. |
|
docPrecision |
Precisão por documento, em vários níveis de corte de top-k. A precisão é a fração de documentos recuperados que são relevantes.
Por exemplo, o valor Para uma única consulta, se quatro dos cinco documentos recuperados entre os cinco primeiros forem relevantes, o valor de |
A consulta de exemplo precisa conter o campo URI. |
Com base nos valores dessas métricas compatíveis, você pode realizar as seguintes tarefas:
- Analisar métricas agregadas:
- Examine métricas gerais, como recall médio, precisão e ganho cumulativo com desconto normalizado (NDCG, na sigla em inglês).
- Essas métricas fornecem uma visão geral da performance do seu mecanismo de pesquisa.
- Analisar os resultados no nível da consulta:
- Aprofunde-se em consultas individuais para identificar áreas específicas em que o mecanismo de pesquisa tem bom ou mau desempenho.
- Procure padrões nos resultados para entender possíveis vieses ou falhas nos algoritmos de classificação.
- Compare os resultados ao longo do tempo:
- Execute avaliações regularmente para acompanhar as mudanças na qualidade da pesquisa ao longo do tempo.
- Use dados históricos para identificar tendências e avaliar o impacto de alterações feitas em seu mecanismo de pesquisa.
A seguir
- Usar o Cloud Scheduler para configurar uma avaliação de qualidade programada. Para mais informações, consulte Usar autenticação com destinos HTTP.