Améliorer les résultats de recherche grâce au réglage de la recherche

Un modèle de recherche réglé permet d'obtenir des résultats de meilleure qualité qu'avec la recherche de base. du modèle.

Le réglage de la recherche est particulièrement utile si vous avez des requêtes propres à un secteur ou à une entreprise qui sont moins bien traitées par les LLM généraux. Il peut être utilisé pour entraîner le modèle de recherche.

Limites

Le réglage de la recherche ne peut être appliqué qu'aux data stores non structurés.

À propos des données d'entraînement

Pour régler un modèle de recherche, vous commencez par rassembler les données d'entraînement.

Les données d'entraînement doivent contenir les requêtes que vous prévoyez que vos utilisateurs finaux poseront et des extraits de texte de 250 à 500 mots contenant les informations pertinentes nécessaires pour répondre aux requêtes. Une requête peut être associée à plusieurs extraits, à condition que chacun d'eux contienne des informations qui répondent à la requête.

Les données d'entraînement doivent également contenir des extraits de texte qui ne sont pas associés à des requêtes, mais qui sont par ailleurs similaires aux réponses en termes de style et de longueur. Ces extraits sans requêtes associées fournissent des exemples négatifs aléatoires pour ajuster le modèle. Google vous recommande d'en fournir au moins 10 000 extraits de code.

Voici quelques termes pour décrire les données d'entraînement dont vous aurez besoin pour fournissent:

  • Requêtes d'entraînement:requêtes que les utilisateurs finaux devraient poser, selon vous. Marque concentrez-vous sur les requêtes avec une terminologie spécifique au domaine ou à l'entreprise.

    Indiquez au moins 100.

  • Segments extraits : les extraits (généralement plusieurs paragraphes) doivent être repris textuellement dans les documents du magasin de données. Tous les documents réunis dans le data store sont appelées "corps".

    Vous devez fournir deux types de segments d'extraction :

    • Segments contenant les informations pertinentes nécessaires pour répondre aux requêtes d'entraînement. Il s'agit de segments présentant des correspondances positives avec les requêtes.

    • Segments qui ne sont associés à aucune requête d'entraînement. Ces segments sont utilisés comme exemples négatifs aléatoires lors du réglage du modèle.

    Une phrase ou deux ne sont pas suffisamment longues pour constituer un segment extractif ; la doit contenir suffisamment de contexte pour l'entraînement. Par exemple, dans à une requête comme "qui a fondé Google" un court extrait comme « Larry » Page" est insuffisant. Pour obtenir des exemples de segments suffisamment longs, consultez les dans le tableau d'exemples suivant.

    Fournissez au moins un segment extractif par requête et au moins 10 000 segments extractifs supplémentaires.

  • Scores de pertinence:les scores de pertinence sont des entiers non négatifs qui estiment la pertinence du segment extractif par rapport à la requête. Vous fournissez pour chaque paire requête/segment extractif. Un score de 0 signifie que le segment d'extraction n'est pas du tout pertinent pour la requête. Un score supérieur à zéro indique une certaine pertinence. Pour une évaluation simple, Google recommande d'attribuer un score de 1 à tous les segments pertinents et de 0 aux segments non pertinents. Sinon, si que vous souhaitez classer par pertinence, vous pouvez attribuer des scores de pertinence compris entre 0 et 10 (par exemple), 10 pour les segments les plus pertinents et 0 pour ceux qui ne sont pas du tout pertinentes.

    Fournissez au moins 100 scores pertinents et, éventuellement, des scores non pertinents supplémentaires.

Exemples de paires de requêtes et de segments extractifs

Le tableau suivant fournit quelques exemples de requêtes et de segments extractifs paires. Ces exemples généraux sont tirés de Wikipédia. Toutefois, vous devrez fournir des documents à partir d'ensembles de données propriétaires contenant des informations spécifiques à votre entreprise et qui sont moins facilement trouvé sur le Web.

La dernière paire de ce tableau est un exemple de paire avec un score nul, où la réponse n'est pas pertinente par rapport à la requête.

Requête de formation Segment extractif Score
qui a fondé Google ? Google a été fondé le 4 septembre 1998 par des informaticiens américains Larry Page et Sergey Brin alors qu'ils étaient doctorants à l'université de Stanford en Californie.Ensemble, elles détiennent environ 14% des actions cotées en bourse contrôler 56% du pouvoir de vote de ses actionnaires grâce au votement suprême. La société est devenue publique via une offre publique initiale (IPO) en 2004. En 2015, Google a été restructurée en tant que filiale à 100 % d'Alphabet Inc. Google est la plus grande filiale d'Alphabet et une société holding pour les propriétés et les intérêts Internet d'Alphabet. Sundar Pichai a été nommé PDG de Google en octobre 24 décembre 2015, remplaçant Larry Page, qui est devenu PDG d'Alphabet. Le 3 décembre, En 2019, Pichai est également devenu PDG d'Alphabet. [...] Dans la liste des marques les plus valorisées, Google se classe deuxième selon Forbes et quatrième selon Interbrand. 1
Où le sang est-il pompé après avoir quitté le ventricule droit ? Le sang oxygéné quitte les poumons via les veines pulmonaires, qui le renvoient dans la partie gauche du cœur, complétant ainsi le cycle pulmonaire. Ce sang pénètre ensuite dans l'oreillette gauche, qui le pompe à travers la valve mitrale dans le ventricule gauche. À partir du ventricule gauche, le sang passe par la valve aortique et pénètre dans l'aorte. Le sang est ensuite distribué dans l'organisme. par la circulation systémique avant de revenir de la circulation. Artères Article principal: artère pulmonaire à partir de la droite ventricule, le sang est pompé à travers la valve pulmonaire du séminaire et l'artère pulmonaire principale droite (une pour chaque poumon), qui se ramifie en plus artères pulmonaires qui se propageaient à travers les poumons. [...] Le shunt cardiaque est un lien artificiel entre les parties du cœur qui conduit au flux sanguin qui contourne les poumons. 1
où se trouve le panthéon du bowling ? Le World Bowling Writers ( WBW ) International Bowling Hall of Fame a été créé en 1993 et se trouve dans le International Bowling Museum and Hall of Fame , sur le campus International Bowling à Arlington , au Texas . Histoire L'International Bowling Museum and Hall of Fame se trouvait à 11 Stadium Plaza, Saint-Louis, Missouri, États-Unis, et partage le même bâtiment avec au St. Louis Cardinals Hall of Fame Museum, jusqu'au 8 novembre 2008. Elle a été déplacée vers Arlington et a rouvert ses portes début 2010. En 2012, WBW a été fusionné avec International Bowling Media Association. Après la fusion, les membres du Temple de la renommée de la WBW ont rejoint le Temple de la renommée de la IBMA Luby. Les membres du conseil d'administration de la World Bowling Writers, qui ont formé le conseil d'administration du Temple de la renommée, ont voté pour les hommes et les femmes qui ont reçu le plus de votes. 1
pourquoi le ciel est bleu ? Un message "Hello, World!" un programme est généralement un programme informatique simple qui renvoie (ou affiche) à l'écran (souvent la console) un message semblable à "Hello World!" tout en ignorant toute entrée utilisateur. Un petit extrait de code dans la plupart de programmation à usage général, ce programme est utilisé pour illustrer la syntaxe de base du langage. Un message "Hello, World!" est souvent le premier écrit par un étudiant d'un nouveau langage de programmation, mais un tel programme peut également être utilisé comme une vérification pour s'assurer que le logiciel informatique destiné à compiler ou à exécuter le code source le code est correctement installé et que son opérateur comprend comment l'utiliser. [...] La version en C a été précédée par le propre tutoriel A Tutorial de Kernighan, publié en 1972. Introduction au langage B, où la première version connue du programme figure dans un exemple utilisé pour illustrer 0

À propos des tests

Après l'entraînement, la recherche ajustée est testée pour déterminer si l'ajustement a amélioré les résultats. Vous pouvez indiquer explicitement les requêtes que vous souhaitez tester. Si vous ne fournissez pas de requêtes de test, Vertex AI Search utilise 20 % des requêtes d'entraînement comme requêtes de test.

Fichiers d'entraînement

Les données d'entraînement doivent être importées en trois (4) :

Les trois fichiers d'entraînement (fichier corpus, fichier de requête et fichier d'étiquettes d'entraînement) et le fichier des étiquettes de test (facultatif) doit se trouver dans Cloud Storage. Les chemins d'accès aux fichiers sont définis par des champs dans l'appel trainCustomMethod.

Fichier de corpus

Le fichier de corpus contient des segments extractifs: segments contenant des informations pour répondre aux requêtes du fichier de requête et de nombreux segments supplémentaires à utiliser comme négatifs aléatoires lors du réglage du modèle. Vous devez avoir au moins 100 segments contenant des réponses aux requêtes. peuvent être par plusieurs segments. Vous devez également disposer d'au moins 10 000 les segments d'audience.

Si les documents de votre data store contiennent moins de 500 mots, vous pouvez utiliser des documents entiers comme segments. Sinon, créez de façon programmatique des segments aléatoires de 250 à 500 mots à partir des documents de votre data store et ajoutez-les au fichier du corpus.

Le fichier de corpus est un fichier JSONL (lignes JSON) dans lequel chaque ligne contient les champs _id et text par des valeurs de chaîne. Exemple :

  {"_id": "doc1", "text": "Google was founded on September 4, 1998, by American computer scientists Larry Page and Sergey Brin while they were PhD students at Stanford University in California. Together they own about 14% of its publicly listed shares and control 56% of its stockholder voting power through super-voting stock. The company went public via an initial public offering (IPO) in 2004. In 2015, Google was reorganized as a wholly owned subsidiary of Alphabet Inc. Google is Alphabet's largest subsidiary and is a holding company for Alphabet's internet properties and interests. Sundar Pichai was appointed CEO of Google on October 24, 2015, replacing Larry Page, who became the CEO of Alphabet. On December 3, 2019, Pichai also became the CEO of Alphabet. [...] On the list of most valuable brands, Google is 105 ranked second by Forbes and fourth by Interbrand."}
  {"_id": "doc2", "text": "Oxygenated blood leaves the lungs through pulmonary veins, which return it to the left part of the heart, completing the pulmonary cycle. This blood then enters the left atrium, which pumps it through the mitral valve into the left ventricle. From the left ventricle, the blood passes through the aortic valve to the aorta. The blood is then distributed to the body through the systemic circulation before returning again to the pulmonary circulation. Arteries Main article: Pulmonary artery From the right ventricle, blood is pumped through the semilunar pulmonary valve into the left and right main pulmonary artery (one for each lung), which branch into smaller pulmonary arteries that spread throughout the lungs. [...] Cardiac shunt is an unnatural connection between parts of the heart that leads to blood flow that bypasses the lungs."}
  {"_id": "doc3", "text": "The World Bowling Writers ( WBW ) International Bowling Hall of Fame was established in 1993 and is located in the International Bowling Museum and Hall of Fame , on the International Bowling Campus in Arlington , Texas. History The International Bowling Museum and Hall of Fame was located at 11 Stadium Plaza, St. Louis, Missouri, USA, and shared the same building with the St. Louis Cardinals Hall of Fame Museum, until November 8, 2008. It moved to Arlington and reopened in early 2010. In 2012, the WBW was merged with the International Bowling Media Association. After the merger, the WBW Hall of Fame inductees became part of the IBMA Luby Hall of Fame.  officers of the World Bowling Writers, which formed the Hall's Board.][...] The man and woman who receive the most votes are elected."}
  {"_id": "doc4", "text": "A \"Hello, World!\" program is generally a simple computer program which outputs (or displays) to the screen (often the console) a message similar to "Hello, World!" while ignoring any user input. A small piece of code in most general-purpose programming languages, this program is used to illustrate a language's basic syntax. A "Hello, World!" program is often the first written by a student of a new programming language, but such a program can also be used as a check to ensure that the computer software intended to compile or run source code is correctly installed, and that its operator understands how to use it.  [...] The C-language version was preceded by Kernighan's own 1972 A Tutorial Introduction to the Language B, where the first known version of the program is found in an example used to illustrate external variables."}

La taille maximale du fichier est de 500 000 lignes.

Fichier de requête

Le fichier de requêtes contient les exemples de requêtes qui seront utilisés pour régler le modèle. Chaque requête doit avoir un ou plusieurs segments extractifs correspondants dans le fichier de corpus. Vous devez fournir au moins 100 requêtes de correspondance positive. Vous pouvez également fournir des requêtes non pertinentes : il s'agit de requêtes qui correspondent à des segments extractifs avec un score de pertinence de zéro.

Le fichier de requête est au format JSONL et contient les mêmes champs que le fichier de corpus.

Exemple :

  {"_id": "query1", "text": "who founded Google?"}
  {"_id": "query2", "text": "where is blood pumped after it leaves the right ventricle?"}
  {"_id": "query3", "text": "where is the bowling hall of fame located?"}
  {"_id": "query4", "text": "why is the sky blue?"}

Le nombre maximal de requêtes autorisé dans le fichier est de 40 000.

Étiquettes d'entraînement

Le fichier de libellés d'entraînement relie les requêtes aux segments d'extraction et attribue un score à chaque paire de requêtes et de segments.

Si le fichier d'étiquettes de test n'est pas présent, 20 % des requêtes du fichier d'étiquettes d'entraînement sont réservées à l'évaluation du modèle affiné après l'entraînement.

Le fichier contient l'ID d'une requête et l'ID de sa correspondance (ou non) segment extractif et un score de pertinence du segment par rapport à la requête. Il doit y avoir au moins une ligne par requête. Si une requête est répondue par deux segments, il y a deux lignes pour cette requête. Score est une valeur entière non négative. Tout score supérieur à zéro indique que le document est en rapport avec la requête. Plus le nombre est élevé, plus le niveau de pertinence est élevé. Si le score est omis, la valeur par défaut est 1.

Le fichier d'étiquettes d'entraînement est un fichier TSV (valeurs séparées par une tabulation) avec un en-tête. Le fichier doit contenir les colonnes query-id, corpus-id et score. La query-id est une chaîne qui correspond à la clé _id du fichier de requête, et l'élément corpus-id est une chaîne qui correspond au _id dans le fichier de corpus.

Exemple :

  query-id  corpus-id   score
  query1    doc1    1
  query2    doc2    1
  query3    doc3    1
  query3    doc9    1
  query4    doc4    0

Le fichier d'étiquettes d'entraînement doit inclure au moins 100 ID de requête uniques. Le nombre d'ID de requête dans le fichier d'étiquettes d'entraînement, combiné au nombre de requêtes dans le fichier d'étiquettes de test, doit être inférieur à 500 000.

Étiquettes de test

Comme le fichier de libellés d'entraînement, ce fichier facultatif contient les ID de la requête et du segment extractif, ainsi que les scores de pertinence. Il contient moins de contenus, que dans le fichier des étiquettes d'entraînement. Le cas échéant, les paires de requêtes et de segments d'extraction du fichier sont utilisées pour évaluer le réglage. Si le fichier d'étiquettes de test n'est pas présent, les paires de segments de requête et d'extraction du fichier d'étiquettes d'entraînement sont utilisées pour l'évaluation.

Ce fichier a le même format que le fichier des étiquettes d'entraînement.

Exemple :

  query-id  corpus-id   score
  query200    doc200    1
  query201    doc201    1
  query202    doc202    1

Le fichier des étiquettes de test est facultatif. Si vous le fournissez, il doit contenir trois identifiants de requête uniques au minimum.

Avant de commencer

Activez les fonctionnalités de l'édition Enterprise pour l'application.

Pour régler un modèle de recherche avec vos propres données d'entraînement, procédez comme suit.

Console

Pour régler un modèle à l'aide de la console Google Cloud, procédez comme suit :

  1. Préparez vos données d'entraînement et, éventuellement, vos fichiers de données de test. Utilisez les formats décrits dans la section Fichiers d'entraînement.

  2. Importez les fichiers dans Cloud Storage.

  3. Dans la console Google Cloud, accédez à la page Agent Builder.

    Agent Builder

  4. Sur la page Applications, cliquez sur le nom de l'application pour laquelle vous souhaitez créer un modèle entraîné.

  5. Dans le menu de navigation, cliquez sur Configurations.

  6. Cliquez sur l'onglet Réglages.

  7. Cliquez sur Régler le modèle de base.

  8. Spécifiez les fichiers de corpus, de requête, d'entraînement et, éventuellement, de test que vous avez préparés aux étapes 1 et 2 précédentes.

  9. Cliquez sur Commencer le réglage.

  10. Actualisez la page pour afficher l'état dans le tableau Activité de réglage récente de l'onglet Réglage.

REST

Pour utiliser la méthode trainCustomModel afin d'ajuster un magasin de données, procédez comme suit :

  1. Préparez vos fichiers de données d'entraînement (et éventuellement vos données de test). Utilisez les décrits dans la section Fichiers d'entraînement.

  2. Placez les fichiers dans un bucket Cloud Storage.

  3. Importez les fichiers du bucket Cloud Storage dans Vertex AI Search en exécutant la commande curl suivante:

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID:trainCustomModel" \
    -d '{
    "gcsTrainingInput": {
     "corpusDataPath": "CORPUS_JSONL_GCS_PATH",
     "queryDataPath": "QUERY_JSONL_GCS_PATH",
     "trainDataPath": "TRAIN_JSONL_GCS_PATH",
     "testDataPath": "TEST_JSONL_GCS_PATH"
    },
    "modelType": "search-tuning"
    }'
    

    Remplacez les éléments suivants :

    • PROJECT_ID : ID de votre projet Google Cloud

    • DATA_STORE_ID: ID du data store que vous que vous voulez régler.

    • CORPUS_JSONL_GCS_PATH: le chemin d'accès au fichier JSONL corpus dans Cloud Storage, par exemple, gs://my-bucket/corpus.jsonl

    • QUERY_JSONL_GCS_PATH: le chemin d'accès au fichier JSONL de requête dans Cloud Storage, par exemple, gs://my-bucket/query.jsonl

    • TRAIN_JSONL_GCS_PATH: le chemin d'accès au fichier TSV des étiquettes d'entraînement dans Cloud Storage, par exemple, gs://my-bucket/train.tsv.

    • TEST_JSONL_GCS_PATH : champ facultatif permettant de spécifier le chemin d'accès Cloud Storage de votre fichier TSV des libellés de test (par exemple, gs://my-bucket/test.tsv). Si vous ne disposez pas d'un fichier d'étiquettes de test, supprimez le champ testDataPath ou laissez-le vide.

    Pour en savoir plus sur cette méthode, consultez trainCustomModel.

    Le réglage commence automatiquement une fois les fichiers de données importés.

    Cliquez pour voir un exemple de commande curl et de réponse.

    curl -X POST
    -H "Authorization: Bearer $(gcloud auth print-access-token)"
    -H "Content-Type: application/json"
    "https://discoveryengine.googleapis.com/v1/projects/12345/locations/global/collections/default_collection/dataStores/my-data-store_4321:trainCustomModel"
    -d '{
    "dataStore":
    "projects/12345/locations/global/collections/default_collection/dataStores/my-data-store_4321",
    "gcsTrainingInput": {
    "corpusDataPath": "gs://my-bucket/corpus.jsonl",
    "queryDataPath": "gs://my-bucket/query.jsonl",
    "trainDataPath": "gs://my-bucket/train.tsv"
    },
    "modelType": "search-tuning"
    }
    {
    "name": "projects/12345/locations/global/collections/default_collection/dataStores/my-data-store_4321/operations/train-custom-model-6071430366161939774",
    "metadata": {
    "@type": "type.googleapis.com/google.cloud.discoveryengine.v1.TrainCustomModelMetadata"
    },
    "response": {
    "@type": "type.googleapis.com/google.cloud.discoveryengine.v1.TrainCustomModelResponse",
    "modelStatus": "in-progress"
    }
  4. Notez la valeur name renvoyée par la méthode trainCustomModel, puis suivez les instructions de la section Obtenir des informations sur une opération de longue durée pour savoir quand l'opération de réglage de la recherche est terminée.

Tester la recherche optimisée et l'utiliser pour des requêtes de recherche individuelles

Une fois le réglage terminé, vous pouvez le tester en comparant les résultats des requêtes avec le modèle affiné et les résultats des mêmes requêtes avec le modèle de base.

Console

Pour prévisualiser le comportement d'un modèle affiné à l'aide de la console Google Cloud, procédez comme suit :

  1. Accédez à l'onglet Tuning (Réglages) :

    1. Dans la console Google Cloud, accédez à la page Agent Builder.

      Agent Builder

    2. Cliquez sur le nom de l'application que vous souhaitez prévisualiser.

    3. Cliquez sur Configurations.

    4. Cliquez sur l'onglet Réglages.

  2. Cliquez sur Modèle réglé et utilisez le panneau d'aperçu situé à droite pour effectuer les requêtes qui utilisent le modèle réglé.

  3. Cliquez sur Base model (Modèle de base) et utilisez le panneau d'aperçu sur la droite pour : d'effectuer des requêtes à l'aide du modèle d'origine.

  4. Comparez la qualité des résultats.

REST

Pour évaluer l'effet du réglage, vous pouvez effectuer des requêtes avec le champ enableSearchAdaptor défini sur true, puis sur false, et comparer les résultats. Définir le champ enableSearchAdaptor sur true indique que la version optimisée de la recherche est utilisée pour cette requête.

Pour effectuer des requêtes de recherche qui utilisent le modèle affiné :

  1. Dans l'appel de la méthode de requête, définissez le champ enableSearchAdaptor dans le champ customFineTuningSpec sur true.

    Exemple :

    curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/engines/APP_ID/servingConfigs/default_search:search" \
    -d '{
    "query": "QUERY",
    "customFineTuningSpec": { "enableSearchAdaptor": true }
    }'
    

    Remplacez les éléments suivants :

    • PROJECT_ID : ID de votre projet Google Cloud
    • APP_ID: ID de l'application que vous souhaitez utiliser. requête.

Pour en savoir plus sur les requêtes de recherche, consultez Obtenir les résultats de recherche et la méthode servingConfigs.search.

Activer la recherche affinée

Après avoir testé la recherche ajustée et décidé de l'utiliser pour toutes les requêtes de recherche, vous pouvez en faire le modèle de recherche par défaut.

Console

Pour définir le modèle affiné comme modèle par défaut et l'appliquer à la page d'aperçu principale, au widget et aux appels d'API, procédez comme suit :

  1. Accédez à l'onglet Tuning (Réglages) :

    1. Dans la console Google Cloud, accédez à la page Agent Builder.

      Agent Builder

    2. Cliquez sur le nom de l'application.

    3. Cliquez sur Configurations.

    4. Cliquez sur l'onglet Réglages.

  2. Cliquez sur Modèle réglé.

  3. Cliquez sur Publier.

REST

Lorsque vous définissez le modèle réglé comme modèle par défaut, vous n'avez pas besoin de spécifier le champ customFineTuningSpec dans la requête de recherche, comme dans procédure.

Pour utiliser la version optimisée de la recherche par défaut pour toutes les requêtes de recherche, procédez comme suit :

  1. Pour définir la recherche ajustée en tant que modèle par défaut, exécutez la commande curl suivante commande:

    curl -X PATCH \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/engines/APP_ID/servingConfigs/default_search?updateMask=customFineTuningSpec.enableSearchAdaptor" \
    -d '{
    "customFineTuningSpec": {
     "enableSearchAdaptor": true
    }
    }'
    

    Pour obtenir des informations générales sur cette méthode, consultez servingConfigs.patch

Désactiver la recherche affinée

Si vous ne souhaitez plus utiliser la version affinée de la recherche, par exemple, n'obtiennent pas de meilleurs résultats qu'avant le réglage, peut désactiver la recherche affinée.

Console

Pour revenir au modèle de base comme modèle par défaut, procédez comme suit:

  1. Accédez à l'onglet Réglages:

    1. Dans la console Google Cloud, accédez à la page Agent Builder.

      Agent Builder

    2. Cliquez sur le nom de l'application.

    3. Cliquez sur Configurations.

    4. Cliquez sur l'onglet Réglages.

  2. Cliquez sur Base model (Modèle de base).

  3. Cliquez sur Publier.

REST

Pour arrêter d'utiliser le modèle réglé, exécutez un appel curl semblable à celui précédent, mais définissez enableSearchAdaptor sur false:

  1. Exécutez la commande curl suivante :

    curl -X PATCH \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/engines/APP_ID/servingConfigs/default_search?updateMask=customFineTuningSpec.enableSearchAdaptor" \
    -d '{
    "customFineTuningSpec": {
     "enableSearchAdaptor": false
    }
    }'
    

    Pour obtenir des informations générales sur cette méthode, consultez servingConfigs.patch

Étape suivante

  • Pour comprendre l'impact du réglage de la recherche sur la qualité de la recherche, évaluer la qualité de la recherche. Pour en savoir plus, consultez la section Évaluer la qualité de la recherche.