Les représentations vectorielles continues de texte (textembedding-gecko
) sont le nom du modèle qui accepte les représentations vectorielles continues de texte.
Les représentations vectorielles continues de texte sont des techniques de TLN qui convertit des données textuelles en vecteurs numériques pouvant être traités par des algorithmes de machine learning, en particulier des modèles volumineux. Ces représentations vectorielles sont conçues pour capturer la signification sémantique et le contexte des mots qu'elles représentent.
Plusieurs versions sont disponibles pour les représentations vectorielles continues. textembedding-gecko@003
est le dernier modèle stable de représentation vectorielle continue avec la qualité d'IA améliorée, et textembedding-gecko-multilingual@001
est un modèle optimisé pour un large éventail de langues autres que l'anglais.
Pour explorer ce modèle dans la console, consultez la fiche de modèle Représentations vectorielles continues de texte dans Model Garden.
Accéder à Model Garden
Cas d'utilisation
Recherche sémantique : des représentations vectorielles continues de texte peuvent être utilisées pour représenter à la fois la requête de l'utilisateur et l'univers des documents dans un espace vectoriel de grande dimension. Les documents qui sont plus sémantiquement similaires à la requête de l'utilisateur ont une distance plus courte dans l'espace vectoriel et peuvent être classés plus haut dans les résultats de recherche.
Classification de texte : entraînement d'un modèle qui mappe les représentations vectorielles continues de texte aux étiquettes de catégorie appropriées (par exemple, chat ou chien, spam ou non spam). Une fois le modèle entraîné, il peut être utilisé pour classer les nouvelles entrées de texte en une ou plusieurs catégories en fonction de leurs représentations vectorielles continues.
Requête HTTP
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/textembedding-gecko:predict
Versions de modèle
Pour utiliser la dernière version de modèle, spécifiez la valeur en spécifiant le suffixe @latest, par exemple textembedding-gecko@latest
.
Pour utiliser une version de modèle stable, indiquez le numéro de version du modèle, par exemple textembedding-gecko@003
.
Chaque version stable est disponible pendant six mois après la date de disponibilité de la version stable suivante.
Le tableau suivant contient les versions de modèle stable disponibles :
Modèle textembedding-gecko | Date de disponibilité | Date d'arrêt |
---|---|---|
textembedding-gecko@003 | 12 décembre 2021 | Non applicable |
textembedding-gecko@002 | 2 novembre 2023 | 9 octobre 2024 |
textembedding-gecko-multilingual@001 | 2 novembre 2023 | Non applicable |
textembedding-gecko@001 | 7 juin 2023 | 9 octobre 2024 |
text-embedding-preview-0409 | 09 avril 2024 | À mettre à jour vers une version stable. |
text-multilingual-embedding-preview-0409 | 09 avril 2024 | Être mis à jour vers une version stable. |
Pour en savoir plus, consultez la page Versions et cycle de vie des modèles.
Corps de la requête
{
"instances": [
{
"task_type": "RETRIEVAL_DOCUMENT",
"title": "document title",
"content": "I would like embeddings for this text!"
},
]
}
L'API Embedding PaLM Vertex AI effectue des prédictions en ligne (en temps réel) pour obtenir des représentations vectorielles continues à partir de texte d'entrée.
L'API accepte un maximum de 3 072 jetons d'entrée et génère des représentations vectorielles continues de 768 dimensions. Utilisez les paramètres suivants pour le modèle de représentations vectorielles continues de texte textembedding-gecko
.
Pour en savoir plus, consultez l'article Présentation des représentations vectorielles continues de texte.
Paramètre | Description | Valeurs acceptables |
---|---|---|
|
Texte pour lequel vous souhaitez générer des représentations vectorielles continues. | Texte |
|
Le paramètre "task_type" est défini comme l'application en aval prévue pour aider le modèle à produire des représentations vectorielles continues de meilleure qualité. Il s'agit d'une chaîne qui peut accepter l'une des valeurs suivantes. | RETRIEVAL_QUERY , RETRIEVAL_DOCUMENT , SEMANTIC_SIMILARITY , CLASSIFICATION , CLUSTERING , QUESTION_ANSWERING , FACT_VERIFICATION .
|
|
Titre de la représentation vectorielle continue. | Texte |
Exemple de requête
REST
Pour tester une requête de texte à l'aide de l'API Vertex AI, envoyez une requête POST au point de terminaison du modèle de l'éditeur.
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- PROJECT_ID : l'ID de votre projet.
- TEXT : texte pour lequel vous souhaitez générer des représentations vectorielles continues.
Méthode HTTP et URL :
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/textembedding-gecko@003:predict
Corps JSON de la requête :
{ "instances": [ { "content": "TEXT"} ], }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/textembedding-gecko@003:predict"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/textembedding-gecko@003:predict" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON semblable à l'exemple de réponse.
Python
Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez la section Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Java
Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Corps de la réponse
{
"predictions": [
{
"embeddings": {
"statistics": {
"truncated": boolean,
"token_count": integer
},
"values": [ number ]
}
}
]
}
Élément de réponse | Description |
---|---|
embeddings |
Résultat généré à partir du texte d'entrée. |
statistics |
Statistiques calculées à partir du texte d'entrée. |
truncated |
Indique si le texte d'entrée était plus long que le nombre maximal de jetons autorisés et tronqué. |
tokenCount |
Nombre de jetons du texte d'entrée. |
values |
Le champ values contient les vecteurs de représentation vectorielle continue correspondant aux mots du texte d'entrée. |
Exemple de réponse
{
"predictions": [
{
"embeddings": {
"values": [
0.0058424929156899452,
0.011848051100969315,
0.032247550785541534,
-0.031829461455345154,
-0.055369812995195389,
...
],
"statistics": {
"token_count": 4,
"truncated": false
}
}
}
]
}