Pour concevoir une requête qui fonctionne bien, testez différentes versions de la requête et testez des paramètres de requête pour déterminer ce qui renvoie la réponse optimale. Vous pouvez tester les requêtes de manière automatisée avec les API Codey et dans la console Google Cloud avec Vertex AI Studio.
Tester les requêtes de génération de code
Pour tester les requêtes de génération de code, choisissez l'une des méthodes suivantes.
REST
Pour tester une requête de génération de code avec l'API Vertex AI, envoyez une requête POST au point de terminaison du modèle de l'éditeur.
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- PROJECT_ID : l'ID de votre projet.
- PREFIX : pour les modèles de code,
prefix
représente le début d'un code de programmation significatif ou une requête en langage naturel décrivant le code à générer. - TEMPERATURE : la température est utilisée pour l'échantillonnage pendant la génération de la réponse. La température permet de contrôler le degré de hasard dans la sélection des jetons. Des températures inférieures sont idéales pour les requêtes qui nécessitent une réponse moins ouverte ou créative, tandis que des températures plus élevées peuvent entraîner des résultats plus diversifiés ou plus créatifs. Une température de
0
signifie que les jetons de probabilité les plus élevés sont toujours sélectionnés. Dans ce cas, les réponses pour une requête donnée sont principalement déterministes, mais une petite quantité de variation est toujours possible. - MAX_OUTPUT_TOKENS : nombre maximal de jetons pouvant être générés dans la réponse. Un jeton correspond environ à quatre caractères. 100 jetons correspondent à environ 60-80 mots.
Spécifiez une valeur inférieure pour obtenir des réponses plus courtes et une valeur supérieure pour des réponses potentiellement plus longues.
- CANDIDATE_COUNT : nombre de variantes de réponse à renvoyer. Pour chaque requête, vous êtes facturé pour les jetons de sortie de tous les candidats, mais vous ne payez qu'une seule fois pour les jetons d'entrée.
La spécification de plusieurs candidats est une fonctionnalité bêta qui fonctionne avec
generateContent
(streamGenerateContent
n'est pas disponible). Les modèles suivants sont compatibles :- Gemini 1.5 Flash :
1
-8
(par défaut :1
) - Gemini 1.5 Pro :
1
-8
(par défaut :1
)
int
comprise entre 1 et 4. - Gemini 1.5 Flash :
Méthode HTTP et URL :
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict
Corps JSON de la requête :
{ "instances": [ { "prefix": "PREFIX" } ], "parameters": { "temperature": TEMPERATURE, "maxOutputTokens": MAX_OUTPUT_TOKENS, "candidateCount": CANDIDATE_COUNT } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON semblable à la suivante.
Python
Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez la section Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Java
Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Console
Pour tester une requête de génération de code à partir de Vertex AI Studio dans la console Google Cloud, procédez comme suit :
- Dans la section "Vertex AI" de la console Google Cloud, accédez à Vertex AI Studio.
- Cliquez sur Commencer.
- Cliquez sur Créer une requête.
- Dans Modèle, sélectionnez le modèle dont le nom commence par
code-bison
. Un nombre à trois chiffres aprèscode-bison
indique le numéro de version du modèle. Par exemple,code-bison@002
est le nom de la version 1 du modèle de génération de code. - Dans Requête, saisissez une requête de génération de code.
- Ajustez les Températures et les Limites de jetons pour tester leur impact sur la réponse. Pour en savoir plus, consultez la section Paramètres du modèle de génération de code.
- Cliquez sur Envoyer pour générer une réponse.
- Cliquez sur Enregistrer si vous souhaitez enregistrer une requête.
- Cliquez sur Afficher le code pour afficher le code Python ou une commande curl pour votre requête.
Exemple de commande curl
MODEL_ID="code-bison"
PROJECT_ID=PROJECT_ID
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://us-central1-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/us-central1/publishers/google/models/${MODEL_ID}:predict -d \
$"{
'instances': [
{ 'prefix': 'Write a function that checks if a year is a leap year.' }
],
'parameters': {
'temperature': 0.2,
'maxOutputTokens': 1024,
'candidateCount': 1
}
}"
Pour en savoir plus sur la conception de requêtes pour la génération de code, consultez la section Créer des requêtes pour la génération de code.
Réponse en streaming à partir du modèle de code
Pour afficher des exemples de requêtes et de réponses de code à l'aide de l'API REST, consultez la page Exemples d'utilisation de l'API REST en streaming.
Pour afficher des exemples de requêtes et de réponses de code à l'aide du SDK Vertex AI pour Python, consultez la page Exemples d'utilisation du SDK Vertex AI pour Python pour le streaming.
Étapes suivantes
- Découvrez comment créer des requêtes de chat de code.
- Découvrez comment créer des requêtes de complétion de code.
- Découvrez les bonnes pratiques d'IA responsable et les filtres de sécurité de Vertex AI.