Per progettare un prompt che funzioni bene, testa diverse versioni del prompt sperimentare i parametri dei prompt per determinare quali risultati risposta. Puoi testare i prompt in modo programmatico con API Codey e nella console Google Cloud con Vertex AI Studio.
Testare i prompt di chat
Per testare i prompt di chat del codice, scegli uno dei seguenti metodi.
REST
Per testare un prompt di chat del codice utilizzando l'API Vertex AI, invia una richiesta POST al l'endpoint del modello del publisher.
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- PROJECT_ID: il tuo ID progetto.
- Messaggi: Cronologia della conversazione fornita al modello in un autore alternativo strutturato in un modulo di testo. I messaggi vengono visualizzati in ordine cronologico: dal meno recente al più recente. Quando la cronologia dei messaggi fa sì che l'input superi la lunghezza massima, i messaggi meno recenti vengono rimossi fino a quando l'intero prompt non rientra nel limite consentito. Affinché il modello possa generano una risposta.
- AUTHOR: l'autore del messaggio.
- CONTENT: i contenuti del messaggio.
- TEMPERATURE:
La temperatura viene utilizzata per il campionamento durante la generazione della risposta. La temperatura controlla il grado di
casualità nella selezione dei token. Le temperature più basse sono ideali per prompt che richiedono una temperatura
una risposta aperta o creativa, mentre le temperature più alte possono portare a una maggiore diversificazione o creatività
che consentono di analizzare i dati
e visualizzare i risultati. Una temperatura di
0
indica che i token con la probabilità più alta sono sempre selezionato. In questo caso, le risposte per un determinato prompt sono per lo più deterministiche, ma una piccola quantità una variante è ancora possibile. - MAX_OUTPUT_TOKENS:
Numero massimo di token che possono essere generati nella risposta. Un token è
di circa quattro caratteri. 100 token corrispondono a circa 60-80 parole.
Specifica un valore più basso per risposte più brevi e un valore più alto per risposte potenzialmente più lunghe diverse.
- CANDIDATE_COUNT:
Il numero di varianti della risposta da restituire. Per ogni richiesta ti vengono addebitati i costi
i token di output di tutti i candidati, ma vengono addebitati una sola volta per i token di input.
L'indicazione di più candidati è una funzionalità in anteprima compatibile con
generateContent
(streamGenerateContent
non è supportato). Sono supportati i seguenti modelli:- Gemini 1.5 Flash:
1
-8
, valore predefinito:1
- Gemini 1.5 Pro:
1
-8
, valore predefinito:1
int
compreso tra 1 e 4. - Gemini 1.5 Flash:
Metodo HTTP e URL:
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/codechat-bison:predict
Corpo JSON della richiesta:
{ "instances": [ { "messages": [ { "author": "AUTHOR", "content": "CONTENT" } ], "parameters": { "temperature": TEMPERATURE, "maxOutputTokens": MAX_OUTPUT_TOKENS, "candidateCount": CANDIDATE_COUNT } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/codechat-bison:predict"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/codechat-bison:predict" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta API Node.js Vertex AI documentazione di riferimento.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Java
Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta API Java Vertex AI documentazione di riferimento.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Console
Per testare un prompt di chat di codice utilizzando Vertex AI Studio in Console Google Cloud, procedi nel seguente modo :
- Nella sezione Vertex AI della console Google Cloud, vai a Vertex AI Studio
- Fai clic su Inizia.
- Fai clic su Chat di codice.
- In Modello, seleziona il modello con il nome che inizia con
codechat-bison
. Un numero di tre cifre dopocodechat-bison
indica la versione del modello. - Regola la Temperatura e il Limite di token per sperimentarne l'impatto la risposta. Per ulteriori informazioni, consulta Modello di chat di codice parametri.
- In Inserisci un prompt per iniziare una conversazione, digita un prompt per avviare una conversazione sul codice.
- Fai clic su Continua la conversazione per inviare il prompt alla chat.
- Dopo aver ricevuto una risposta, ripeti i due passaggi precedenti per continuare con conversazione.
- Fai clic su Salva se vuoi salvare un prompt.
- Fai clic su Visualizza codice per visualizzare il codice Python o un comando curl per il prompt.
Esempio di prompt di chat di codice
MODEL_ID="codechat-bison"
PROJECT_ID=PROJECT_ID
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://us-central1-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/us-central1/publishers/google/models/${MODEL_ID}:predict -d \
$"{
'instances': [
{
'messages': [
{
'author': 'user',
'content': 'Hi, how are you?',
},
{
'author': 'system',
'content': 'I am doing good. What Can I help you with in the coding world?',
},
{
'author': 'user',
'content': 'Please help write a function to calculate the min of two numbers',
}
]
}
],
'parameters': {
'temperature': 0.2,
'maxOutputTokens': 1024,
'candidateCount': 1
}
}"
Per scoprire di più su come progettare prompt di chat, consulta Prompt di Chat.
Risposta in streaming dal modello di chat del codice
Per visualizzare richieste di codice e risposte di esempio utilizzando l'API REST, consulta Esempi di utilizzo dell'API REST per lo streaming.
Per visualizzare richieste di codice e risposte di esempio utilizzando l'SDK Vertex AI per Python, consulta Esempi di utilizzo dell'SDK Vertex AI per Python per i flussi.
Passaggi successivi
- Scopri come creare prompt di completamento del codice.
- Scopri come creare prompt di generazione di codice.
- Scopri di più sulle best practice per l'IA responsabile e sui filtri di sicurezza di Vertex AI.