Per progettare un prompt che funzioni correttamente, testa diverse versioni del prompt e prova i relativi parametri per determinare quali risultati generano la risposta ottimale. Puoi testare i prompt in modo programmatico con le API Codey e nella console Google Cloud con Generative AI Studio.
Testare le richieste di generazione del codice
Per testare le richieste di generazione del codice, scegli uno dei seguenti metodi.
REST
Per testare un prompt di generazione del codice con l'API Vertex AI, invia una richiesta POST all'endpoint del modello del publisher.
Prima di utilizzare qualsiasi dato della richiesta, effettua le seguenti sostituzioni:
- PROJECT_ID: il tuo ID progetto.
- PREFIX:
per i modelli di codice,
prefix
rappresenta l'inizio di una porzione di codice di programmazione significativo o di un prompt in linguaggio naturale che descrive il codice da generare. - TEMPERATURE:
la temperatura viene utilizzata per il campionamento durante la generazione della risposta. La temperatura controlla
il grado di casualità nella selezione dei token. Le temperature più basse sono ideali per le richieste che richiedono una risposta più deterministica e meno aperta o creativa, mentre le temperature più alte possono portare a risultati più diversificati o creativi. Una temperatura pari a
0
è deterministica, il che significa che viene sempre selezionata la risposta con la probabilità più alta. - MAX_OUTPUT_TOKENS:
numero massimo di token che possono essere generati nella risposta. Un token è composto da circa quattro caratteri. 100 token corrispondono a circa 60-80 parole.
Specifica un valore più basso per le risposte più brevi e un valore più alto per le risposte più lunghe.
- CANDIDATE_COUNT:
il numero di varianti della risposta da restituire. Il parametro di conteggio dei candidati non è supportato quando utilizzi l'SDK Vertex AI.
L'intervallo di valori validi è
int
compreso tra 1 e 4.
Metodo HTTP e URL:
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict
Corpo JSON della richiesta:
{ "instances": [ { "prefix": "PREFIX" } ], "parameters": { "temperature": TEMPERATURE, "maxOutputTokens": MAX_OUTPUT_TOKENS, "candidateCount": CANDIDATE_COUNT } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
arricciare
Salva il corpo della richiesta in un file denominato request.json
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente.
SDK Vertex AI per Python
Per scoprire come installare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per saperne di più, consulta la documentazione di riferimento dell'SDK Vertex AI per l'API Python.
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js nella guida rapida di Vertex AI sull'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Node.js Vertex AI.
Per l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta la pagina Configurare l'autenticazione per un ambiente di sviluppo locale.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione di Java nella guida rapida di Vertex AI sull'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Java Vertex AI.
Per l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta la pagina Configurare l'autenticazione per un ambiente di sviluppo locale.
Console
Per testare un prompt di generazione del codice utilizzando Generative AI Studio nella console Google Cloud:
- Nella sezione Vertex AI della console Google Cloud, vai a Generative AI Studio.
- Fai clic su Inizia.
- Fai clic su Crea prompt.
- In Modello, seleziona il modello il cui nome inizia con
code-bison
. Un numero di tre cifre dopocode-bison
indica il numero di versione del modello. Ad esempio,code-bison@001
è il nome della versione uno del modello di generazione del codice. - In Prompt, inserisci una richiesta di generazione del codice.
- Regola la Temperatura e il Limite dei token per verificare in che modo influiscono sulla risposta. Per ulteriori informazioni, consulta Parametri del modello di generazione del codice.
- Fai clic su Invia per generare una risposta.
- Fai clic su Salva se vuoi salvare un prompt.
- Fai clic su Visualizza codice per visualizzare il codice Python o un comando curl per il prompt.
Esempio di comando curl
MODEL_ID="code-bison"
PROJECT_ID=PROJECT_ID
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json"