Um einen gut funktionierenden Prompt zu entwerfen, testen Sie verschiedene Versionen des Prompts und experimentieren mit Prompt-Parametern, um zu bestimmen, welche Ergebnisse eine optimale Antwort bedingen. Sie können Prompts programmatisch mit den Codey APIs und in der Google Cloud Console mit Vertex AI Studio testen.
Aufforderungen zur Codegenerierung testen
Wählen Sie eine der folgenden Methoden aus, um Prompts zur Generierung von Code zu testen.
REST
Senden Sie zum Testen eines Prompts zur Generierung von Code mit der Vertex AI API eine POST-Anfrage an den Endpunkt des Publisher-Modells.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_ID: Ihre Projekt-ID.
- PREFIX: Bei Codemodellen stellt
prefix
den Anfang eines sinnvollen Programmiercodes oder eines Prompts in natürlicher Sprache dar, der den zu generierenden Code beschreibt. - TEMPERATURE: Die Temperatur wird für die Probenahme während der Antwortgenerierung verwendet. Die Temperatur bestimmt den Grad der Zufälligkeit bei der Tokenauswahl. Niedrigere Temperaturen eignen sich gut für Prompts, die eine weniger offene oder kreative Antwort erfordern, während höhere Temperaturen zu vielfältigeren oder kreativeren Ergebnissen führen können. Eine Temperatur von
0
bedeutet, dass immer die Tokens mit der höchsten Wahrscheinlichkeit ausgewählt werden. In diesem Fall sind die Antworten auf eine bestimmte Aufforderung größtenteils deterministisch, aber eine gewisse Abweichung ist dennoch möglich. - MAX_OUTPUT_TOKENS: Maximale Anzahl an Tokens, die in der Antwort generiert werden können. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen etwa 60–80 Wörtern.
Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an.
- CANDIDATE_COUNT:
Die Anzahl der zurückzugebenden Antwortvarianten.
Der Bereich der gültigen Werte ist eine
int
zwischen 1 und 4.
HTTP-Methode und URL:
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict
JSON-Text der Anfrage:
{ "instances": [ { "prefix": "PREFIX" } ], "parameters": { "temperature": TEMPERATURE, "maxOutputTokens": MAX_OUTPUT_TOKENS, "candidateCount": CANDIDATE_COUNT } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict" | Select-Object -Expand Content
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
Python
Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Java-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Console
So testen Sie einen Prompt zur Generierung von Code in Vertex AI Studio in der Google Cloud Console:
- Rufen Sie im Bereich „Vertex AI“ der Google Cloud Console Vertex AI Studio auf.
- Klicken Sie auf Jetzt starten.
- Klicken Sie auf Prompt erstellen.
- Wählen Sie unter Modell das Modell aus, dessen Name mit
code-bison
beginnt. Eine dreistellige Zahl nachcode-bison
gibt die Versionsnummer des Modells an. Beispiel:code-bison@001
ist der Name von Version 1 des Codeerstellungsmodells. - Geben Sie in das Feld Prompt einen Prompt zur Codeerstellung ein.
- Passen Sie Temperaturen und Tokenlimits an, um zu experimentieren, wie sich diese Elemente auf die Antwort auswirken. Weitere Informationen finden Sie unter Parameter für das Codegenerierungsmodell.
- Klicken Sie auf Senden, um eine Antwort zu generieren.
- Klicken Sie auf Speichern, wenn Sie einen Prompt speichern möchten.
- Klicken Sie auf Code anzeigen, um den Python-Code oder einen curl-Befehl für Ihren Prompt anzuzeigen.
Beispiel eines cURL-Befehls
MODEL_ID="code-bison"
PROJECT_ID=PROJECT_ID
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://us-central1-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/us-central1/publishers/google/models/${MODEL_ID}:predict -d \
$"{
'instances': [
{ 'prefix': 'Write a function that checks if a year is a leap year.' }
],
'parameters': {
'temperature': 0.2,
'maxOutputTokens': 1024,
'candidateCount': 1
}
}"
Weitere Informationen zum Erstellen von Prompts für die Codegenerierung finden Sie unter Prompts für die Codegenerierung erstellen.
Streamantwort vom Codemodell
Beispiele für die Verwendung von REST API-Beispielanfragen und -Antworten finden Sie unter Beispiele, die die Streaming-REST-API verwenden.
Um Beispielcodeanfragen und -antworten mit dem Vertex AI SDK für Python anzuzeigen, lesen Sie Beispiele, die Vertex AI SDK für Python zum Streaming verwenden.
Nächste Schritte
- Weitere Informationen zum Erstellen von Code-Chat-Prompts
- Prompts zur Codevervollständigungen erstellen
- Verantwortungsbewusste Best Practices für KI und die Sicherheitsfilter von Vertex AI