Auf dieser Seite erfahren Sie, wie Sie Tokens für einen bestimmten Prompt berechnen.
Tokens sind die kleinste Texteinheit, die für ein Sprachmodell Bedeutung hat. Um Text für das Verstehen vorzubereiten, verwenden Modelle die Tokenisierung, einen Prozess, der Sätze oder größere Textabschnitte in einzelne Token unterteilt. Anschließend wird jedem eindeutigen Token eine numerische ID zugewiesen. Dadurch kann das Modell mit Text als Zahlen arbeiten. Wenn Sie ein Token erstellen, kann ein Large Language Model (LLM) die statistischen Beziehungen zwischen Tokens berechnen und das nächste wahrscheinlichste Token in einer Abfolge von Tokens erzeugen.
Unterstützte Modelle
Die folgenden Basismodelle unterstützen das Abrufen einer Liste von Tokens und Token-IDs:
text-bison
chat-bison
textembedding-gecko
code-bison
codechat-bison
code-gecko
Liste der Tokens und Token-IDs für eine Eingabeaufforderung abrufen
Mit der Vertex AI API können Sie eine Liste der Tokens und Token-IDs abrufen.
REST
Senden Sie zum Abrufen einer Liste von Tokens und Token-IDs für eine Aufforderung mit der Vertex AI API eine POST-Anfrage an den Endpunkt des Publisher-Modells.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_ID: Ihre Projekt-ID.
- MODEL_ID: Der Name des Modells, für das Sie die Token für den Prompt berechnen. Die Optionen für das Basismodell sind:
text-bison
chat-bison
textembedding-gecko
code-bison
codechat-bison
code-gecko
@001
an den Modellnamen. Sie können auch die jeweils neueste Version angeben, indem Sie keine Versionsnummer an den Modellnamen anhängen. Informationen zu den verfügbaren *stabile* Modellversionen finden Sie unter Verfügbare stabile Modellversionen. - PROMPT: Die Eingabeaufforderung, für die die Tokens berechnet werden sollen. (Hier keine Anführungszeichen um die Eingabeaufforderung hinzufügen.)
HTTP-Methode und URL:
POST https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/MODEL_ID:computeTokens
JSON-Text der Anfrage:
{ "instances": [ { "prompt": "PROMPT"} ], }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
.
Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:
cat > request.json << 'EOF' { "instances": [ { "prompt": "PROMPT"} ], } EOF
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/MODEL_ID:computeTokens"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
.
Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:
@' { "instances": [ { "prompt": "PROMPT"} ], } '@ | Out-File -FilePath request.json -Encoding utf8
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/MODEL_ID:computeTokens" | Select-Object -Expand Content
Die Ausgabetokens werden als base64-String dargestellt. Zur besseren Lesbarkeit können Sie die Ausgabe wieder in einen regulären String konvertieren. Hier ein Beispiel:
{ "tokensInfo": [ { "tokens": [ "IFByb3ZpZGU=", "IGE=", "IHN1bW1hcnk=", "IG9m" ], "tokenIds": [ "45895", "1016", "14292", "1024" ] } ] }
Beispiel: cURL-Befehls
MODEL_ID="text-bison"
PROJECT_ID="my-project"
PROMPT="Provide a summary with about two sentences for the following article."
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://us-central1-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/us-central1/publishers/google/models/${MODEL_ID}:computeTokens -d \
$'{
"instances": [
{ "prompt": "'"$PROMPT"'"}
],
}'
Preise und Kontingente
Für die Verwendung der ComputeTokens
API fallen keine Gebühren an. Es gibt ein Kontingentlimit von 3.000 Anfragen pro Minute. Das ist dasselbe Kontingent für die CountTokens
API.
Nächste Schritte
- Weitere Informationen zum Zählen von Tokens
- Informationen zum Testen von Chat-Prompts
- Weitere Informationen zum Testen von Text-Prompts
- Texteinbettungen abrufen