Verwenden Sie Vertex AI, um Texteinbettungsanfragen an das PaLM 2 Large Language Model (LLM) von Google zu senden und eine Antwort zu erhalten. TestenSie Prompts und passen Sie sie je nach den Anforderungen Ihrer Anwendung an.
Hinweise
Bevor Sie die Chat-Prompts testen können, müssen Sie Folgendes tun:
- Projekt- und Entwicklungsumgebung einrichten. Die Projekt-ID wird zum Ausführen des Beispielcodes benötigt.
- Machen Sie sich mit den Texteinbettungsparametern vertraut, die Sie ersetzen müssen, bevor Sie den Beispielcode ausführen.
- Sehen Sie sich die Anwendungsfälle für Texteinbettungen an, um zu ermitteln, welche Art von Beispiel erstellt werden soll.
Anfragen zur Texteinbettung testen
Die Vertex AI PaLM Embedding API führt Onlinevorhersagen (in Echtzeit) aus, die Texteinbettungsanfragen als Eingabe für das Modell verwenden. Die API akzeptiert 3.072 Eingabetokens und gibt 768-dimensionale Vektoreinbettungen aus.
Wählen Sie einen Tab aus und folgen Sie der Anleitung zum Ausführen des Beispiels.
Python
Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Java-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
C#
Bevor Sie dieses Beispiel anwenden, folgen Sie den C#-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI C# API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Console
So testen Sie eine Anfrage zum Texteinbetten mithilfe der Google Cloud Console:
-
Öffnen Sie das Cloud Shell-Terminal in der Google Cloud Console.
-
Bearbeiten Sie die Platzhalter im Beispielcode und kopieren Sie sie in die Console.
MODEL_ID="textembedding-gecko" PROJECT_ID=PROJECT_ID curl \ -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ https://us-central1-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/us-central1/publishers/google/models/${MODEL_ID}:predict -d \ $'{ "instances": [ { "content": "What is life?"} ], }'
Nächste Schritte
- Weitere Informationen zum Entwerfen von Text-Prompts und Textchat-Prompts.
- Testen von Prompts in Vertex AI Studio
- Informationen zu Texteinbettungen
- Versuchen Sie, ein Sprach-Foundation Model zu optimieren.
- Weitere Informationen zu Best Practices für verantwortungsvolle KI und den Sicherheitsfiltern von Vertex AI