Sie können mit der Vertex AI PaLM API und Vertex AI Codey APIs auf die generativen KI-Language Models von Google zugreifen, diese optimieren und bereitstellen. Mit den Language Models können Sie eine Vielzahl von Workflows von Vertex AI ausführen. Sie können beispielsweise APIs verwenden, um mit den Modellen zu interagieren und die Modelle in einem Jupyter-Notebook bereitzustellen. Sie können auch Language Models für Ihren spezifischen Anwendungsfall anpassen, indem Sie die Modellabstimmung durchführen. Auf dieser Seite erhalten Sie einen Überblick über die verfügbaren Language Models, die APIs, die Sie für die Interaktion mit den Modellen verwenden, und Möglichkeiten zur Anpassung ihres Verhaltens.
Benennungsschema für Modelle
Die Namen von Foundation Models haben zwei Komponenten: Anwendungsfall und Modellgröße. Die Benennungskonvention hat das Format <use case>-<model size>
. Beispiel: text-bison
stellt das Textmodell Bison dar.
Die Modellgrößen sind:
- Unicorn: Das größte Modell in der PaLM-Familie. Unicorn-Modelle eignen sich hervorragend für komplexe Aufgaben wie das Coding und die Denkenslogik (CoT of Mindden, CoT), da sie in das Modell und seine Überlegungen einzigartig sind.
- Bison: Das PaLM-Modell mit dem besten Wert, das eine Vielzahl von Sprachaufgaben wie Klassifizierung und Zusammenfassung verarbeitet. Sie ist für Genauigkeit und Latenz zu angemessenen Kosten optimiert. Die Oberflächen für Text, Chat, Code und Codechat vereinfachen die Bereitstellung und Integration in die Anwendung.
- Gecko: Kleinstes und kostengünstigstes Modell, für einfache Aufgaben geeignet.
Sie können die stabile oder die neueste Version eines Modells verwenden. Weitere Informationen finden Sie unter Modellversionen und Lebenszyklus.
Vertex AI PaLM API
Mit der Vertex AI PaLM API können Sie auf die PaLM 2-Modelle zugreifen, die Natural Language Text, Texteinbettungen und Code unterstützen. Wir empfehlen die Verwendung der Vertex AI Codey APIs für die Codegenerierung. PaLM 2 ist die zweite Generation des Pathways-Sprachmodells, das von Google Labs entwickelt wurde. Mit der Vertex AI PaLM API können Sie die MLOps-Tools sowie die Sicherheit, den Datenschutz und die Skalierbarkeit auf Unternehmensebene von Vertex AI nutzen.
Die Vertex AI PaLM API stellt PaLM 2-Modelle mithilfe globaler Publisher-Endpunkte bereit, die für jedes Google Cloud-Projekt eindeutig sind. Im Folgenden findest du ein Beispiel für einen Publisher-Modellendpunkt:
https://us-central1-aiplatform.googleapis.com/v1/projects/your_project_id/locations/us-central1/publishers/google/models/text-bison:predict
Die Vertex AI PaLM API hat Publisher-Endpunkte für die folgenden PaLM 2-Modelle:
text-bison
: Optimiert für die Ausführung von Aufgaben mit natürlicher Sprache wie Klassifizierung, Zusammenfassung, Extraktion, Inhaltserstellung und Ideenentwicklung.chat-bison
: Optimiert für Multi-Turn-Chats, bei denen das Modell vorherige Nachrichten im Chat verfolgt und als Kontext zum Generieren neuer Antworten verwendet.textembedding-gecko
: Generiert Texteinbettungen für einen bestimmten Text. Sie können Einbettungen für Aufgaben wie die semantische Suche, die Empfehlung, Klassifizierung und die Ausreißererkennung verwenden.
Weitere Informationen zu diesen Modellen finden Sie unter Verfügbare Modelle.
Vertex AI Codey APIs
Die Vertex AI Codey APIs sind für die Codegenerierung, den Codechat und die Codevervollständigung für mehrere Programmiersprachen optimiert. Die Vertex AI Codey APIs basieren auf der PaLM 2-Modellfamilie. Weitere Informationen finden Sie unter Codemodelle – Übersicht.
Prompt-Design
Zur Interaktion mit Foundation Models wie PaLM 2 senden Sie Anweisungen in natürlicher Sprache, die auch als Prompts bezeichnet werden. Damit geben Sie dem Modell an, was es generieren soll. LLMs können sich jedoch manchmal unvorhersehbar verhalten. Das gezielte Design ist ein iterativer Testprozess, der viel Zeit und Erfahrung erfordert. Weitere Informationen zu allgemeinen Strategien für das Prompt-Design finden Sie unter Einführung in das Prompt-Design. Informationen zum aufgabenspezifischen Erstellen von Text-Prompts finden Sie unter Text-Prompts erstellen.
Modellabstimmung
Wenn Sie PaLM 2-Modelle für einen bestimmten Anwendungsfall anpassen müssen, können Sie die Modelle mithilfe eines Datasets von Beispiel für Eingabe und Ausgabe abstimmen. Optimierte Modelle werden automatisch an einem neuen Endpunkt in Ihrem Projekt bereitgestellt, um Anfragen zu bedienen. Weitere Informationen zur Modelloptimierung finden Sie unter Foundations Models optimieren.
Nächste Schritte
- Weitere Informationen zum Entwerfen von Text-Prompts
- Chat-Prompts entwerfen
- Weitere Informationen zu Codemodellen
- Antworten aus einem Modell streamen