Language Models

Sie können mit der Vertex AI PaLM API und Vertex AI Codey APIs auf die generativen KI-Language Models von Google zugreifen, diese optimieren und bereitstellen. Mit den Language Models können Sie eine Vielzahl von Workflows von Vertex AI ausführen. Sie können beispielsweise APIs verwenden, um mit den Modellen zu interagieren und die Modelle in einem Jupyter-Notebook bereitzustellen. Sie können auch Language Models für Ihren spezifischen Anwendungsfall anpassen, indem Sie die Modellabstimmung durchführen. Auf dieser Seite erhalten Sie einen Überblick über die verfügbaren Language Models, die APIs, die Sie für die Interaktion mit den Modellen verwenden, und Möglichkeiten zur Anpassung ihres Verhaltens.

Benennungsschema für das Modell

Die Namen von Foundation Models haben zwei Komponenten: Anwendungsfall und Modellgröße. Diese Namenskonvention hat das Format <use case>-<model size>. Beispiel: text-bison stellt das Textmodell Bison dar.

Die Modellgrößen sind:

  • Unicorn: Das größte Modell in der PaLM-Familie. Unicorn-Modelle eignen sich hervorragend für komplexe Aufgaben wie das Coding und die Denkenslogik (CoT of Mindden, CoT), da sie in das Modell und seine Überlegungen einzigartig sind.
  • Bison: Das PaLM-Modell mit dem besten Wert, das eine Vielzahl von Sprachaufgaben wie Klassifizierung und Zusammenfassung verarbeitet. Sie ist für Genauigkeit und Latenz zu angemessenen Kosten optimiert. Die Oberflächen für Text, Chat, Code und Codechat vereinfachen die Bereitstellung und Integration in die Anwendung.
  • Gecko: Kleinstes und kostengünstigstes Modell, für einfache Aufgaben geeignet.

Sie können die stabile oder die neueste Version eines Modells verwenden. Weitere Informationen finden Sie unter Modellversionen und Lebenszyklus.

Vertex AI PaLM API

Mit der Vertex AI PaLM API können Sie auf die PaLM 2-Modelle zugreifen, die Natural Language Text, Texteinbettungen und Code unterstützen. Wir empfehlen die Verwendung der Vertex AI Codey APIs für die Codegenerierung. PaLM 2 ist die zweite Generation des Pathways-Sprachmodells, das von Google Labs entwickelt wurde. Mit der Vertex AI PaLM API können Sie die MLOps-Tools sowie die Sicherheit, den Datenschutz und die Skalierbarkeit auf Unternehmensebene von Vertex AI nutzen.

Die Vertex AI PaLM API stellt PaLM 2-Modelle mithilfe globaler Publisher-Endpunkte bereit, die für jedes Google Cloud-Projekt eindeutig sind. Im Folgenden finden Sie ein Beispiel für einen Endpunkt eines Publisher-Modells:

https://us-central1-aiplatform.googleapis.com/v1/projects/your_project_id/locations/us-central1/publishers/google/models/text-bison:predict

Die Vertex AI PaLM API hat Publisher-Endpunkte für die folgenden PaLM 2-Modelle:

  • text-bison: Optimiert für die Ausführung von Natural Language-Aufgaben wie Klassifizierung, Zusammenfassung, Extraktion, Inhaltserstellung und Ideenentwicklung.
  • chat-bison: Optimiert für Multi-Turn-Chats, bei denen das Modell vorherige Nachrichten im Chat verfolgt und als Kontext zum Generieren neuer Antworten verwendet.
  • textembedding-gecko: Generiert Texteinbettungen für einen bestimmten Text. Sie können Einbettungen für Aufgaben wie die semantische Suche, die Empfehlung, Klassifizierung und die Ausreißererkennung verwenden.

Weitere Informationen zu diesen Modellen finden Sie unter Verfügbare Modelle.

Vertex AI Codey APIs

Die Vertex AI Codey APIs sind für die Unterstützung von Codegenerierung, Codechat und Codevervollständigung für mehrere Programmiersprachen optimiert. Die Vertex AI Codey APIs basieren auf der PaLM 2-Modellfamilie. Weitere Informationen finden Sie unter Codemodelle – Übersicht.

Prompt-Design

Zur Interaktion mit Foundation Models wie PaLM 2 senden Sie Anweisungen in natürlicher Sprache, die auch als Prompts bezeichnet werden. Damit geben Sie dem Modell an, was es generieren soll. LLMs können sich jedoch manchmal unvorhersehbar verhalten. Das gezielte Design ist ein iterativer Testprozess, der viel Zeit und Erfahrung erfordert. Weitere Informationen zu allgemeinen Strategien für das Prompt-Design finden Sie unter Einführung in das Prompt-Design. Informationen zum aufgabenspezifischen Erstellen von Text-Prompts finden Sie unter Text-Prompts erstellen.

Modellabstimmung

Wenn Sie PaLM 2-Modelle für einen bestimmten Anwendungsfall anpassen müssen, können Sie die Modelle mithilfe eines Datasets von Beispiel für Eingabe und Ausgabe abstimmen. Optimierte Modelle werden automatisch auf einem neuen Endpunkt in Ihrem Projekt bereitgestellt, um Anfragen zu verarbeiten. Weitere Informationen zur Modelloptimierung finden Sie unter Foundations Models optimieren.

Nächste Schritte