Informationen zu Legacy-Modellen

Auf dieser Seite finden Sie Informationen zu Legacy-Modellen für die generative KI in Vertex AI. Für Modelle in Legacy-Modellfamilien werden keine neuen stabilen Versionen mehr herausgegeben. Sobald das Einstellungsdatum für alle stabilen Versionen eines Legacy-Modells erreicht ist, wird die Modellfamilie nicht mehr unterstützt.

PaLM API-Modelle

In der folgenden Tabelle sind die alten PaLM API-Modelle zusammengefasst:

Modellname Beschreibung Modellattribute Unterstützung der Feinabstimmung
PaLM 2 für Text
(text-bison)
Feinabstimmung der Natural Language-Anleitung und eignet sich für eine Vielzahl von Sprachaufgaben wie Klassifizierung, Zusammenfassung und Extraktion. Maximale Eingabetokens: 8.192
Maximale Ausgabetokens: 1.024
Trainingsdaten: bis Februar 2023
Überwacht: Ja
RLHF: Ja (Vorabversion)
Destillation: Nein
PaLM 2 für Text (text-unicorn) Das erweiterte Textmodell in der PaLM-Modellfamilie zur Verwendung mit komplexen Natural Language-Aufgaben. Maximale Eingabetokens: 8.192
Maximale Ausgabetokens: 1.024
Trainingsdaten: bis Februar 2023
Überwacht: Nein
RLHF: Nein
Destillation: Ja (Vorabversion)
PaLM 2 for Text 32k
(text-bison-32k)
Optimiert, um Anweisungen in natürlicher Sprache zu folgen, und für eine Vielzahl von Sprachaufgaben geeignet. Maximale Tokens (Eingabe + Ausgabe): 32.768
Maximale Ausgabetokens: 8.192
Trainingsdaten: bis August 2023
Überwacht: Ja
RLHF: Nein
Destillation: Nein
PaLM 2 für Chat
(chat-bison)
Bereit für Anwendungsfälle mit Multi-Turn-Unterhaltungen. Maximale Eingabetokens: 8.192
Maximale Ausgabetokens: 2.048
Trainingsdaten: bis Februar 2023
Maximale Anzahl der Schritte: 2.500
Überwacht: Ja
RLHF: Nein
Destillation: Nein
PaLM 2 für Chat 32.000
(chat-bison-32k)
Bereit für Anwendungsfälle mit Multi-Turn-Unterhaltungen. Maximale Tokens (Eingabe + Ausgabe): 32.768
Maximale Ausgabetokens: 8.192
Trainingsdaten: Bis August 2023
Maximale Anzahl der Schritte: 2.500
Überwacht: Ja
RLHF: Nein
Destillation: Nein

Codey APIs-Modelle

In der folgenden Tabelle sind die älteren Modelle der Codey APIs zusammengefasst. Das code-gecko-Codevervollständigungsmodell ist kein altes Modell.

Modellname Beschreibung Modellattribute Unterstützung der Feinabstimmung
Codey für Code Generation
(code-bison)
Ein Modell, das zur Generierung von Code auf Basis einer Beschreibung des gewünschten Codes in natürlicher Sprache optimiert ist Es kann beispielsweise einen Einheitentest für eine Funktion generieren. Maximale Eingabetokens: 6.144
Maximale Ausgabetokens: 1.042
Überwacht: Ja
RLHF: Nein
Destillation: Nein
Codey für Codegenerierung 32.000
(code-bison-32k)
Ein Modell, das zur Generierung von Code auf Basis einer Beschreibung des gewünschten Codes in natürlicher Sprache optimiert ist Es kann beispielsweise einen Einheitentest für eine Funktion generieren. Maximale Tokens (Eingabe + Ausgabe): 32.768
Maximale Ausgabetokens: 8.192
Überwacht: Ja
RLHF: Nein
Destillation: Nein
Codey für Codechat
(codechat-bison)
Ein Modell, das für Chatbot-Unterhaltungen zur Hilfeleistung bei codebezogenen Fragen optimiert ist. Maximale Eingabetokens: 6.144
Maximale Ausgabetokens: 1.042
Überwacht: Ja
RLHF: Nein
Destillation: Nein
Codey für Codechat 32.000
(codechat-bison-32k)
Ein Modell, das für Chatbot-Unterhaltungen zur Hilfeleistung bei codebezogenen Fragen optimiert ist. Maximale Tokens (Eingabe + Ausgabe): 32.768
Maximale Ausgabetokens: 8.192
Überwacht: Ja
RLHF: Nein
Destillation: Nein

Sprachunterstützung

Die Vertex AI PaLM API und die Codey APIs unterstützen die folgenden Legacy-Modelle:

  • Arabisch (ar)
  • Bengalisch (bn)
  • Bulgarisch (bg)
  • Chinesisch, vereinfacht und traditionell (zh)
  • Kroatisch (hr)
  • Tschechisch (cs)
  • Dänisch (da)
  • Niederländisch (nl)
  • Englisch (en)
  • Estnisch (et)
  • Finnisch (fi)
  • Französisch (fr)
  • Deutsch (de)
  • Griechisch (el)
  • Hebräisch (iw)
  • Hindi (hi)
  • Ungarisch (hu)
  • Indonesisch (id)
  • Italienisch (it)
  • Japanisch (ja)
  • Koreanisch (ko)
  • Lettisch (lv)
  • Litauisch (lt)
  • Norwegisch (no)
  • Polnisch (pl)
  • Portugiesisch (pt)
  • Rumänisch (ro)
  • Russisch (ru)
  • Serbisch (sr)
  • Slowakisch (sk)
  • Slowenisch (sl)
  • Spanisch (es)
  • Swahili (sw)
  • Schwedisch (sv)
  • Thailändisch (th)
  • Türkisch (tr)
  • Ukrainisch (uk)
  • Vietnamesisch (vi)

Datum der Einstellung des alten Modells

In der folgenden Tabelle sehen Sie das Einstellungsdatum der Legacy-Modelle:

Chat-bison-Modell Veröffentlicht Einstellungsdatum
chat-bison@002 6. Dezember 2023 9. Oktober 2024
Chat-bison-32k-Modell Veröffentlicht Einstellungsdatum
chat-bison-32k@002 4. Dezember 2023 9. Oktober 2024
Code-Bison-Modell Veröffentlicht Einstellungsdatum
code-bison@002 6. Dezember 2023 9. Oktober 2024
Code-Bison-32k-Modell Veröffentlicht Einstellungsdatum
code-bison-32k@002 4. Dezember 2023 9. Oktober 2024
Codechat-Bison-Modell Veröffentlicht Einstellungsdatum
codechat-bison@002 6. Dezember 2023 9. Oktober 2024
Codechat-Bison-32k-Modell Veröffentlicht Einstellungsdatum
codechat-bison-32k@002 4. Dezember 2023 9. Oktober 2024
text-bison-Modell Veröffentlicht Einstellungsdatum
(text-bison@002) 6. Dezember 2023 9. Oktober 2024
Text-Bison-32k-Modell Veröffentlicht Einstellungsdatum
text-bison-32k@002 4. Dezember 2023 9. Oktober 2024
Text-Unicorn-Modell Veröffentlicht Einstellungsdatum
text-unicorn@001 30. November 2023 Frühestens am 30. November 2024

Legacy-Modelle, die den bereitgestellten Durchsatz unterstützen

In dieser Tabelle sind ältere Modelle aufgeführt, die zugewiesenen Durchsatz unterstützen, der in Zeichen pro Sekunde gemessen wird. Außerdem sind die Mindestabnahmemengen und die Abnahmeraten aufgeführt.

Modell Durchsatz pro GSU Mindestbestellmenge für GSUs Abnahmeraten
text-bison, chat-bison, code-bison, codechat-bison 4.000 5 1 Eingabezeichen = 1 Zeichen
1 Ausgabezeichen = 2 Zeichen
text-unicorn 400 5 1 Eingabezeichen = 1 Zeichen
1 Ausgabezeichen = 3 Zeichen