Auf dieser Seite werden die Produktionsaktualisierungen für Generative AI für Vertex AI und Vertex AI Model Garden dokumentiert. Prüfen Sie diese Seite regelmäßig auf Hinweise zu neuen oder aktualisierten Features, Fehlerkorrekturen, bekannten Problemen und verworfenen Funktionen.
22. März 2024
PDFs werden jetzt als Eingabe für das multimodale Sprachmodell von Gemini 1.0 Pro Vision unterstützt. Sie können die APIs direkt mit PDFs aufrufen oder in Vertex AI Studio ausprobieren. Weitere Informationen finden Sie unter Multimodale Prompt-Anfragen mit Bildern oder PDF senden.
19. März 2024
Die Modelle von Anthropic Claude 3 Sonnet und Claude 3 Haiku auf Vertex AI sind allgemein in Vertex AI verfügbar.
Die verwalteten Modelle Claude 3 Haiku und Claude 3 Sonnet von Anthropic sind in Vertex AI verfügbar. Wenn Sie ein Claude-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Weitere Informationen finden Sie unter Claude-Modelle von Anthropic verwenden und die Claude-Modellkarten in Model Garden:
21. Februar 2024
Offene Genom-Modelle sind verfügbar.
Gemma-Modelle, eine Familie einfacher, offener Modelle, die auf derselben Forschung und Technologie basieren wie die Gemini-Modelle, können auf Ihrer Hardware, Ihren Mobilgeräten oder gehosteten Diensten ausgeführt werden. Weitere Informationen finden Sie unter Offene Gemma-Modelle verwenden und auf der Gemma Model Garden-Karte.
15. Februar 2024
Vertex AI Gemini 1.0 Pro und Gemini 1.0 Pro Vision-Modelle
Die multimodalen Sprachmodelle von Vertex AI Gemini 1.0 Pro und Gemini 1.0 Pro Vision sind allgemein verfügbar. Sie wurden auch in den folgenden Regionen zur Verfügung gestellt: europe-west1, europe-west2, europe-west3, europe-west4 und europe-west9.
Weitere Informationen finden Sie unter folgenden Links:
- Übersicht über multimodale Modelle
- Multimodales Prompt-Design
- Referenz zur Vertex AI Gemini API
- Referenz zum Gemini Python SDK
- Von der PaLM API zur Gemini API migrieren
9. Februar 2024
Die Unterstützung von Videos für multimodale Einbettungen ist allgemein verfügbar
Einbettungen für Videodaten sind jetzt mit dem multimodalen Einbettungsmodell (multimodalembedding
) allgemein verfügbar. Weitere Informationen finden Sie in der Produktdokumentation.
Die Preise für diese Features richten sich nach dem verwendeten Modus. Weitere Informationen finden Sie unter Preise.
7. Februar 2024
Model Garden-Updates:
Funktion
Die folgenden Modelle wurden hinzugefügt:
- Stable Diffusion XL LCM: Das LCM (Laten Consistency Model) verbessert die Text-zu-Bild-Generierung in latenten Diffusionsmodellen, da es eine schnellere und hochwertige Bilderstellung mit weniger Schritten ermöglicht.
- Stellen Sie LLaVA 1.5: LLaVA 1.5-Modelle bereit.
- PyTorch-ZipNeRF: Das Pytorch-ZipNeRF-Modell ist eine hochmoderne Implementierung des ZipNeRF-Algorithmus im Pytorch-Framework, die für eine effiziente und genaue 3D-Rekonstruktion aus 2D-Bildern entwickelt wurde.
- LLaMA 2 (Quantisiert): Eine quantisierte Version der Llama 2-Modelle von Meta.
- WizardLM: WizardLM ist ein von Microsoft entwickeltes Large Language Model (LLM), das durch Anpassung der Evol-Instruct-Methode auf komplexe Anweisungen optimiert wurde.
- WizardCoder: WizardCoder ist ein von Microsoft entwickeltes Large Language Model (LLM), das auf komplexe Anweisungen abgestimmt ist, indem die Evol-Instruct-Methode an die Codedomain angepasst wird.
- AutoGluon: Mit AutoGluon können Sie hochpräzise ML- und Deep-Learning-Modelle für tabellarische Daten trainieren und bereitstellen.
- Lama (Large Mask Inpainting): Verwenden Sie Large Mask Inpainting mit schnellen Fourier-Faltungen (FFCs), einem hohen empfänglichen Feldwahrnehmungsverlust und großen Trainingsmasken für auflösungsstarkes Bild-Inpainting.
Geändert
- Es wurden eine Schaltfläche für die Feinabstimmung mit einem Klick sowie dedizierte Notebooks für Bereitstellung, Feinabstimmung, Quantisierung und Bewertung für Llama 2 hinzugefügt.
- Es wurde eine Schaltfläche zur Bereitstellung mit nur einem Klick für mehr als 20 Modelle mit vortrainierten OSS-Artefakten hinzugefügt, darunter
Salesforce/blip-image-captioning-base
undtimbrooks/instruct-pix2pix
. - Unterstützter CodeLlaMA70b mit Notebooks und der Schaltfläche für die Bereitstellung mit einem Klick.
- Abstimmungs-Notebooks für Mistral-Modelle wurden hinzugefügt.
- Es wurden Bereitstellungs-Notebooks für Stable Video Diffusion Img2Vid XT (zu Forschungszwecken) hinzugefügt.
12. Januar 2024
Die Modellabstimmung für die Modelle textembedding-gecko
und textembedding-gecko-multilingual
ist in GA verfügbar. Sie können die überwachte Feinabstimmung verwenden, um das Modell textembedding-gecko
zu optimieren.
Weitere Informationen finden Sie unter Textmodelle einbetten.
8. Januar 2024
AutoSxS wertet LLMs nebeneinander aus
Das automatische Side-by-Side-Evaluierungstool (AutoSxS) ist in der Vorschau verfügbar, um A/B-Tests zur Leistung Ihrer LLMs oder vorab generierten Vorhersagen durchzuführen. Es ist vergleichbar mit menschlichen Evaluatoren, ist aber schneller, bei Bedarf verfügbar und kostengünstiger.
5. Januar 2024
Generative AI in der regionalen Vertex AI-Erweiterung
Generative AI in Vertex AI-Features für Batchvorhersagen und Modellbewertung sind in 12 zusätzlichen Google Cloud-Regionen verfügbar.
18. Dezember 2023
Model Garden-Updates:
- Unterstützung für die Hyperparameter-Abstimmung und benutzerdefinierte Datasets für LLaMA2-Modelle mit dem Dataset-Format, das von der überwachten Abstimmung in Vertex AI verwendet wird.
- Unterstützung für GPTQ-Konvertierungen für Falcon-Anleitungsmodelle
- Fügen Sie Latente konsistente Modelle und Forschungszweck nur SDXL-Turbo-Modelle zu stabilen Diffusion-XL-Notebooks hinzu.
- Fügen Sie Mixtral 8x7B-Modelle im Mistral Notebook hinzu.
13. Dezember 2023
Vertex AI Gemini Pro und Gemini Pro Vision-Modelle
Die multimodalen Sprachmodelle von Vertex AI Gemini Pro und Gemini Pro Vision sind in der Vorschau verfügbar. Weitere Informationen finden Sie unter folgenden Links:
- Übersicht über multimodale Modelle
- Multimodales Prompt-Design
- Referenz zur Vertex AI Gemini API
- Referenz zum Gemini Python SDK
- Von der PaLM API zur Gemini API migrieren
Imagen 2 – Allgemeine Verfügbarkeit
Die 005-Version des Imagen-Bildgenerierungsmodells (imagegeneration@005
) ist allgemein für Bild-Generierungsaufgaben verfügbar. Diese Modellversion ist die Standardversion für Aufgaben zur Bildgenerierung. Weitere Informationen finden Sie in der Produktdokumentation.
Allgemeine Informationen zu Imagen-Modellen und -Versionen finden Sie unter Imagen-Modellversionen und -lebenszyklus.
12. Dezember 2023
Texteinbettungsmodell 003 (textembedding-gecko@003
) verfügbar
Die aktualisierte stabile Version des Basismodells für Texteinbettungen textembedding-gecko@003
ist verfügbar. textembedding-gecko@003
bietet eine bessere Qualität im Vergleich zu den vorherigen stabilen Versionen textembedding-gecko@001
und textembedding-gecko@002
.
Weitere Informationen zu Modellversionen finden Sie unter Modellversionen und Lebenszyklus.
08. Dezember 2023
Aktualisierung der generativen KI in Vertex AI-Sicherheitseinstellungen
Die AXT-Sicherheitssteuerung (Access Transparency) ist für die folgenden Features verfügbar:
- Einbettungen für multimodale Onlinevorhersagen
- Imagen in Vertex AI-Onlinevorhersage
- Imagen in Vertex AI-Abstimmung
6. Dezember 2023
Aktualisierte Textmodelle
Die Version @002
der Modelle für Text, Chat, Code und Code-Chat ist verfügbar. Die @002
-Modellversionen enthalten verbesserte Prompt-antworten.
Die @002
-Modelle sind:
text-bison@002
chat-bison@002
code-bison@002
codechat-bison@002
Damit Sie immer die Modellversion, die stabil verwenden, geben Sie die Modellkennzeichnung mit der Versionsnummer an. Beispiel: text-bison@002
. Weitere Informationen finden Sie unter Modellversionen und Lebenszyklus.
5. Dezember 2023
Funktion
Modell-Fundierung ist in der Vorschau verfügbar. Verwenden Sie Fundierung, um die Modelle text-bison
und chat-bison
mit unstrukturierten Datenspeichern in Vertex AI Search zu verbinden.
Mit Fundierung können Modelle auf die Informationen in den Daten-Repositories zugreifen und diese verwenden, um erweiterte und differenzierte Antworten zu generieren.
Weitere Informationen finden Sie unter Fundierungsübersicht.
1. Dezember 2023
Ändern
Die folgenden model_garden_name-Aktualisierungen sind verfügbar:
- Aktualisierte Standardbereitstellungseinstellungen für L4-GPUs wie LLaMA2, falcon-instruct, openllama, Stable Diffusion 1.5, 2.1 und XL.
- Unterstützung für die Hyperparameter-Abstimmung und benutzerdefinierte Datasets für LLaMA2-Modelle mit dem Dataset-Format, das von der überwachten Feinabstimmung in Vertex AI verwendet wird.
- Empfohlene LoRA- und QLoRA-Einstellungen für die Abstimmung von großen Sprachmodellen in Vertex AI. Weitere Informationen finden Sie unter LoRA- und QLoRA-Empfehlungen für LLLs.
- Unterstützung für AWQ- und GPTQ-Konvertierungen für LLaMA2- und OpenLLaMA-Modelle
- Benchmarkberichte für ViT pytorch und JAX-Training, Openllama7b-Abstimmung, OpenLLaMA 3b/7b/13b Hyperparameter-Abstimmung und Stabile 1.5-Abstimmung und -Bereitstellung.
30. November 2023
Funktion
Eine Modellgröße für PaLM 2 for Text ist allgemein verfügbar (GA). Das text-unicorn
-Modell bietet eine bessere Antwortqualität für eine Reihe komplexerer Grundaufgaben im Vergleich zum text-bison
-Modell. Weitere Informationen finden Sie unter Modellinformationen.
17. November 2023
ComputeToken API ist in der Vorschau verfügbar
Die ComputeToken API ist in der (Vorschau) verfügbar. Mit dieser API können Sie eine Liste von Tokens für einen bestimmten Prompt abrufen. Ein Token ist eine Möglichkeit, eine gemeinsame Folge von Zeichen in einer Texteingabe darzustellen. Weitere Informationen finden Sie unter Liste der Tokens abrufen.
10. November 2023
Generative AI in Vertex AI
Sicherheitskontrollen sind für zusätzliche Features der generativen KI in Vertex AI verfügbar.
3. November 2023
Model Garden-Updates
Funktion
Die folgenden Modelle wurden zu Model Garden hinzugefügt:
- ImageBind: Multimodales Einbettungsmodell.
- Vicuna v1.5: abgestimmtes LLM basierend auf llama2.
- OWL-ViT v2: Offenes Vokabular-Objekterkennungsmodell von SoTA.
- DITO: SoTA Model für offene Vokabularerkennungsaufgaben.
- NLLB: Mehrsprachiges Übersetzungsmodell.
- Mistral-7B: SoTA LLM in kleiner Größe.
- BioGPT: LLM wurde für die biomedizinische Bereich optimiert.
- BiomedCILP: Multimodales Foundation Modell, das für die biomedizinische Bereich optimiert wurde
Eine Liste aller verfügbaren Modelle finden Sie unter Modelle in Model Garden entdecken.
Geändert
- Verbesserter Bereitstellungs-Durchsatz von Sprachmodellen Weitere Informationen finden Sie unter Open-Source-Large Language Models auf Model Garden effizient bereitstellen. Die Notebooks in den entsprechenden Modellkarten wurden entsprechend aktualisiert.
- Inferenz im Vergleich zur ursprünglichen Implementierung für Stable Diffusion 1.5-, 2.1- und XL-Modelle bis zu zweimal schneller.
- Der Workflow der Schaltfläche Bereitstellen in allen unterstützten Modellkarten wurde verbessert.
- Aktualisierte die Notebooks für Llama2, OpenLlama und Falcon Instruct mit vorgeschlagenen Maschinenspezifikation für die Modellbereitstellung und mit dem Bewertungs-Harnisch Dockers von EleutherAI für die Modellbewertung.
Neue stabile Modellversionen textembedding-gecko
und textembedding-gecko-multilingual
Die folgenden stabilen Modellversionen sind in der generativen KI in Vertex AI verfügbar:
textembedding-gecko@002
textembedding-gecko-multilingual@001
Weitere Informationen zu Modellversionen finden Sie unter Modellversionen und Lebenszyklus.
2. November 2023
Auf generative KI in Vertex AI kann über 12 regionale APIs in Nordamerika, Europa und Asien zugegriffen werden. Mit regionalen APIs können Kunden steuern, wo Daten im Ruhezustand gespeichert werden.
3. November 2023
Die Modellabstimmung für chat-bison@001
ist allgemein verfügbar (GA).
Die Abstimmung chat-bison@001
unterstützt TensorBoard-Messwertvisualisierungen. Weitere Informationen finden Sie unter Messwerte zur Abstimmung und Evaluierung.
4. Oktober 2023
Die Modelloptimierung für textembedding-gecko
ist in der Vorschau verfügbar
Sie können jetzt die überwachte Abstimmung verwenden, um das textembedding-gecko
-Modell zu optimieren. Dieses Feature befindet sich in der (Vorschau).
Weitere Informationen finden Sie unter Textmodelle einbetten.
1. September 2023
Preisaktualisierung
Die Preise für text-bison
wurden auf 0,0005 $ pro 1.000 Eingabe- und Ausgabezeichen reduziert. Weitere Informationen finden Sie unter Vertex AI-Preise.
29. August 2023
Neue Modelle der generativen KI für Vertex AI und erweiterte Sprachunterstützung
Die Generative AI für Vertex AI wurde aktualisiert. Sie beinhaltet neue Sprachmodellkandidaten (neueste Modelle), Sprachmodelle, die Eingabe- und Ausgabetokens von bis zu 32.000 unterstützen, und weitere unterstützte Sprachen. Weitere Informationen finden Sie unter Verfügbare Modelle und Modellversionen und Lebenszyklus.
Streamantworten von Modellen der generativen KI.
Die Unterstützung für das Streaming von Modellen der generativen KI ist allgemein verfügbar (GA). Nachdem Sie einen Prompt gesendet haben, gibt das Modell Antworttokens so zurück, wie sie generiert werden, anstatt auf die Verfügbarkeit der gesamten Ausgabe zu warten.
Unterstützte Modelle sind:
text-bison
chat-bison
code-bison
codechat-bison
Weitere Informationen finden Sie unter Antworten von Modellen der generativen KI streamen.
Die überwachte Abstimmung für das Modell text-bison
ist allgemein verfügbar.
Die überwachte Abstimmung für das Modell text-bison
ist allgemein verfügbar (GA).
Die Modellabstimmung für das Modell chat-bison
ist jetzt in der Vorschau verfügbar
Sie können jetzt die überwachte Abstimmung verwenden, um das chat-bison
-Modell zu optimieren. Dieses Feature befindet sich in der (Vorschau).
Weitere Informationen finden Sie unter Textmodelle verfeinern.
Neues Einbettungsmodell in der Vorschau verfügbar
Die Nutzer von Generative AI in Vertex AI können nun Einbettungen mit einem neuen Modell erstellen, das mit einer Vielzahl von nicht englischsprachigen Sprachen trainiert wurde. Das Modell befindet sich in der (Vorschau).
textembedding-gecko-multilingual
Weitere Informationen finden Sie unter Texteinbettungen abrufen.
Imagen Themenabstimmung und Stilabstimmung jetzt allgemein verfügbar (GA)
Imagen in Vertex AI bietet die folgenden GA-Features:
- Subject-Modellabstimmung (Standardabstimmung)*
- Stil-Modelabstimmung*
* Funktion für eingeschränkten Zugriff
Weitere Informationen zu Imagen in Vertex AI oder zum Zugriff auf eingeschränkte GA finden Sie in der Übersicht zu Imagen in Vertex AI.
Bestärkendes Lernen durch die Feinabstimmung menschlichen Feedbacks (RLHF) für text-bison
Das Textgenerierungsmodell (text-bison
) von Generative AI in Vertex AI unterstützt jetzt die RLHF-Abstimmung. Die RLHF-Abstimmungsfunktion befindet sich in der (Vorschau).
Weitere Informationen finden Sie unter RLHF-Modellabstimmung verwenden.
Sprachunterstützung für Vertex AI Codey APIs
Vertex AI Codey APIs unterstützen zusätzliche Programmiersprachen. Weitere Informationen finden Sie unter Unterstützte Programmiersprachen.
Vertex AI Codey APIs unterstützen überwachte Abstimmung
Der Code-Chat (codechat-bison
) und Codegenerierung (code-bison
)
Die Vertex AI Codey APIs-Modelle unterstützen die überwachte Abstimmung. Die Überwachung der Feinabstimmung für die Modelle der Vertex AI Codey APIs befindet sich in der (Vorschau). Weitere Informationen finden Sie unter Codemodelle verfeinern.
Messwertbasierte Modellbewertung
Sie können die Leistung von Foundation Models und abgestimmten Modellen anhand eines Bewertungs-Datasets für die Klassifizierung, Zusammenfassung, Beantwortung von Fragen und allgemeine Textgenerierung bewerten. Dieses Feature ist in der (Vorschau) verfügbar.
Weitere Informationen finden Sie unter Modellleistung bewerten.
CountToken API in der Vorschau verfügbar
Die CountToken API ist in der (Vorschau) verfügbar. Mit dieser API können Sie die Anzahl der Tokens und die Anzahl der abrechenbaren Zeichen für einen Prompt abrufen. Weitere Informationen finden Sie unter Tokenanzahl abrufen.
9. August 2023
Multimodale Imagen-Einbettungen in GA verfügbar
Imagen in Vertex AI bietet das folgende GA-Feature:
- Multimodale Einbettungen
Für diese Funktion fallen andere Preise an, je nachdem, ob Sie eine Bild- oder Texteingabe verwenden. Weitere Informationen finden Sie auf der Funktionsseite Multimodale Einbettungen.
21. August 2023
Aktualisierung des Parameters zur Modellabstimmung
Modellabstimmungsjobs akzeptieren optionale Parameter für die Modellbewertung und die Einbindung von Vertex AI TensorBoard. So können Sie Ihr Modell bewerten und Visualisierungen mit einem einzigen Befehl generieren. Weitere Informationen finden Sie unter Modellabstimmungsjob erstellen.
28. Juli 2023
Aktualisierung des Parameters zur Modellabstimmung
Der Parameter learning_rate
bei der Modellabstimmung ist jetzt learning_rate_multiplier
.
Wenn Sie die Standard-Lernrate des Modells oder der Abstimmungsmethode verwenden möchten, verwenden Sie den Standardwert learning_rate_multiplier
von 1.0
.
Wenn Sie learning_rate
noch nicht konfiguriert haben, sind keine Maßnahmen erforderlich.
Wenn Sie tuning_method=tune_v2
mit der Pipelinevorlage v2.0.0 (Python SDK v1.28.1+) verwenden, beträgt die empfohlene Lernrate 0,0002. So konvertieren Sie Ihr benutzerdefiniertes learning_rate
in learning_rate_multiplier
:
learing_rate_multiplier = custom_learning_rate_value / 0.0002
18. Juli 2023
Updates der Modelloptimierung für text-bison
- Die aktualisierte Abstimmungspipeline bietet eine effizientere Abstimmung und eine bessere Leistung für Text-bison.
- Neue Optimierungsregion (
us-central1
) mit GPU-Unterstützung verfügbar. - Mit dem neuen
learning_rate
-Parameter können Sie die Schrittgröße bei jedem Durchlauf anpassen.
Weitere Informationen finden Sie unter Spracherkennungsmodelle vefeinern.
Chirp GA
Chirp ist allgemein verfügbar. Weitere Informationen finden Sie auf den folgenden Seiten:
17. Juli 2023
Imagen in allgemein verfügbaren Vertex AI-Features
Imagen in Vertex AI bietet die folgenden GA-Features:
- Bildgenerierung (Text-zu-Image-Generierung)*
- Bildbearbeitung*
- Visuelle Untertitel für Bilder
- Visual Question Answering (VQA)
* Funktion für eingeschränkten Zugriff
Weitere Informationen zu Imagen oder zum Zugriff auf eingeschränkte GA- oder Vorschau-Features finden Sie in der Übersicht zu Imagen in Vertex AI.
Generierung von Gesichtern wird unterstützt
Imagen unterstützt die Generierung menschlicher Gesichter für die folgenden Features:
* Funktion für eingeschränkten Zugriff
Die Generierung von Gesichtern ist standardmäßig aktiviert, mit Ausnahme von Bildern mit Kinder oder Prominenten. Weitere Informationen finden Sie in den Nutzungsrichtlinien.
Support in weiteren Sprachen
Die Vertex AI PaLM API unterstützt die folgenden Sprachen:
- Spanisch (es)
- Koreanisch (ko)
- Hindi (hi)
- Chinesisch (zh)
Eine vollständige Liste der unterstützten Sprachen finden Sie unter Unterstützte Sprachen.
13. Juli 2023
Batchunterstützung für PaLM 2 für Text
Unterstützung für Batch-Text (text-bison
)-Anfragen ist in (GA) verfügbar.
Sie können sich die Preise für das Modell chat-bison
auf der Seite Vertex AI – Preise ansehen.
10. Juli 2023
PaLM 2 für Chat
Unterstützung für Google Chat (chat-bison
) ist in (GA verfügbar.
Sie können sich die Preise für das Modell chat-bison
auf der Seite Vertex AI – Preise ansehen.
29. Juni 2023
Vertex AI Codey APIs
Vertex AI Codey APIs sind allgemein verfügbar (GA). Verwenden Sie die Vertex AI Codey APIs, um Lösungen mit Codegenerierung, Codevervollständigung und Codechat zu erstellen. Da die Vertex AI Codey APIs allgemein verfügbar sind, fallen Nutzungskosten an, wenn Sie sie verwenden. Weitere Informationen zu den Preisen finden Sie in der Preisübersicht für Generative AI auf Vertex AI.
Die Modelle in dieser Version umfassen:
code-bison
(Codegenerierung)codechat-bison
(Codechat)code-gecko
(Codevervollständigung)
Die maximalen Tokens für die Eingabe wurden von 4.096 auf 6.144 Tokens für code-bison
und codechat-bison
erhöht, um längere Eingabeaufforderungen und das Chatprotokoll zu ermöglichen. Die maximalen Tokens für die Ausgabe wurden von 1.024 auf 2.048 für code-bison
und codechat-bison
erhöht, um längere Antworten zu ermöglichen.
Weitere Programmiersprachen werden unterstützt. Weitere Informationen finden Sie unter Unterstützte Programmiersprachen.
Mehrere Feinabstimmungs-Datasets wurden aus den Modellen code-bison
und codechat-bison
entfernt, um die folgenden Verbesserungen zu implementieren:
- Übertriebenes Gerede.
- Artefakte, z. B. NBSP-Zeichen (nicht kompatible Leerzeichen).
- Code-Antworten von geringer Qualität.
Weitere Informationen zu Cloud-Horizontalen finden Sie unter Vertex AI-Zertifizierungen.
15. Juni 2023
PaLM 2 für Chat
Das Modell chat-bison
wurde aktualisiert, um der Anleitung im Feld context
besser zu folgen. Weitere Informationen zum Erstellen von Chat-Prompts für chat-bison
finden Sie unter Chat-Prompts erstellen.
7. Juni 2023
PaLM Text und Embeddings APIs und Vertex AI Studio
Generative AI in Vertex AI ist jetzt in (GA) verfügbar.
Mit diesem Feature können Sie die Vertex AI PaLM API verwenden, um KI-Modelle zu generieren, die Sie in Ihren KI-gestützten Anwendungen testen, optimieren und bereitstellen können.
Da diese Features allgemein verfügbar sind, fallen Nutzungskosten an, wenn Sie die PaLM API text-bison
und textembedding-gecko
verwenden. Informationen zu Preisen finden Sie auf der Seite Vertex AI – Preise.
Zu den Features und Modellen in dieser Version gehören:
- PaLM 2 für Text:
text-bison
- Einbettung für Text:
textembedding-gecko
- Vertex AI Studio für Sprache
Model Garden
Model Garden ist in (GA) verfügbar. Model Garden ist eine Plattform, mit der Sie Vertex AI ermitteln, testen, anpassen und bereitstellen sowie OSS-Modelle auswählen können. Diese Modelle reichen von einstellbar bis aufgabenspezifisch und sind alle auf der Seite „Model Garden“ in der Google Cloud Console verfügbar.
Informationen zum Einstieg finden Sie unter KI-Modelle und APIs in Model Garden entdecken.
Vertex AI Codey APIs
Die Vertex AI Codey APIs befinden sich in der (Vorschau).
Mit den Codey APIs können APIs, Codegenerierung, Codevervollständigung und Codechats aus jedem Google Cloud-Projekt ohne Zulassungsliste verwendet werden. Auf die APIs kann über die Region us-central1
zugegriffen werden. Die Codey APIs können in Vertex AI Studio oder programmatisch in REST-Befehlen verwendet werden.
Informationen zum Einstieg finden Sie in der Übersicht: Codemodelle.
10. Mai 2023
Generative AI in Vertex AI
Generative AI in Vertex AI ist jetzt in der Vorschau verfügbar. Mit diesem Feature können Sie die Vertex AI PaLM API verwenden, um KI-Modelle zu generieren, die Sie in Ihren KI-gestützten Anwendungen testen, optimieren und bereitstellen können.
Zu den Features und Modellen in dieser Version gehören:
- PaLM 2 für Text:
text-bison
- PaLM 2 für Chat:
chat-bison
- Einbettung für Text:
textembedding-gecko
- Vertex AI Studio für Sprache
- Feinabstimmung für PaLM 2
- Vertex AI SDK Version 1.25, das neue Features enthält, z. B. TextGenerationModel (
text-bison
), ChatModel (chat-bison
), TextEmbeddingModel (textembedding-gecko@001
)
Sie können mit den generativen KI-Features der generativen KI in Vertex AI interagieren, indem Sie Vertex AI Studio in der Google Cloud Console, die Vertex AI API und das Vertex AI SDK für Python verwenden.
- Generative AI für Vertex AI.
- Einführung in Vertex AI Studio
- Erste Schritte mit einer Vertex AI Studio-Kurzanleitung.
Model Garden
Model Garden ist in der Vorschau verfügbar. Model Garden ist eine Plattform, mit der Sie Vertex AI ermitteln, testen, anpassen und bereitstellen sowie OSS-Modelle auswählen können. Diese Modelle reichen von einstellbar bis aufgabenspezifisch – alle auf der Seite „Model Garden“ in der Google Cloud Console verfügbar.