Die Gemini 2.0-Modelle sind die neuesten Google-Modelle, die in Vertex AI unterstützt werden. Auf dieser Seite werden die folgenden Modelle beschrieben:
Informationen zu unserem Gemini 2.0 Flash Thinking-Modell finden Sie in der Gemini 2.0 Flash Thinking-Dokumentation.
2.0-Modelle
2.0 Flash
Gemini 2.0 Flash ist unser neuestes allgemein verfügbares Modell aus der Gemini-Reihe. Es ist unser Arbeitspferd für alle täglichen Aufgaben, bietet eine verbesserte Leistung und unterstützt die Echtzeit-Live-API. 2.0 Flash ist ein Upgrade-Pfad für 1.5 Flash-Nutzer, die ein etwas langsameres Modell mit deutlich besserer Qualität oder 1.5 Pro-Nutzer, die eine etwas bessere Qualität und Echtzeitlatenz zu einem günstigeren Preis wünschen.
Gemini 2.0 Flash bietet die folgenden neuen und verbesserten Funktionen:
- Multimodal Live API:Diese neue API ermöglicht bidirektionale Sprach- und Videointeraktionen mit Gemini bei niedriger Latenz.
- Qualität:Verbesserte Leistung bei den meisten Qualitäts-Benchmarks im Vergleich zu Gemini 1.5 Pro.
- Verbesserte Fähigkeiten von Konversationsagenten: 2.0 Flash bietet Verbesserungen beim multimodalen Verständnis, beim Codieren, beim Befolgen komplexer Anweisungen und beim Aufrufen von Funktionen. Diese Verbesserungen tragen zusammen dazu bei, die Nutzerfreundlichkeit zu erhöhen.
- Neue Modalitäten:In Flash 2.0 sind eine integrierte Bildgenerierung und steuerbare Funktionen für die Text-zu-Sprach-Technologie verfügbar. So können Sie Bilder bearbeiten, lokalisiertes Artwork erstellen und ausdrucksstarke Geschichten erzählen.
Gemini 2.0 Flash-Funktionen:
- Multimodale Eingabe
- Textausgabe (allgemein verfügbar) / multimodale Ausgabe (private Vorschau)
- Prompt-Optimierer
- Gesteuerte Generierung
- Funktionsaufrufe
- Fundierung mit der Google Suche
- Codeausführung
- Token zählen
Verwenden Sie diese Modell-ID, um Gemini 2.0 Flash mit dem Gen AI SDK zu verwenden: gemini-2.0-flash-001
Verfügbarkeit der Funktion
Die folgenden Funktionen sind für Gemini 2.0 Flash verfügbar:
Funktion | Verfügbarkeitsstufe |
---|---|
Textgenerierung | Allgemein verfügbar |
Fundierung mit der Google Suche | Allgemein verfügbar |
Gen AI SDK | Allgemein verfügbar |
Multimodal Live API | Öffentliche Vorschau |
Begrenzungsrahmenerkennung | Öffentliche Vorschau |
Bildgenerierung | Private Vorschau |
Sprachausgabe | Private Vorschau |
- Allgemein verfügbar:Diese Funktion ist öffentlich verfügbar und kann in Code auf Produktionsebene verwendet werden.
- Öffentliche Vorschau:Diese Funktion ist öffentlich mit eingeschränkter Kapazität verfügbar. Verwenden Sie keine Funktionen, die als öffentliche Vorabversion veröffentlicht werden, im Produktionscode, da sich die Supportebene und die Funktionalität dieser Funktion ohne vorherige Ankündigung ändern können.
- Private Vorabversion:Diese Funktion ist nur für Nutzer verfügbar, die auf einer genehmigten Zulassungsliste stehen. Verwenden Sie keine Funktionen, die als private Vorabversion veröffentlicht werden, im Produktionscode, da sich die Supportebene und die Funktionalität dieser Funktion ohne vorherige Ankündigung ändern können.
Preise
Informationen zu den Preisen für Gemini 2.0 Flash finden Sie auf unserer Preisseite.
Kontingente und Limits
Für allgemein verfügbare Funktionen in Gemini 2.0 Flash wird ein dynamisches gemeinsam genutztes Kontingent verwendet.
Die Fundierung mit der Google Suche in Gemini 2.0 Flash unterliegt einer Geschwindigkeitsbegrenzung.
2.0 Flash-Lite
Gemini 2.0 Flash-Lite ist unser schnellstes und kostengünstigstes Flash-Modell. Es ist ein Upgrade-Pfad für Nutzer von 1.5 Flash, die bei gleicher Geschwindigkeit und Preis eine bessere Qualität wünschen.
Gemini 2.0 Flash-Lite umfasst Folgendes:
- Multimodale Eingabe, Textausgabe
- Kontextfenster für die Eingabe von 1 Million Tokens
- Kontextfenster für die Ausgabe von 8.000 Tokens
2.0 Flash-Lite enthält nicht die folgenden 2.0 Flash-Funktionen:
- Multimodale Ausgabegenerierung
- Integration mit der Multimodal Live API
- Denkmodus
- Nutzung des integrierten Tools
Verwenden Sie diese Modell-ID, um Gemini 2.0 Flash-Lite mit dem Gen AI SDK zu verwenden: gemini-2.0-flash-lite-preview-02-05
Kontingente und Limits
Gemini 2.0 Flash-Lite ist während der öffentlichen Vorschau auf 60 Abfragen pro Minute beschränkt.
Gemini 2.0 Flash-Lite ist in Vertex AI nur in der Region us-central1
verfügbar.
2.0 Pro
Gemini 2.0 Pro ist unser leistungsstärkstes Modell für Programmieren und Allgemeinwissen und hat ein Kontextfenster von 2 Millionen Tokens. Gemini 2.0 Pro ist als experimentelles Modell in Vertex AI verfügbar und bietet Nutzern von 1.5 Pro, die eine bessere Qualität wünschen oder besonders an langen Kontexten und Code interessiert sind, die Möglichkeit zum Upgrade.
Gemini 2.0 Pro-Funktionen:
- Multimodale Eingabe
- Textausgabe
- Prompt-Optimierer
- Gesteuerte Generierung
- Funktionsaufrufe (außer Aufrufe von zusammengesetzten Funktionen)
- Fundierung mit der Google Suche
- Codeausführung
- Token zählen
Verwenden Sie diese Modell-ID, um Gemini 2.0 Pro mit dem Gen AI SDK zu verwenden: gemini-2.0-pro-exp-02-05
Kontingente und Limits
Die Rate von Gemini 2.0 Pro ist während der Testphase auf 10 Abfragen pro Minute (QPM) begrenzt.
Die Fundierung mit der Google Suche in Gemini 2.0 Pro unterliegt einem Geschwindigkeitslimit.
Google Gen AI SDK
Das Gen AI SDK bietet über die Gemini Developer API und die Gemini API auf Vertex AI eine einheitliche Benutzeroberfläche für Gemini 2.0. Mit wenigen Ausnahmen kann Code, der auf einer Plattform ausgeführt wird, auf beiden Plattformen ausgeführt werden. Das bedeutet, dass Sie mit der Developer API einen Prototyp einer Anwendung erstellen und dann die Anwendung zu Vertex AI migrieren können, ohne den Code neu schreiben zu müssen.
Das Gen AI SDK unterstützt auch die Gemini 1.5-Modelle.
Das SDK ist in Python allgemein verfügbar. Go wird derzeit in der Vorabversion unterstützt. Java und JavaScript werden demnächst hinzugefügt.
Sie können das SDK wie gezeigt verwenden.
Gen AI SDK für Python
Informationen zum Installieren oder Aktualisieren des Google Gen AI SDK for Python
Weitere Informationen finden Sie in der
Referenzdokumentation zur Gen AI SDK for Python API oder im
python-genai
GitHub-Repository.
Umgebungsvariablen für die Verwendung des Gen AI SDK mit Vertex AI festlegen:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
Optional: Umgebungsvariablen festlegen
Alternativ können Sie den Client mithilfe von Umgebungsvariablen initialisieren. Legen Sie zuerst die entsprechenden Werte fest und exportieren Sie die Variablen:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=YOUR_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True
Anschließend können Sie den Client ohne Argumente initialisieren:
client = genai.Client()