Gemini 2.0

Die Gemini 2.0-Modelle sind die neuesten Google-Modelle, die in Vertex AI unterstützt werden. Auf dieser Seite werden die folgenden Modelle beschrieben:

Informationen zu unserem Gemini 2.0 Flash Thinking-Modell finden Sie in der Gemini 2.0 Flash Thinking-Dokumentation.

2.0-Modelle

2.0 Flash

Gemini 2.0 Flash ist unser neuestes allgemein verfügbares Modell aus der Gemini-Reihe. Es ist unser Arbeitspferd für alle täglichen Aufgaben, bietet eine verbesserte Leistung und unterstützt die Echtzeit-Live-API. 2.0 Flash ist ein Upgrade-Pfad für 1.5 Flash-Nutzer, die ein etwas langsameres Modell mit deutlich besserer Qualität oder 1.5 Pro-Nutzer, die eine etwas bessere Qualität und Echtzeitlatenz zu einem günstigeren Preis wünschen.

Gemini 2.0 Flash bietet die folgenden neuen und verbesserten Funktionen:

  • Multimodal Live API:Diese neue API ermöglicht bidirektionale Sprach- und Videointeraktionen mit Gemini bei niedriger Latenz.
  • Qualität:Verbesserte Leistung bei den meisten Qualitäts-Benchmarks im Vergleich zu Gemini 1.5 Pro.
  • Verbesserte Fähigkeiten von Konversationsagenten: 2.0 Flash bietet Verbesserungen beim multimodalen Verständnis, beim Codieren, beim Befolgen komplexer Anweisungen und beim Aufrufen von Funktionen. Diese Verbesserungen tragen zusammen dazu bei, die Nutzerfreundlichkeit zu erhöhen.
  • Neue Modalitäten:In Flash 2.0 sind eine integrierte Bildgenerierung und steuerbare Funktionen für die Text-zu-Sprach-Technologie verfügbar. So können Sie Bilder bearbeiten, lokalisiertes Artwork erstellen und ausdrucksstarke Geschichten erzählen.

Gemini 2.0 Flash-Funktionen:

  • Multimodale Eingabe
  • Textausgabe (allgemein verfügbar) / multimodale Ausgabe (private Vorschau)
  • Prompt-Optimierer
  • Gesteuerte Generierung
  • Funktionsaufrufe
  • Fundierung mit der Google Suche
  • Codeausführung
  • Token zählen

Verwenden Sie diese Modell-ID, um Gemini 2.0 Flash mit dem Gen AI SDK zu verwenden: gemini-2.0-flash-001

Verfügbarkeit der Funktion

Die folgenden Funktionen sind für Gemini 2.0 Flash verfügbar:

Funktion Verfügbarkeitsstufe
Textgenerierung Allgemein verfügbar
Fundierung mit der Google Suche Allgemein verfügbar
Gen AI SDK Allgemein verfügbar
Multimodal Live API Öffentliche Vorschau
Begrenzungsrahmenerkennung Öffentliche Vorschau
Bildgenerierung Private Vorschau
Sprachausgabe Private Vorschau
  • Allgemein verfügbar:Diese Funktion ist öffentlich verfügbar und kann in Code auf Produktionsebene verwendet werden.
  • Öffentliche Vorschau:Diese Funktion ist öffentlich mit eingeschränkter Kapazität verfügbar. Verwenden Sie keine Funktionen, die als öffentliche Vorabversion veröffentlicht werden, im Produktionscode, da sich die Supportebene und die Funktionalität dieser Funktion ohne vorherige Ankündigung ändern können.
  • Private Vorabversion:Diese Funktion ist nur für Nutzer verfügbar, die auf einer genehmigten Zulassungsliste stehen. Verwenden Sie keine Funktionen, die als private Vorabversion veröffentlicht werden, im Produktionscode, da sich die Supportebene und die Funktionalität dieser Funktion ohne vorherige Ankündigung ändern können.

Preise

Informationen zu den Preisen für Gemini 2.0 Flash finden Sie auf unserer Preisseite.

Kontingente und Limits

Für allgemein verfügbare Funktionen in Gemini 2.0 Flash wird ein dynamisches gemeinsam genutztes Kontingent verwendet.

Die Fundierung mit der Google Suche in Gemini 2.0 Flash unterliegt einer Geschwindigkeitsbegrenzung.

2.0 Flash-Lite

Gemini 2.0 Flash-Lite ist unser schnellstes und kostengünstigstes Flash-Modell. Es ist ein Upgrade-Pfad für Nutzer von 1.5 Flash, die bei gleicher Geschwindigkeit und Preis eine bessere Qualität wünschen.

Gemini 2.0 Flash-Lite umfasst Folgendes:

  • Multimodale Eingabe, Textausgabe
  • Kontextfenster für die Eingabe von 1 Million Tokens
  • Kontextfenster für die Ausgabe von 8.000 Tokens

2.0 Flash-Lite enthält nicht die folgenden 2.0 Flash-Funktionen:

  • Multimodale Ausgabegenerierung
  • Integration mit der Multimodal Live API
  • Denkmodus
  • Nutzung des integrierten Tools

Verwenden Sie diese Modell-ID, um Gemini 2.0 Flash-Lite mit dem Gen AI SDK zu verwenden: gemini-2.0-flash-lite-preview-02-05

Kontingente und Limits

Gemini 2.0 Flash-Lite ist während der öffentlichen Vorschau auf 60 Abfragen pro Minute beschränkt.

Gemini 2.0 Flash-Lite ist in Vertex AI nur in der Region us-central1 verfügbar.

2.0 Pro

Gemini 2.0 Pro ist unser leistungsstärkstes Modell für Programmieren und Allgemeinwissen und hat ein Kontextfenster von 2 Millionen Tokens. Gemini 2.0 Pro ist als experimentelles Modell in Vertex AI verfügbar und bietet Nutzern von 1.5 Pro, die eine bessere Qualität wünschen oder besonders an langen Kontexten und Code interessiert sind, die Möglichkeit zum Upgrade.

Gemini 2.0 Pro-Funktionen:

  • Multimodale Eingabe
  • Textausgabe
  • Prompt-Optimierer
  • Gesteuerte Generierung
  • Funktionsaufrufe (außer Aufrufe von zusammengesetzten Funktionen)
  • Fundierung mit der Google Suche
  • Codeausführung
  • Token zählen

Verwenden Sie diese Modell-ID, um Gemini 2.0 Pro mit dem Gen AI SDK zu verwenden: gemini-2.0-pro-exp-02-05

Kontingente und Limits

Die Rate von Gemini 2.0 Pro ist während der Testphase auf 10 Abfragen pro Minute (QPM) begrenzt.

Die Fundierung mit der Google Suche in Gemini 2.0 Pro unterliegt einem Geschwindigkeitslimit.

Google Gen AI SDK

Das Gen AI SDK bietet über die Gemini Developer API und die Gemini API auf Vertex AI eine einheitliche Benutzeroberfläche für Gemini 2.0. Mit wenigen Ausnahmen kann Code, der auf einer Plattform ausgeführt wird, auf beiden Plattformen ausgeführt werden. Das bedeutet, dass Sie mit der Developer API einen Prototyp einer Anwendung erstellen und dann die Anwendung zu Vertex AI migrieren können, ohne den Code neu schreiben zu müssen.

Das Gen AI SDK unterstützt auch die Gemini 1.5-Modelle.

Das SDK ist in Python allgemein verfügbar. Go wird derzeit in der Vorabversion unterstützt. Java und JavaScript werden demnächst hinzugefügt.

Sie können das SDK wie gezeigt verwenden.

Gen AI SDK für Python

Informationen zum Installieren oder Aktualisieren des Google Gen AI SDK for Python
Weitere Informationen finden Sie in der Referenzdokumentation zur Gen AI SDK for Python API oder im python-genaiGitHub-Repository.
Umgebungsvariablen für die Verwendung des Gen AI SDK mit Vertex AI festlegen:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions

client = genai.Client(http_options=HttpOptions(api_version="v1"))
response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="How does AI work?",
)
print(response.text)
# Example response:
# Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#
# Here's a simplified overview:
# ...

Optional: Umgebungsvariablen festlegen

Alternativ können Sie den Client mithilfe von Umgebungsvariablen initialisieren. Legen Sie zuerst die entsprechenden Werte fest und exportieren Sie die Variablen:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=YOUR_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

Anschließend können Sie den Client ohne Argumente initialisieren:

client = genai.Client()