Gemini 2.0 Flash Thinking ist ein experimentelles Modell, das darauf trainiert ist, den „Denkprozess“ zu generieren, den das Modell als Teil seiner Antwort durchläuft. Daher ist Gemini 2.0 Flash Thinking in seinen Antworten logischere Schlussfolgerungen fähig als das Basismodell Gemini 2.0 Flash.
Schnelles Denken
Modelle für den schnellen Denken sind in Vertex AI als experimentelles Modell verfügbar.
Wenn Sie das neueste Modell für schnelles Denken verwenden möchten, wählen Sie im Drop-down-Menü Modell das Modell gemini-2.0-flash-thinking-exp-01-21
aus.
Gen AI SDK für Python
Informationen zum Installieren oder Aktualisieren des Google Gen AI SDK for Python
Weitere Informationen finden Sie in der
Referenzdokumentation zur Gen AI SDK for Python API oder im
python-genai
GitHub-Repository.
Umgebungsvariablen für die Verwendung des Gen AI SDK mit Vertex AI festlegen:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
Beschränkungen
Flash Thinking ist ein experimentelles Modell und unterliegt den folgenden Einschränkungen:
- Eingabelimit von 1 Million Tokens
- Text-, Bild-, Audio- und Videoeingaben
- Ausgabelimit von 64.000 Tokens
- Nur Textausgabe
- Keine Verwendung von integrierten Tools wie der Suche oder der Codeausführung
Nächste Schritte
Sie können Flash Thinking mit unserem Colab-Notebook ausprobieren oder die Vertex AI-Konsole öffnen und das Modell selbst fragen.