Gemini 2.0 Flash Thinking は、レスポンスの一部としてモデルが行う「思考プロセス」を生成するようにトレーニングされた試験運用版モデルです。その結果、Gemini 2.0 Flash Thinking は、ベースの Gemini 2.0 Flash モデルよりも回答の推論能力が強化されています。
フラッシュ思考を使用する
Flash Thinking モデルは、Vertex AI で試験運用版モデルとして使用できます。最新の Flash Thinking モデルを使用するには、[モデル] プルダウン メニューで gemini-2.0-flash-thinking-exp-01-21
モデルを選択します。
Gen AI SDK for Python
Google Gen AI SDK for Python のインストールまたは更新方法を確認する。
詳細については、
Gen AI SDK for Python API リファレンス ドキュメントまたは
python-genai
GitHub リポジトリをご覧ください。
Vertex AI で Gen AI SDK を使用するように環境変数を設定します。
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
制限事項
Flash Thinking は試験運用版のモデルであり、次の制限があります。
- 100 万トークンの入力上限
- テキスト、画像、音声、動画の入力
- 64,000 トークンの出力上限
- テキストのみの出力
- 検索やコード実行などの組み込みツールの使用なし
次のステップ
Colab ノートブックで Flash Thinking を試す。または、Vertex AI コンソールを開いて、自分でモデルにプロンプトを出す。