Chat Completions API は、OpenAI 互換のエンドポイントとして機能します。これは、Python と REST 用の OpenAI ライブラリを使用して、Vertex AI の Gemini とのインターフェースを容易にするように設計されています。すでに OpenAI ライブラリを使用している場合は、この API を使用して、OpenAI モデルと Vertex AI ホストモデルの呼び出しを切り替えることで、既存のコードを変更することなく、出力、コスト、スケーラビリティを比較できます。OpenAI ライブラリを使用していない場合は、Google Gen AI SDK を使用することをおすすめします。
サポートされているモデル
Chat Completions API は、Gemini モデルと、Model Garden から選択したセルフデプロイ モデルの両方をサポートしています。
Google モデルの場合、Chat Completions API は次の OpenAI パラメータをサポートしています。各パラメータの説明については、OpenAI のチャット補完の作成に関するドキュメントをご覧ください。サードパーティ モデルのパラメータのサポートはモデルによって異なります。サポートされているパラメータを確認するには、モデルのドキュメントをご覧ください。
messages
System message
User message: text タイプと image_url タイプがサポートされています。image_url 型は、Cloud Storage URI または "data:<MIME-TYPE>;base64,<BASE64-ENCODED-BYTES>" 形式の Base64 エンコードで保存された画像をサポートします。Cloud Storage バケットを作成してファイルをアップロードする方法については、オブジェクト ストレージを検出するをご覧ください。detail オプションはサポートされていません。
Assistant message
Tool message
Function message: このフィールドは非推奨ですが、下位互換性確保のためにサポートされています。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["わかりにくい","hardToUnderstand","thumb-down"],["情報またはサンプルコードが不正確","incorrectInformationOrSampleCode","thumb-down"],["必要な情報 / サンプルがない","missingTheInformationSamplesINeed","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-09-04 UTC。"],[],[],null,["# Using OpenAI libraries with Vertex AI\n\n| To see an example of using the Chat Completions API,\n| run the \"Call Gemini with the OpenAI Library\" notebook in one of the following\n| environments:\n|\n| [Open in Colab](https://colab.research.google.com/github/GoogleCloudPlatform/generative-ai/blob/main/gemini/chat-completions/intro_chat_completions_api.ipynb)\n|\n|\n| \\|\n|\n| [Open in Colab Enterprise](https://console.cloud.google.com/vertex-ai/colab/import/https%3A%2F%2Fraw.githubusercontent.com%2FGoogleCloudPlatform%2Fgenerative-ai%2Fmain%2Fgemini%2Fchat-completions%2Fintro_chat_completions_api.ipynb)\n|\n|\n| \\|\n|\n| [Open\n| in Vertex AI Workbench](https://console.cloud.google.com/vertex-ai/workbench/deploy-notebook?download_url=https%3A%2F%2Fraw.githubusercontent.com%2FGoogleCloudPlatform%2Fgenerative-ai%2Fmain%2Fgemini%2Fchat-completions%2Fintro_chat_completions_api.ipynb)\n|\n|\n| \\|\n|\n| [View on GitHub](https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/chat-completions/intro_chat_completions_api.ipynb)\n\nThe Chat Completions API works as an Open AI-compatible endpoint, designed to\nmake it easier to interface with Gemini on Vertex AI by\nusing the OpenAI libraries for Python and REST. If you're already using the\nOpenAI libraries, you can use this API as a low-cost way to switch between\ncalling OpenAI models and Vertex AI hosted models to compare\noutput, cost, and scalability, without changing your existing code.\nIf you aren't already using the OpenAI libraries, we recommend that you\n[use the Google Gen AI SDK](/vertex-ai/generative-ai/docs/start/quickstarts/quickstart-multimodal).\n\nSupported models\n----------------\n\nThe Chat Completions API supports both Gemini models and select\nself-deployed models from Model Garden.\n\n### Gemini models\n\nThe following models provide support for the Chat Completions API:\n\n- [Gemini 2.5 Pro](/vertex-ai/generative-ai/docs/models/gemini/2-5-pro)\n- [Gemini 2.5 Flash](/vertex-ai/generative-ai/docs/models/gemini/2-5-flash)\n- [Gemini 2.0 Flash](/vertex-ai/generative-ai/docs/models/gemini/2-0-flash)\n- [Gemini 2.0 Flash-Lite](/vertex-ai/generative-ai/docs/models/gemini/2-0-flash-lite)\n\n### Self-deployed models from Model Garden\n\nThe\n[Hugging Face Text Generation Interface (HF TGI)](https://huggingface.co/docs/text-generation-inference/en/index)\nand\n[Vertex AI Model Garden prebuilt vLLM](http://us-docker.pkg.dev/vertex-ai/vertex-vision-model-garden-dockers/pytorch-vllm-serve)\ncontainers support the Chat Completions API. However,\nnot every model deployed to these containers supports the Chat Completions API.\nThe following table includes the most popular supported models by container:\n\nSupported parameters\n--------------------\n\nFor Google models, the Chat Completions API supports the following OpenAI\nparameters. For a description of each parameter, see OpenAI's documentation on\n[Creating chat completions](https://platform.openai.com/docs/api-reference/chat/create).\nParameter support for third-party models varies by model. To see which parameters\nare supported, consult the model's documentation.\n\nIf you pass any unsupported parameter, it is ignored.\n\n### Multimodal input parameters\n\nThe Chat Completions API supports select multimodal inputs.\n\nIn general, the `data` parameter can be a URI or a combination of MIME type and\nbase64 encoded bytes in the form `\"data:\u003cMIME-TYPE\u003e;base64,\u003cBASE64-ENCODED-BYTES\u003e\"`.\nFor a full list of MIME types, see [`GenerateContent`](/vertex-ai/generative-ai/docs/model-reference/inference#blob).\nFor more information on OpenAI's base64 encoding, see [their documentation](https://platform.openai.com/docs/guides/images-vision#giving-a-model-images-as-input).\n\nFor usage, see our [multimodal input examples](/vertex-ai/generative-ai/docs/migrate/openai/examples#multimodal_input_examples).\n\n### Gemini-specific parameters\n\nThere are several features supported by Gemini that are not available in OpenAI models.\nThese features can still be passed in as parameters, but must be contained within an\n`extra_content` or `extra_body` or they will be ignored.\n\n### `extra_body` features\n\nInclude a `google` field to contain any Gemini-specific\n`extra_body` features. \n\n {\n ...,\n \"extra_body\": {\n \"google\": {\n ...,\n // Add extra_body features here.\n }\n }\n }\n\n### `extra_part` features\n\n`extra_part` lets you specify additional settings at a per-`Part` level.\n\nInclude a `google` field to contain any Gemini-specific\n`extra_part` features. \n\n {\n ...,\n \"extra_part\": {\n \"google\": {\n ...,\n // Add extra_part features here.\n }\n }\n }\n\nWhat's next\n-----------\n\n- Learn more about [authentication and credentialing](/vertex-ai/generative-ai/docs/migrate/openai/auth-and-credentials) with the OpenAI-compatible syntax.\n- See examples of calling the [Chat Completions API](/vertex-ai/generative-ai/docs/migrate/openai/examples) with the OpenAI-compatible syntax.\n- See examples of calling the [Inference API](/vertex-ai/generative-ai/docs/model-reference/inference#examples) with the OpenAI-compatible syntax.\n- See examples of calling the [Function Calling API](/vertex-ai/generative-ai/docs/model-reference/function-calling#examples) with OpenAI-compatible syntax.\n- Learn more about the [Gemini API](/vertex-ai/generative-ai/docs/overview).\n- Learn more about [migrating from Azure OpenAI to the Gemini API](/vertex-ai/generative-ai/docs/migrate/migrate-from-azure-to-gemini)."]]