Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
L'API Chat Completions fonctionne comme un point de terminaison compatible avec Open AI et conçu pour faciliter l'interaction avec Gemini sur Vertex AI à l'aide des bibliothèques Open AI pour Python et REST. Si vous utilisez déjà les bibliothèques OpenAI, vous pouvez utiliser cette API pour passer de l'appel de modèles OpenAI à l'appel de modèles hébergés par Vertex AI afin d'en comparer la sortie, les coûts et l'évolutivité, sans modifier votre code existant.
Cela garantit la compatibilité avec divers fournisseurs et la cohérence avec les règles de la communauté. Si vous n'utilisez pas encore les bibliothèques OpenAI, nous vous recommandons d'utiliser le SDK Google Gen AI.
Modèles compatibles
L'API Chat Completions est compatible avec les modèles Gemini et certains modèles auto-déployés de Model Garden.
Modèles Gemini
Les modèles suivants sont compatibles avec l'API Chat Completions :
Modèles déployés automatiquement à partir de Model Garden
Les conteneurs pour HuggingFace Text Generation Interface (HF TGI) et les vLLM Vertex AI Model Garden prédéfinis sont compatibles avec l'API Chat Completions. Toutefois, tous les modèles déployés dans ces conteneurs ne sont pas compatibles avec l'API Chat Completions.
Le tableau suivant inclut les modèles compatibles les plus populaires par conteneur :
Pour les modèles Google, l'API Chat Completions est compatible avec les paramètres OpenAI suivants. Pour obtenir une description de chaque paramètre, consultez la documentation d'OpenAI sur la création de complétion de chat.
La disponibilité des paramètres pour les modèles tiers varie selon les modèles. Pour connaître les paramètres acceptés, consultez la documentation du modèle concerné.
messages
System message
User message : les types text et image_url sont acceptés. Le type image_url accepte les images stockées dans un URI Cloud Storage ou un encodage en base64 au format "data:<MIME-TYPE>;base64,<BASE64-ENCODED-BYTES>". Pour apprendre à créer un bucket Cloud Storage et à y importer un fichier, consultez Découvrir le stockage d'objets.
L'option detail n'est pas prise en charge.
Assistant message
Tool message
Function message : ce champ est obsolète, mais reste disponible pour des raisons de rétrocompatibilité.
model
max_tokens
n
frequency_penalty
presence_penalty
response_format
json_object : interprété comme une transmission de "application/json" à l'API Gemini.
text : interprété comme une transmission de "text/plain" à l'API Gemini.
Tout autre type MIME est transmis tel quel au modèle, ce qui revient à transmettre "application/json" directement.
stop
stream
temperature
top_p
tools
type
function
name
description
parameters : spécifiez les paramètres à l'aide de la spécification OpenAPI.
Cela diffère du champ de paramètres OpenAI, qui est décrit comme un objet de schéma JSON. Pour en savoir plus sur les différences de mots clés entre OpenAPI et les schémas JSON, consultez le guide OpenAPI.
tool_choice
none
auto
required : correspond au mode ANY dans FunctionCallingConfig.
function_call
Ce champ est obsolète, mais reste disponible pour des raisons de rétrocompatibilité.
functions
Ce champ est obsolète, mais reste disponible pour des raisons de rétrocompatibilité.
Si vous transmettez un paramètre non accepté, il est ignoré.
Paramètres spécifiques à Gemini
Plusieurs caractéristiques compatibles avec Gemini ne sont pas disponibles dans les modèles OpenAI.
Celles-ci peuvent toujours être transmises en tant que paramètres, mais doivent être contenues dans un extra_content ou un extra_body. Dans le cas contraire, elles seront ignorées.
Caractéristique extra_body
safety_settings
Cela correspond à l'élément SafetySetting de Gemini.
Permet de séparer les réflexions d'un modèle de ses réponses pour les modèles à raisonnement. Si cet élément n'est pas spécifié, aucun tag n'est renvoyé pour les réflexions du modèle. S'il l'est, les requêtes suivantes supprimeront les tags de réflexion et marqueront les réflexions de manière appropriée pour le contexte. Cela permet de conserver le contexte adéquat pour les requêtes suivantes.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[],[],null,["# Using OpenAI libraries with Vertex AI\n\n| To see an example of using the Chat Completions API,\n| run the \"Call Gemini with the OpenAI Library\" notebook in one of the following\n| environments:\n|\n| [Open in Colab](https://colab.research.google.com/github/GoogleCloudPlatform/generative-ai/blob/main/gemini/chat-completions/intro_chat_completions_api.ipynb)\n|\n|\n| \\|\n|\n| [Open in Colab Enterprise](https://console.cloud.google.com/vertex-ai/colab/import/https%3A%2F%2Fraw.githubusercontent.com%2FGoogleCloudPlatform%2Fgenerative-ai%2Fmain%2Fgemini%2Fchat-completions%2Fintro_chat_completions_api.ipynb)\n|\n|\n| \\|\n|\n| [Open\n| in Vertex AI Workbench](https://console.cloud.google.com/vertex-ai/workbench/deploy-notebook?download_url=https%3A%2F%2Fraw.githubusercontent.com%2FGoogleCloudPlatform%2Fgenerative-ai%2Fmain%2Fgemini%2Fchat-completions%2Fintro_chat_completions_api.ipynb)\n|\n|\n| \\|\n|\n| [View on GitHub](https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/chat-completions/intro_chat_completions_api.ipynb)\n\nThe Chat Completions API works as an Open AI-compatible endpoint, designed to\nmake it easier to interface with Gemini on Vertex AI by\nusing the OpenAI libraries for Python and REST. If you're already using the\nOpenAI libraries, you can use this API as a low-cost way to switch between\ncalling OpenAI models and Vertex AI hosted models to compare\noutput, cost, and scalability, without changing your existing code.\nIf you aren't already using the OpenAI libraries, we recommend that you\n[use the Google Gen AI SDK](/vertex-ai/generative-ai/docs/start/quickstarts/quickstart-multimodal).\n\nSupported models\n----------------\n\nThe Chat Completions API supports both Gemini models and select\nself-deployed models from Model Garden.\n\n### Gemini models\n\nThe following models provide support for the Chat Completions API:\n\n- [Gemini 2.5 Pro](/vertex-ai/generative-ai/docs/models/gemini/2-5-pro)\n- [Gemini 2.5 Flash](/vertex-ai/generative-ai/docs/models/gemini/2-5-flash)\n- [Gemini 2.0 Flash](/vertex-ai/generative-ai/docs/models/gemini/2-0-flash)\n- [Gemini 2.0 Flash-Lite](/vertex-ai/generative-ai/docs/models/gemini/2-0-flash-lite)\n\n### Self-deployed models from Model Garden\n\nThe\n[Hugging Face Text Generation Interface (HF TGI)](https://huggingface.co/docs/text-generation-inference/en/index)\nand\n[Vertex AI Model Garden prebuilt vLLM](http://us-docker.pkg.dev/vertex-ai/vertex-vision-model-garden-dockers/pytorch-vllm-serve)\ncontainers support the Chat Completions API. However,\nnot every model deployed to these containers supports the Chat Completions API.\nThe following table includes the most popular supported models by container:\n\nSupported parameters\n--------------------\n\nFor Google models, the Chat Completions API supports the following OpenAI\nparameters. For a description of each parameter, see OpenAI's documentation on\n[Creating chat completions](https://platform.openai.com/docs/api-reference/chat/create).\nParameter support for third-party models varies by model. To see which parameters\nare supported, consult the model's documentation.\n\nIf you pass any unsupported parameter, it is ignored.\n\n### Multimodal input parameters\n\nThe Chat Completions API supports select multimodal inputs.\n\nIn general, the `data` parameter can be a URI or a combination of MIME type and\nbase64 encoded bytes in the form `\"data:\u003cMIME-TYPE\u003e;base64,\u003cBASE64-ENCODED-BYTES\u003e\"`.\nFor a full list of MIME types, see [`GenerateContent`](/vertex-ai/generative-ai/docs/model-reference/inference#blob).\nFor more information on OpenAI's base64 encoding, see [their documentation](https://platform.openai.com/docs/guides/images-vision#giving-a-model-images-as-input).\n\nFor usage, see our [multimodal input examples](/vertex-ai/generative-ai/docs/migrate/openai/examples#multimodal_input_examples).\n\n### Gemini-specific parameters\n\nThere are several features supported by Gemini that are not available in OpenAI models.\nThese features can still be passed in as parameters, but must be contained within an\n`extra_content` or `extra_body` or they will be ignored.\n\n### `extra_body` features\n\nInclude a `google` field to contain any Gemini-specific\n`extra_body` features. \n\n {\n ...,\n \"extra_body\": {\n \"google\": {\n ...,\n // Add extra_body features here.\n }\n }\n }\n\n### `extra_part` features\n\n`extra_part` lets you specify additional settings at a per-`Part` level.\n\nInclude a `google` field to contain any Gemini-specific\n`extra_part` features. \n\n {\n ...,\n \"extra_part\": {\n \"google\": {\n ...,\n // Add extra_part features here.\n }\n }\n }\n\nWhat's next\n-----------\n\n- Learn more about [authentication and credentialing](/vertex-ai/generative-ai/docs/migrate/openai/auth-and-credentials) with the OpenAI-compatible syntax.\n- See examples of calling the [Chat Completions API](/vertex-ai/generative-ai/docs/migrate/openai/examples) with the OpenAI-compatible syntax.\n- See examples of calling the [Inference API](/vertex-ai/generative-ai/docs/model-reference/inference#examples) with the OpenAI-compatible syntax.\n- See examples of calling the [Function Calling API](/vertex-ai/generative-ai/docs/model-reference/function-calling#examples) with OpenAI-compatible syntax.\n- Learn more about the [Gemini API](/vertex-ai/generative-ai/docs/overview).\n- Learn more about [migrating from Azure OpenAI to the Gemini API](/vertex-ai/generative-ai/docs/migrate/migrate-from-azure-to-gemini)."]]