Vertex AI est compatible avec une sélection de modèles partenaires et ouverts en tant que modèles gérés. Ces modèles peuvent être utilisés avec Vertex AI sous forme de modèle en tant que service (MaaS) et sont proposés en tant qu'API gérée. Lorsque vous utilisez un modèle géré, vous continuez à envoyer vos requêtes aux points de terminaison Vertex AI. Les modèles gérés sont sans serveur. Vous n'avez donc pas besoin de provisionner ni de gérer l'infrastructure.
Vous pouvez découvrir des modèles gérés sur la plate-forme Model Garden. et également y déployer des modèles. Pour en savoir plus, consultez Explorer les modèles d'IA dans Model Garden.
Modèles de partenaires
Les modèles partenaires suivants sont proposés sous forme d'API gérées dans Vertex AI Model Garden (MaaS) :
Nom du modèle | Modalité | Description | Guide de démarrage rapide |
---|---|---|---|
Claude Sonnet 4.5 | Langage, vision | Modèle de taille moyenne d'Anthropic pour alimenter les agents du monde réel, avec des capacités de codage, d'utilisation de l'ordinateur, de cybersécurité et de travail avec des fichiers Office tels que des feuilles de calcul. | fiche de modèle |
Claude Opus 4.1 | Langage, vision | Un leader du secteur en matière de programmation. Il offre des performances soutenues pour les tâches de longue durée qui nécessitent un effort concentré et des milliers d'étapes, ce qui élargit considérablement les problèmes que les agents d'IA peuvent résoudre. Idéal pour alimenter les produits et fonctionnalités des agents de pointe. | fiche de modèle |
Claude Haiku 4.5 | Langage, vision | Claude Haiku 4.5 offre des performances quasi optimales pour un large éventail de cas d'utilisation. Il se distingue comme l'un des meilleurs modèles de codage au monde, avec la vitesse et le coût adaptés pour alimenter les produits gratuits et les expériences utilisateur à volume élevé. | fiche de modèle |
Claude Opus 4 | Langage, vision | Claude Opus 4 offre des performances durables pour les tâches longues qui nécessitent un effort concentré et des milliers d'étapes, ce qui élargit considérablement les problèmes que les agents d'IA peuvent résoudre. | fiche de modèle |
Claude Sonnet 4 | Langage, vision | Modèle intermédiaire d'Anthropic doté d'une intelligence supérieure pour les utilisations à volume élevé, comme le codage, la recherche approfondie et les agents. | fiche de modèle |
Claude 3.7 Sonnet d'Anthropic | Langage, vision | Modèle de pointe pour le codage et l'alimentation des agents d'IA, et premier modèle Claude à proposer une réflexion étendue. | fiche de modèle |
Claude 3.5 Sonnet v2 d'Anthropic | Langage, vision | La version améliorée de Claude 3.5 Sonnet est un modèle de pointe pour les tâches d'ingénierie logicielle et les capacités agentives en conditions réelles. Claude 3.5 Sonnet offre ces avancées au même prix et à la même vitesse que son prédécesseur. | fiche de modèle |
Claude 3.5 Haiku d'Anthropic | Langage, vision | Claude 3.5 Haiku, la nouvelle génération du modèle le plus rapide et le plus économique d'Anthropic, est idéal pour les cas d'utilisation où la rapidité et le prix sont importants. | fiche de modèle |
Claude 3 Haiku d'Anthropic | Langue | Modèle de vision et de texte le plus rapide d'Anthropic qui permet d'obtenir des réponses quasi instantanées pour des requêtes simples et est conçu pour offrir des expériences d'IA fluides qui imitent les interactions humaines. | fiche de modèle |
Claude 3.5 Sonnet d'Anthropic | Langue | Claude 3.5 Sonnet surpasse Claude 3 Opus d'Anthropic sur un large éventail d'évaluations d'Anthropic, en raison de la rapidité et du coût de son modèle de milieu de gamme, Claude 3 Sonnet. | fiche de modèle |
Jamba 1.5 Large (preview) | Langue | Le modèle Jamba 1.5 Large d'AI21 Labs est conçu pour offrir des réponses de qualité supérieure, un débit élevé et un prix compétitif par rapport aux autres modèles de sa catégorie. | fiche de modèle |
Jamba 1.5 Mini (preview) | Langue | Le Jamba 1.5 Mini d'AI21 Labs est bien équilibré en termes de qualité, de débit et de coût. | fiche de modèle |
Mistral Medium 3 | Langue | Mistral Medium 3 est un modèle polyvalent conçu pour un large éventail de tâches, y compris la programmation, le raisonnement mathématique, la compréhension de longs documents, la synthèse et le dialogue. | fiche de modèle |
Mistral OCR (25.05) | Langage, vision | Mistral OCR (25.05) est une API de reconnaissance optique des caractères pour la compréhension des documents. Le modèle comprend chaque élément des documents, comme les éléments multimédias, le texte, les tableaux et les équations. | fiche de modèle |
Mistral Small 3.1 (25.03) | Langue | Mistral Small 3.1 (25.03) est la dernière version du modèle Small de Mistral. Elle offre des capacités multimodales et une longueur de contexte étendue. | fiche de modèle |
Mistral Large (24.11) | Langue | Mistral Large (24.11) est la prochaine version du modèle Mistral Large (24.07). Il offre désormais des capacités de raisonnement et d'appel de fonction améliorées. | fiche de modèle |
Codestral 2 | Langue, code | Codestral 2 est le modèle spécialisé dans la génération de code de Mistral. Il est conçu spécifiquement pour la complétion FIM (fill-in-the-middle) de haute précision, qui aide les développeurs à écrire du code et à interagir avec lui grâce à un point de terminaison d'API partagé pour les instructions et la complétion. | fiche de modèle |
Codestral (25.01) | Code | Modèle de pointe conçu pour la génération de code, y compris la méthode fill-in-the-middle et la complétion de code. | fiche de modèle |
Modèles ouverts
Les modèles ouverts suivants sont proposés sous forme d'API gérées dans Vertex AI Model Garden (MaaS) :
Nom du modèle | Modalité | Description | Guide de démarrage rapide |
---|---|---|---|
gpt-oss 120B | Langue | Un modèle de 120 milliards de paramètres qui offre de hautes performances pour les tâches de raisonnement. | fiche de modèle |
gpt-oss 20B | Langue | Modèle de 20 milliards de paramètres optimisé pour l'efficacité et le déploiement sur du matériel grand public et Edge. | fiche de modèle |
Qwen3-Next-80B Thinking | Langue, code | Modèle de la famille Qwen3-Next, spécialisé dans la résolution de problèmes complexes et le raisonnement approfondi. | fiche de modèle |
Qwen3-Next-80B Instruct | Langue, code | Modèle de la famille Qwen3-Next, spécialisé dans le suivi de commandes spécifiques. | fiche de modèle |
Qwen3 Coder | Langue, code | Un modèle à poids ouvert développé pour les tâches de développement logiciel avancées. | fiche de modèle |
Qwen3 235B | Langue | Un modèle à poids ouvert doté d'une capacité de "pensée hybride" pour alterner entre raisonnement méthodique et conversation rapide. | fiche de modèle |
DeepSeek-V3.1 | Langue | Modèle hybride de DeepSeek qui accepte à la fois le mode de réflexion et le mode sans réflexion. | fiche de modèle |
DeepSeek R1 (0528) | Langue | Dernière version du modèle DeepSeek R1 de DeepSeek. | fiche de modèle |
Llama 4 Maverick 17B-128E | Langage, vision | Modèle Llama 4 le plus vaste et le plus performant, doté de fonctionnalités de codage, de raisonnement et de traitement d'images. Llama 4 Maverick 17B-128E est un modèle multimodal qui utilise l'architecture MoE (Mixture-of-Experts) et la fusion précoce. | fiche de modèle |
Llama 4 Scout 17B-16E | Langage, vision | Llama 4 Scout 17B-16E offre des résultats de pointe pour sa catégorie de taille, surpassant les générations Llama précédentes et d'autres modèles ouverts et propriétaires sur plusieurs benchmarks. Llama 4 Scout 17B-16E est un modèle multimodal qui utilise l'architecture MoE (Mixture of Experts) et la fusion précoce. | fiche de modèle |
Llama 3.3 | Langue | Llama 3.3 est un modèle textuel de 70 milliards de paramètres adapté aux instructions. Il offre des performances améliorées par rapport à Llama 3.1 70B et à Llama 3.2 90B lorsqu'il est utilisé pour des applications textuelles. De plus, pour certaines applications, Llama 3.3 70B approche les performances de Llama 3.1 405B. | fiche de modèle |
Llama 3.2 (preview) | Langage, vision | Modèle multimodal de taille moyenne (90 milliards) qui peut prendre en charge le raisonnement sur les images, comme l'analyse de graphiques et de tableaux, ainsi que le sous-titrage d'images. | fiche de modèle |
Llama 3.1 | Langue |
Ensemble de LLM multilingues optimisés pour les cas d'utilisation de dialogues multilingues et plus performants que de nombreux modèles de chat Open Source et fermés disponibles sur les benchmarks courants du secteur. Llama 3.1 405B est en disponibilité générale (DG). Llama 3.1 8B et Llama 3.1 70B sont en version Preview. |
fiche de modèle |
Étapes suivantes
- En savoir plus sur les modèles ouverts Vertex AI pour le MaaS
- Découvrez comment appeler des API de modèles ouverts.