Model Garden dans la console Google Cloud est une bibliothèque de modèles de ML qui vous aide à découvrir, tester, personnaliser et déployer des modèles et des éléments propriétaires de Google et de sélectionner des modèles des éléments OSS.
Les rubriques suivantes présentent les modèles d'IA disponibles dans Model Garden et expliquent comment les utiliser.
Explorer les modèles
Pour afficher la liste des modèles Vertex AI et Open Source disponibles (modèles de base, réglables ou spécifiques à une tâche) accédez à la page "Jardin de modèles" dans la console Google Cloud.
Accéder à la page "Jardin de modèles"
Les catégories de modèles disponibles dans Model Garden sont les suivantes :
Catégorie | Description |
---|---|
Modèles de fondation | Grands modèles multitâches pré-entraînés, qui peuvent être paramétrés ou personnalisés pour des tâches spécifiques à l'aide de Vertex AI Studio, de l'API Vertex AI et du SDK Vertex AI pour Python. |
Modèles ajustables | Modèles que vous pouvez ajuster en utilisant un notebook ou un pipeline personnalisé. |
Solutions spécifiques à une tâche | La plupart de ces modèles prédéfinis sont prêts à l'emploi. Bon nombre d'entre eux peuvent être personnalisés à l'aide de vos propres données. |
Pour filtrer les modèles dans le volet de filtrage, spécifiez les éléments suivants :
- Modalités : cliquez sur les modalités (types de données) que vous souhaitez inclure dans le modèle.
- Tâches : cliquez sur la tâche que vous souhaitez que le modèle exécute.
- Caractéristiques : cliquez sur les caractéristiques que vous souhaitez inclure dans le modèle.
Pour en savoir plus sur chaque modèle, cliquez sur la fiche de modèle.
Modèles disponibles Model Garden
Vous pouvez trouver dans Model Garden des modèles propriétaires de Google, mais aussi choisir des modèles Open Source.
Liste des modèles propriétaires de Google
Le tableau suivant répertorie les modèles propriétaires de Google disponibles dans Model Garden :
Nom du modèle | Modalité | Description | Guides de démarrage rapide |
---|---|---|---|
Gemini 1.5 Flash | Langage, audio, vision | Le modèle multimodal Gemini le plus rapide et le plus économique. Il est conçu pour les tâches volumineuses et les applications sensibles à la latence à prix abordables. Gemini 1.5 Flash étant très réactif, il s'agit d'une bonne option pour créer des assistants de chat et des applications de génération de contenu à la demande. | fiche de modèle |
Gemini 1.5 Pro | Langage, audio, vision | Modèle multimodal qui permet d'ajouter des fichiers image, audio, vidéo et PDF dans des requêtes de texte ou de chat pour une réponse textuelle ou de code. | fiche de modèle |
Gemini 1.0 Pro | Langue | Conçu pour gérer les tâches en langage naturel, le chat textuel et de code multitour, ainsi que la génération de code. | fiche de modèle |
Gemini 1.0 Pro Vision | Langage, vision | Modèle multimodal qui permet d'ajouter des fichiers image, vidéo et PDF dans des requêtes de texte ou de chat pour une réponse textuelle ou de code. | fiche de modèle |
PaLM 2 pour le texte | Langue | Optimisé pour suivre les instructions en langage naturel et adapté à diverses tâches linguistiques. | fiche de modèle |
PaLM 2 for Chat | Langue | Optimisé pour tenir des conversations naturelles. Utilisez ce modèle pour créer et personnaliser votre propre application de chatbot. | fiche de modèle |
Codey pour la complétion de code | Langue | Génère du code à partir des requêtes de code. Convient pour proposer des suggestions de code et réduire le plus possible la présence de bugs dans le code. | fiche de modèle |
Codey pour la génération de code | Langue | Génère du code à partir de la saisie en langage naturel. Convient pour écrire des fonctions, des classes, des tests unitaires, etc. | fiche de modèle |
Codey pour le chat de code | Langue | Obtenez de l'aide sur le code grâce à des conversations naturelles. Convient pour les questions concernant une API, la syntaxe dans un langage compatible, etc. | fiche de modèle |
Embeddings pour le texte | Langue | Convertit des données textuelles en vecteurs numériques pouvant être traités par des algorithmes de machine learning, en particulier des modèles volumineux. | fiche de modèle |
Imagen pour la génération d'images | Vision | Créer ou modifier des images de qualité studio à grande échelle à l'aide de requêtes de texte. | fiche de modèle |
Imagen pour le sous-titrage et Visual Question Answering (VQA) | Langue | Génère une description pertinente pour une image donnée. | fiche de modèle |
Embeddings multimodaux | Vision | Génère des vecteurs à partir d'images, qui peuvent être utilisés pour des tâches en aval telles que la classification d'images et la recherche dans des images. | fiche de modèle |
Chirp | Voix | Version d'un modèle de reconnaissance vocale universel qui comporte plus de deux milliards de paramètres et peut assurer une transcription dans plus de 100 langues dans un seul modèle. | fiche de modèle |
Liste de modèles avec réglage Open Source ou diffusion de recettes dans Model Garden
Le tableau suivant liste les modèles OSS compatibles avec le réglage Open Source ou la diffusion de recettes dans Model Garden :
Nom du modèle | Modalité | Description | Guide de démarrage rapide |
---|---|---|---|
Llama 2 | Langue | Ensemble de grands modèles de langage multilingues, qui sont des modèles génératifs pré-entraînés et adaptés aux instructions, proposés en 1 milliard et 3 milliards de paramètres. | fiche de modèle |
Llama 3.2-Vision | Langage, vision | Ensemble de grands modèles de langage multimodaux, qui sont des modèles génératifs de raisonnement par image pré-entraînés et adaptés aux instructions, proposés en 11 milliards et 90 milliards de paramètres. Ces modèles sont optimisés pour la reconnaissance visuelle, le raisonnement par image, la création de sous-titres et les réponses à des questions générales sur une image. | fiche de modèle |
Llama Guard 3 | Langue | Modèle pré-entraîné Llama-3.1-8B qui a été affiné pour la classification de la sécurité du contenu. | fiche de modèle |
Qwen2 | Langue | Déployez Qwen2, une série de grands modèles de langage de base. | Colab Fiche de modèle |
Phi-3 | Langue | Deployez Phi-3, une série de grands modèles de langage de base. | Colab Fiche de modèle |
E5 | Langue | Déployez E5, une série de modèles d'embedding textuel. | Colab Fiche de modèle |
Instant ID | Langage, vision | Déployez Instant ID, un modèle de génération de texte vers image préservant l'identité. | Colab Fiche de modèle |
Llama 3 | Langue | Explorez et créez avec les modèles Llama 3 de Meta (8B, 70B, 405B) sur Vertex AI. | fiche de modèle |
Gemma 2 | Langue | Open weight models (9B, 27B) that are built from the same research and technology used to create Google's Gemini models. | Fiche de modèle |
Gemma | Langue | Modèles à pondération ouverte (2B, 7B) basés sur les mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini de Google. | Fiche de modèle |
CodeGemma | Langue | Modèles à pondération ouverte (2B, 7B) conçus pour la génération et la complétion de code, et basés sur les mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini de Google. | Fiche de modèle |
PaliGemma | Langue | Modèle 3B à pondération ouverte conçu pour les tâches de sous-titrage d'images et les questions/réponses visuelles, et basé sur les mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini de Google. | Fiche de modèle |
Vicuna v1.5 | Langue | Déployez des modèles de série Vicuna v1.5, qui sont des modèles de fondation réglés dans LLama2 pour la génération de texte. | fiche de modèle |
NLLB | Langue | Déployez des modèles de série NLLB pour la traduction multilingue. | Fiche de modèle Colab |
Mistral-7B | Langue | Déployez Mistral-7B, un modèle de fondation pour la génération de texte. | fiche de modèle |
BioGPT | Langue | Déployez BioGPT, un modèle génératif de texte pour le domaine biomédical. | Fiche de modèle Colab |
BiomedCLIP | Langage, vision | Déployez BiomedCLIP, un modèle de fondation multimodal pour le domaine biomédical. | Fiche de modèle Colab |
ImageBind | Langage, vision, Audio |
Déployez ImageBind, un modèle de fondation pour l'embedding multimodal | Fiche de modèle Colab |
DITO | Langage, vision | Réglez et déployez DITO, un modèle de fondation multimodal pour les tâches de détection d'objets de vocabulaire ouvert. | Fiche de modèle Colab |
OWL-ViT v2 | Langage, vision | Déployez OWL-ViT v2, un modèle de fondation multimodal pour les tâches de détection d'objets de vocabulaire ouvert. | Fiche de modèle Colab |
FaceStylizer (Mediapipe) | Vision | Pipeline génératif permettant de transformer les images de visages humains dans un nouveau style. | Fiche de modèle Colab |
Llama 2 | Langue | Ajustez et déployez les modèles de fondation Llama 2 de Meta (7B, 13B, 70B) sur Vertex AI. | fiche de modèle |
Code Llama | Langue | Déployez les modèles de fondation Code Llama de Meta (7B, 13B, 34B) sur Vertex AI. | fiche de modèle |
Falcon-instruct | Langue | Ajustez et déployez les modèles Falcon-instruct (7B, 40B) à l'aide de PEFT. | Colab Fiche de modèle |
OpenLLaMA | Langue | Ajustez et déployez les modèles OpenLLaMA (3B, 7B, 13B) à l'aide de PEFT. | Colab Fiche de modèle |
T5-FLAN | Langue | Ajustez et déployez T5-FLAN (de base, petit, grand). | Fiche de modèle (pipeline d'ajustement inclus) |
BERT | Langue | Ajustez et déployez BERT à l'aide de PTE. | Colab Fiche de modèle |
BART-large-cnn | Langue | Déployez BART, un modèle Transformer encodeur-encodeur (seq2seq) avec un encodeur bidirectionnel (semblable à BERT) et un décodeur autorégressif (semblable à GPT). | Colab Fiche de modèle |
RoBERTa-large | Langue | Ajustez et déployez RoBERTa-large à l'aide de PEFT. | Colab Fiche de modèle |
XLM-RoBERTa-large | Langue | Ajustez et déployez XLM-RoBERTa-large (version multilingue de RoBERTa) à l'aide de PEFT. | Colab Fiche de modèle |
Dolly-v2-7b | Langue | Déployez Dolly-v2-7b, un grand modèle de langage capable de suivre des instructions avec 6,9 milliards de paramètres. | Colab Fiche de modèle |
Stable Diffusion XL v1.0 | Langage, vision | Déployez la version 1.0 de Stable Diffusion XL, qui est compatible avec la génération de texte vers image. | Colab Fiche de modèle |
Stable Diffusion XL Lightning | Langage, vision | Déployez Stable Diffusion XL Lightning, un modèle de génération de texte vers image. | Colab Fiche de modèle |
Stable Diffusion v2.1 | Langage, vision | Ajustez et déployez la version 2.1 de Stable Diffusion (compatible avec la génération de texte vers image) à l'aide de Dreambooth. | Colab Fiche de modèle |
Stable Diffusion 4x upscaler | Langage, vision | Déployez Stable Diffusion 4x upscaler, qui est compatible avec la création d'images en très grande résolution sur la base d'une requête textuelle. | Colab Fiche de modèle |
InstructPix2Pix | Langage, vision | Déployez Instructpx2Pix, qui permet de modifier des images à l'aide d'une requête textuelle. | Colab Fiche de modèle |
Stable Diffusion Inpainting | Langage, vision | Ajustez et déployez Stable Diffusion Inpainting, qui permet d'insérer une image masquée à l'aide d'une requête textuelle. | Colab Fiche de modèle |
SAM | Langage, vision | Déployez Segment Anything, qui est compatible avec la segmentation d'images zero-shot. | Colab Fiche de modèle |
Texte vers vidéo (ModelScope) | Langage, vision | Déployer la fonction texte vers vidéo de ModelScope, qui est compatible avec la génération de texte vers vidéo. | Colab Fiche de modèle |
Récupération d'image composée Pic2Word | Langage, vision | Déployez Pic2Word, qui est compatible avec la récupération d'image composée multimodale. | Colab Fiche de modèle |
BLIP2 | Langage, vision | Déployez BLIP2, qui est compatible avec Visual Captioning et Visual Question Answering. | Colab Fiche de modèle |
Open-CLIP | Langage, vision | Ajustez et déployez Open-CLIP, qui est compatible avec la classification zero-shot. | Colab Fiche de modèle |
F-VLM | Langage, vision | Déployez F-VLM, qui est compatible avec la détection d'objets au sein d'images à l'aide d'un vocabulaire ouvert. | Colab Fiche de modèle |
tfhub/EfficientNetV2 | Vision | Ajustez et déployez la mise en œuvre Tensorflow Vision du modèle de classification d'images EfficientNetV2. | Colab Fiche de modèle |
EfficientNetV2 (TIMM) | Vision | Ajustez et déployez la mise en œuvre PyTorch du modèle de classification d'images EfficientNetV2. | Colab Fiche de modèle |
Proprietary/EfficientNetV2 | Vision | Ajustez et déployez le point de contrôle exclusif Google du modèle de classification d'images EfficientNetV2. | Colab Fiche de modèle |
EfficientNetLite (MediaPipe) | Vision | Ajustez le modèle de classification d'images EfficientNetLite via le générateur de modèles MediaPipe. | Colab Fiche de modèle |
tfvision/vit | Vision | Ajustez et déployez la mise en œuvre Tensorflow Vision du modèle de classification d'images ViT. | Colab Fiche de modèle |
ViT (TIMM) | Vision | Ajustez et déployez la mise en œuvre PyTorch du modèle de classification d'images ViT. | Colab Fiche de modèle |
Proprietary/ViT | Vision | Ajustez et déployez le point de contrôle exclusif Google pour le modèle de classification d'images ViT. | Colab Fiche de modèle |
Proprietary/MaxViT | Vision | Ajustez et déployez le point de contrôle exclusif Google du modèle de classification d'images hybride MaxViT (CNN + ViT). | Colab Fiche de modèle |
ViT (JAX) | Vision | Ajustez et déployez la mise en œuvre JAX du modèle de classification d'images ViT. | Colab Fiche de modèle |
tfvision/SpineNet | Vision | Ajustez et déployez la mise en œuvre Tensorflow Vision du modèle de détection d'objets SpineNet. | Colab Fiche de modèle |
Proprietary/Spinenet | Vision | Ajustez et déployez le point de contrôle exclusif Google du modèle de détection d'objets SpineNet. | Colab Fiche de modèle |
tfvision/YOLO | Vision | Ajustez et déployez la mise en œuvre Tensorflow Vision du modèle de détection d'objets en une étape YOLO. | Colab Fiche de modèle |
Proprietary/YOLO | Vision | Ajustez et déployez le point de contrôle exclusif Google pour le modèle de détection d'objets en une étape YOLO. | Colab Fiche de modèle |
YOLOv8 (Keras) | Vision | Ajustez et déployez la mise en œuvre Keras du modèle YOLOv8 pour la détection d'objets. | Colab Fiche de modèle |
tfvision/YOLOv7 | Vision | Ajustez et déployez le modèle YOLOv7 pour la détection d'objets. | Colab Fiche de modèle |
Suivi des objets vidéo Bytetrack | Vision | Exécutez des prédictions par lot pour le suivi des objets vidéo avec ByteTrack. | Colab Fiche de modèle |
ResNeSt (TIMM) | Vision | Ajustez et déployez la mise en œuvre PyTorch du modèle de classification d'images ResNeSt. | Colab Fiche de modèle |
ConvNeXt (TIMM) | Vision | Ajustez et déployez ConvNeXt, un pur modèle convolutif de classification d'images basé sur la conception Vision Transformers. | Colab Fiche de modèle |
CspNet (TIMM) | Vision | Ajustez et déployez le modèle de classification d'images CSPNet (Cross Stage Partial Network). | Colab Fiche de modèle |
Inception (TIMM) | Vision | Ajustez et déployez le modèle de classification d'images Inception. | Colab Fiche de modèle |
DeepLabv3+ (avec point de contrôle) | Vision | Ajustez et déployez le modèle DeepLab-v3 Plus pour la segmentation sémantique d'images. | Colab Fiche de modèle |
Faster R-CNN (Detectron2) | Vision | Ajustez et déployez la mise en œuvre Detectron2 du modèle Faster R-CNN pour la détection d'objets au sein d'images. | Colab Fiche de modèle |
RetinaNet (Detectron2) | Vision | Ajustez et déployez la mise en œuvre Detectron2 du modèle RetinaNet pour la détection d'objets au sein d'images. | Colab Fiche de modèle |
Mask R-CNN (Detectron2) | Vision | Ajustez et déployez la mise en œuvre Detectron2 du modèle Mask R-CNN pour la détection et la segmentation d'objets au sein d'images. | Colab Fiche de modèle |
ControlNet | Vision | Ajustez et déployez le modèle de génération de texte vers image ControlNet. | Colab Fiche de modèle |
MobileNet (TIMM) | Vision | Ajustez et déployez la mise en œuvre PyTorch du modèle de classification d'images MobileNet. | Colab Fiche de modèle |
Classification d'images MobileNetV2 (MediaPipe) | Vision | Ajustez le modèle de classification d'images MobileNetV2 à l'aide du générateur de modèles MediaPipe. | Colab Fiche de modèle |
Détection d'objets MobileNetV2 (MediaPipe) | Vision | Ajustez le modèle de détection d'objets MobileNetV2 à l'aide du générateur de modèles MediaPipe. | Colab Fiche de modèle |
MobileNet-MultiHW-AVG (MediaPipe) | Vision | Ajustez le modèle de détection d'objets MobileNet-MultiHW-AVG à l'aide du générateur de modèles MediaPipe. | Colab Fiche de modèle |
DeiT | Vision | Ajustez et déployez le modèle DeiT (Data-Efficient Image Transformers) pour la classification d'images. | Colab Fiche de modèle |
BEiT | Vision | Ajustez et déployez le modèle BEiT (Bidirectional Encoder Representation par Image Transformers) pour la classification d'images. | Colab Fiche de modèle |
Reconnaissance de gestes de la main (MediaPipe) | Vision | Ajustez et déployez les modèles de reconnaissance de gestes de la main à l'aide de MediaPipe. | Colab Fiche de modèle |
Classificateur d'embedding lexical moyen (MediaPipe) | Vision | Ajustez et déployez les modèles de classificateur d'embedding lexical moyen à l'aide de MediaPipe. | Colab Fiche de modèle |
Classificateur MobileBERT (MediaPipe) | Vision | Ajustez et déployez les modèles de classificateur MobileBERT à l'aide de MediaPipe directement sur votre appareil. | Colab Fiche de modèle |
Classification d'extraits vidéo MoViNet | Vidéo | Ajustez et déployez les modèles de classification d'extraits vidéo MoViNet. | Colab Fiche de modèle |
Reconnaissance d'actions dans des vidéos MoViNet | Vidéo | Ajustez et déployez les modèles MoViNet pour l'inférence de reconnaissance d'actions. | Colab Fiche de modèle |
Stable Diffusion XL LCM | Vision | Déployez ce modèle qui utilise le modèle de cohérence latente (LCM) pour améliorer la génération texte-vers-image dans les modèles de diffusion latente, en permettant de créer des images de haute qualité plus rapidement, avec moins d'étapes. | Colab Fiche de modèle |
LLaVA 1.5 | Vision, langue | Déployez des modèles LLaVA 1.5. | Colab Fiche de modèle |
Pytorch-ZipNeRF | Vision, vidéo | Entraînez le modèle Pytorch-ZipNeRF, qui est une implémentation de pointe de l'algorithme ZipNeRF dans le framework Pytorch, conçu pour une reconstruction 3D efficace et précise à partir d'images 2D. | Colab Fiche de modèle |
Mixtral | Langue | Déployez le modèle Mixtral, qui est un grand modèle de langage (LLM) MoE (Mixture of Experts) développé par Mistral AI. | fiche de modèle |
Llama 2 (version quantifiée) | Langue | Ajustez et déployez une version quantifiée des modèles Llama 2 de Meta. | Colab Fiche de modèle |
LaMa (repeinture de grand masque) | Vision | Déployez LaMa, qui utilise des convolutions de Fourier rapides (FFC, fast Fourier convolutions), une perte perceptuelle de champ réceptif élevée et des masques d'entraînement volumineux, pour une peinture d'image robuste à la résolution. | Colab Fiche de modèle |
AutoGluon | Tabulaire | Avec AutoGluon, vous pouvez entraîner et déployer des modèles de machine learning et de deep learning de haute précision pour les données tabulaires. | Colab Fiche de modèle |
MaMMUT | Langage, vision | Une architecture d'encodeur et de décodeur de texte pour les tâches multimodales telles que les systèmes de questions-réponses visuelles, la récupération d'images de texte, la récupération d'images textuelles et la génération d'embeddings multimodaux. | Colab Fiche de modèle |
Liste des modèles partenaires disponibles dans Model Garden
Certains modèles partenaires sont proposés sous forme d'API gérées dans Vertex AI Model Garden (également appelés modèles en tant que service). Le tableau suivant répertorie les modèles disponibles auprès des partenaires Google dans Model Garden :
Nom du modèle | Modalité | Description | Guide de démarrage rapide |
---|---|---|---|
Anthropic Claude 3.5 Sonnet | Langue | Modèle d'IA le plus puissant d'Anthropic, qui conserve la rapidité et le coût d'Anthropic Claude 3 Sonnet. | fiche de modèle |
Anthropic Claude 3 Opus | Langue | Le deuxième modèle d'IA d'Anthropic, qui offre de bonnes performances pour des tâches très complexes. | fiche de modèle |
Anthropic Claude 3 Haiku | Langue | Le modèle de vision et de texte le plus rapide et le plus compact d'Anthropic qui fournit des réponses rapides à des requêtes simples. Il est destiné aux expériences d'IA qui imitent des interactions humaines. | fiche de modèle |
Anthropic Claude 3 Sonnet | Langue | Un modèle de vision et de texte qui équilibre les performances et la vitesse pour traiter les charges de travail d'entreprise. Il est conçu pour des déploiements d'IA évolutifs et économiques. | fiche de modèle |
Jamba 1.5 Large (preview) | Langue | Le modèle Jamba 1.5 Large d'AI21 Labs est conçu pour offrir des réponses de qualité supérieure, un débit élevé et un prix compétitif par rapport aux autres modèles de sa catégorie. | fiche de modèle |
Jamba 1.5 Mini (preview) | Langue | Le Jamba 1.5 Mini d'AI21 Labs est bien équilibré en termes de qualité, de débit et de coût. | fiche de modèle |
Llama 3.2 (preview) | Langage, vision | Modèle multimodal de taille moyenne (90 milliards) qui peut prendre en charge le raisonnement sur les images, comme l'analyse de graphiques et de tableaux, ainsi que le sous-titrage d'images. | fiche de modèle |
Llama 3.1 (preview) | Langue | Ensemble de LLM multilingues optimisés pour les cas d'utilisation de dialogues multilingues et plus performants que de nombreux modèles de chat Open Source et fermés disponibles sur les benchmarks courants du secteur. | fiche de modèle |
Mistral Large (2407) | Langue | Mistral Large (2407) est le modèle phare de Mistral AI pour la génération de texte. Il intègre des capacités de raisonnement de premier niveau et peut être utilisée pour des tâches multilingues complexes, telles que la compréhension de texte, la transformation et la génération de code. | fiche de modèle |
Mistral Nemo | Langue | Modèle propriétaire le plus rentable de Mistral AI. Utilisez les charges de travail à faible latence de Mistral Nemo et les tâches simples qui peuvent être effectuées de manière groupée, telles que la classification, l'assistance client et la génération de texte. | fiche de modèle |
Codestral | Code | Modèle génératif spécialement conçu et optimisé pour la génération de code. Vous pouvez utiliser Codestral pour concevoir des applications d'IA avancées. | fiche de modèle |
Utilisation des fiches de modèle
Cliquez sur une fiche de modèle pour utiliser le modèle qui lui est associé. Par exemple, vous pouvez cliquer sur une fiche de modèle pour tester des requêtes, ajuster un modèle, créer des applications et voir des exemples de code.
Pour découvrir comment utiliser les modèles associés aux fiches de modèle, cliquez sur l'un des onglets suivants :
Tester des requêtes
Utilisez la fiche de modèle de l'API PaLM Vertex AI pour tester les requêtes.
Dans la console Google Cloud, accédez à la page Model Garden.
Recherchez un modèle compatible que vous souhaitez tester, puis cliquez sur Afficher les détails.
Cliquez sur Ouvrir le concepteur de requête.
Vous êtes redirigé vers la page Conception de requête.
Dans Requête, saisissez la requête que vous souhaitez tester.
Facultatif : configurez les paramètres du modèle.
Cliquez sur Envoyer.
Régler un modèle
Pour régler les modèles compatibles, utilisez un pipeline Vertex AI ou un notebook.
Régler en utilisant un pipeline
Les modèles BERT et T5-FLAN sont compatibles avec le réglage des modèles à l'aide d'un pipeline.
Dans la console Google Cloud, accédez à la page Model Garden.
Dans le champ Rechercher des modèles, saisissez BERT ou T5-FLAN, puis cliquez sur la loupe pour lancer la recherche.
Cliquez sur Afficher les détails sur la fiche du modèle T5-FLAN ou BERT.
Cliquez sur Ouvrir le réglage de pipeline.
Vous êtes redirigé vers la page des pipelines Vertex AI.
Pour lancer le processus de réglage, cliquez sur Créer une exécution.
Régler en utilisant un notebook
Les fiches de modèle de la plupart des modèles de fondation Open Source et des modèles ajustables sont compatibles avec le réglage dans un notebook.
Dans la console Google Cloud, accédez à la page Model Garden.
Recherchez un modèle compatible que vous souhaitez régler, puis cliquez sur Afficher les détails.
Cliquez sur Ouvrir le notebook.
Déployer un modèle
Vous pouvez déployer un modèle à partir de sa fiche, comme "Stable Diffusion". Lorsque vous déployez un modèle, vous pouvez choisir d'utiliser une réservation Compute Engine. Pour en savoir plus, consultez la section Utiliser des réservations avec la prédiction.
Dans la console Google Cloud, accédez à la page Model Garden.
Recherchez le modèle compatible que vous souhaitez déployer, puis cliquez sur sa fiche.
Cliquez sur Déployer pour ouvrir le volet Déployer le modèle.
Dans le volet Déployer le modèle, spécifiez les détails de votre déploiement.
- Utilisez ou modifiez les noms de modèle et de point de terminaison générés.
- Sélectionnez un emplacement pour créer votre point de terminaison de modèle.
- Sélectionnez un type de machine à utiliser pour chaque nœud de votre déploiement.
Pour utiliser une réservation Compute Engine, sélectionnez Avancé dans la section Paramètres de déploiement.
Dans le champ Type de réservation, sélectionnez un type de réservation. La réservation doit correspondre aux spécifications de votre machine.
- Utiliser automatiquement la réservation créée : Vertex AI sélectionne automatiquement une réservation autorisée avec des propriétés correspondantes. Si la réservation sélectionnée automatiquement ne dispose d'aucune capacité, Vertex AI utilise le pool de ressources Google Cloud général.
- Sélectionner des réservations spécifiques : Vertex AI utilise une réservation spécifique. Si la capacité de votre réservation sélectionnée est insuffisante, une erreur est générée.
- Ne pas utiliser (par défaut) : Vertex AI utilise le pool de ressources Google Cloud général. Cette valeur a le même effet que si vous ne spécifiez pas de réservation.
Cliquez sur Déployer.
Afficher les exemples de code
La plupart des fiches de modèle pour les modèles de solutions spécifiques à une tâche contiennent des exemples de code que vous pouvez copier et tester.
Dans la console Google Cloud, accédez à la page Model Garden.
Recherchez le modèle compatible pour lequel vous souhaitez afficher les exemples de code, puis cliquez sur l'onglet Documentation.
La page défile jusqu'à la section "Documentation", qui contient l'exemple de code intégré.
Créer une application de vision
Les fiches de modèle pour les modèles de vision par ordinateur applicables permettent de créer une application de vision.
Dans la console Google Cloud, accédez à la page Model Garden.
Dans la section "Solutions spécifiques à une tâche", recherchez un modèle de vision que vous souhaitez utiliser pour créer une application de vision, puis cliquez sur Afficher les détails.
Cliquez sur Créer une application.
Vous êtes redirigé vers la page Vertex AI Vision.
Dans Nom de l'application, saisissez un nom pour votre application, puis cliquez sur Continuer.
Sélectionnez un mode de facturation, puis cliquez sur Créer.
Vous êtes redirigé vers Vertex AI Vision Studio, où vous pouvez continuer à créer votre application de vision par ordinateur.
Tarifs
Pour les modèles Open Source dans Model Garden, des frais vous sont facturés pour l'utilisation des éléments suivants sur Vertex AI :
- Réglages de modèles : les ressources de calcul utilisées vous sont facturées au même tarif que l'entraînement personnalisé. Consultez les tarifs de l'entraînement personnalisé.
- Déploiement de modèle : les ressources de calcul utilisées pour déployer le modèle sur un point de terminaison vous sont facturées. Consultez les tarifs des prédictions.
- Colab Enterprise : consultez les tarifs de Colab Enterprise.
Contrôler l'accès à des modèles spécifiques
Vous pouvez définir une règle d'organisation Model Garden au niveau de l'organisation, du dossier ou du projet pour contrôler l'accès à des modèles spécifiques dans Model Garden. Par exemple, vous pouvez autoriser l'accès à des modèles spécifiques que vous avez examinés et refuser l'accès à tous les autres.
Étape suivante
- Découvrez les bonnes pratiques d'IA responsable et les filtres de sécurité de Vertex AI.
- Découvrez l'IA générative sur Vertex AI.
- Découvrez comment régler les modèles de fondation.