Cette page répertorie les mises à jour en production de l'IA générative sur Vertex AI et le modèle de jardin Vertex AI. Consultez-la régulièrement pour obtenir des informations sur les fonctionnalités nouvelles ou mises à jour, les corrections de bugs, les problèmes connus et les fonctionnalités obsolètes.
22 mars 2024
Les fichiers PDF sont désormais acceptés en tant qu'entrées dans le modèle de langage multimodal Gemini 1.0 Pro Vision. Vous pouvez appeler directement les API avec des PDF ou les essayer dans Vertex AI Studio. Pour en savoir plus, consultez la page Envoyer des requêtes d'invites multimodales avec des images ou un fichier PDF.
19 mars 2024
Les modèles Anthropic Claude 3 Sonnet et Claude 3 Haiku sur Vertex AI sont en disponibilité générale dans Vertex AI.
Les modèles gérés Claude 3 Haiku et Claude 3 Sonnet d'Anthropic sont disponibles sur Vertex AI. Pour utiliser un modèle Claude sur Vertex AI, envoyez une requête directement au point de terminaison de l'API Vertex AI. Pour en savoir plus, consultez les pages Utiliser les modèles Claude d'Anthropic et les fiches de modèles Claude dans Model Garden:
21 février 2024
Des modèles ouverts Gemma sont disponibles.
Des modèles Gemma, une famille de modèles ouverts et légers basés sur les mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini, sont disponibles pour être exécutés sur votre matériel, vos appareils mobiles ou vos services hébergés. Pour en savoir plus, consultez les pages Utiliser les modèles ouverts Gemma et la Fiche Gemma Model Garden.
15 février 2024
Modèles Vertex AI Gemini 1.0 Pro et Gemini 1.0 Pro Vision
Les modèles de langage multimodaux Vertex AI Gemini 1.0 Pro et Gemini 1.0 Pro Vision sont en disponibilité générale (DG). Ils sont également disponibles dans les régions suivantes : europe-west1, europe-west2, europe-west3, europe-west4 et europe-west9.
Pour plus d'informations, consultez les articles suivants :
- Présentation des modèles multimodaux
- Conception d'invites multimodales
- Documentation de référence de l'API Vertex AI Gemini
- Documentation de référence du SDK Gemini pour Python
- Migrer de l'API PaLM vers l'API Gemini
9 février 2024
La compatibilité avec les représentations vectorielles continues multimodales vidéos est en disponibilité générale
Les représentations vectorielles continues de données vidéo sont désormais en disponibilité générale à partir du modèle de représentation vectorielle continue multimodale (multimodalembedding
). Pour en savoir plus, consultez la documentation du produit.
Cette fonctionnalité entraîne des tarifs en fonction du mode que vous utilisez. Pour en savoir plus, reportez-vous à la page Tarifs.
7 février 2024
Mises à jour de Model Garden :
Extraction
Les modèles suivants ont été ajoutés :
- Stable Diffusion XL LCM : le modèle de cohérence latente (LCM, Latent Consistency Model) améliore la génération de texte vers image dans les modèles de diffusion latente en permettant la création d'images plus rapide et de haute qualité avec moins d'étapes.
- LLaVA 1.5 : déployer des modèles LLaVA 1.5.
- PyTorch-ZipNeRF : le modèle Pytorch-ZipNeRF est une implémentation de pointe de l'algorithme ZipNeRF dans le framework Pytorch, conçu pour une reconstruction 3D efficace et précise à partir d'images 2D.
- LLaMA 2 (quantifié) : version quantifiée des modèles Llama 2 de Meta.
- AssistantLM : WizardLM est un grand modèle de langage (LLM) développé par Microsoft, affiné sur des instructions complexes en adaptant la méthode Evol-Instruct.
- AssistantCoder : WizardCoder est un grand modèle de langage (LLM) développé par Microsoft, affiné sur des instructions complexes en adaptant la méthode Evol-Instruct au domaine du code.
- AutoGluon : avec AutoGluon, vous pouvez entraîner et déployer des modèles de machine learning et de deep learning haute précision pour les données tabulaires.
- Lama (repeinture de grand masque) : utilisez la technique de peinture de grande taille avec des convolutions de Fourier rapides (FFC, fast Fourier convolutions), une perte perceptuelle de champ réceptif élevée et des masques d'entraînement volumineux pour une peinture d'image robuste à la résolution.
Modifiée
- Ajout du bouton de réglage en un clic et de notebooks dédiés au déploiement, au réglage, à la quantification et à l'évaluation pour Llama 2.
- Ajout du bouton de déploiement en un clic pour plus de 20 modèles avec des artefacts OSS pré-entraînés, y compris
Salesforce/blip-image-captioning-base
ettimbrooks/instruct-pix2pix
. - CodeLlaMA70b compatible avec les notebooks et le bouton de déploiement en un clic.
- Ajout de notebooks de réglage pour les modèles Mistral.
- Ajout de notebooks de diffusion pour Stable Video Diffusion Img2Vid XT (à des fins de recherche).
12 janvier 2024
Les réglages de modèles pour les modèles textembedding-gecko
et textembedding-gecko-multilingual
sont disponibles en DG. Vous pouvez utiliser les réglages supervisés pour régler le modèle textembedding-gecko
.
Pour en savoir plus, consultez la page Régler les représentations vectorielles continues de texte.
8 janvier 2024
AutoSxS évalue les LLM côte à côte
L'outil d'évaluation Automatic side-by-side (AutoSxS) est disponible en version preview pour les tests A/B des performances de vos LLM ou de vos prédictions prégénérées. Il est comparable aux évaluateurs humains, mais plus rapide, disponible à la demande et plus économique.
5 janvier 2024
Développement régional de l'IA générative sur Vertex AI
Les fonctionnalités d'IA générative sur Vertex AI pour la prédiction par lot et l'évaluation des modèles sont disponibles dans 12 régions Google Cloud supplémentaires.
18 décembre 2023
Mises à jour de Model Garden :
- Compatibilité du réglage des hyperparamètres et des ensembles de données personnalisés pour les modèles OpenLLaMA à l'aide du format d'ensemble de données utilisé par le réglage supervisé dans Vertex AI.
- Compatibilité avec les conversions GPTQ pour les modèles falcon-instruct.
- Ajoutez des modèles latents cohérents et des modèles SDXL-Turbo destinés à la recherche aux notebooks de diffusion XL stables.
- Ajoutez des modèles Mixtral 8x7B dans le notebook Mistral.
13 décembre 2023
Modèles Vertex AI Gemini Pro et Gemini Pro Vision
Les modèles de langage multimodaux Vertex AI Gemini Pro et Gemini Pro Vision sont disponibles en version preview. Pour plus d'informations, consultez les articles suivants :
- Présentation des modèles multimodaux
- Conception d'invites multimodales
- Documentation de référence de l'API Vertex AI Gemini
- Documentation de référence du SDK Gemini pour Python
- Migrer depuis l'API PaLM vers l'API Gemini
Disponibilité générale d'Imagen 2
La version 005 du modèle de génération d'images Imagen (imagegeneration@005
) est désormais en disponibilité générale pour les tâches de génération d'images. Cette version du modèle est désormais la version par défaut des tâches de génération d'images. Pour en savoir plus, consultez la documentation du produit.
Pour obtenir des informations générales sur les modèles et les versions d'Imagen, consultez la page Versions et cycle de vie des modèles d'Imagen.
12 décembre 2021
Modèle de représentation vectorielle continue de texte 003 (textembedding-gecko@003
) disponible
La version stable mise à jour du modèle de base de représentation vectorielle continue de texte, textembedding-gecko@003
, est disponible. Les fonctionnalités textembedding-gecko@003
ont été améliorées par rapport aux versions stables précédentes, textembedding-gecko@001
et textembedding-gecko@002
.
Pour en savoir plus sur les versions de modèle, consultez la page Versions et cycle de vie des modèles.
8 Décembre 2023
Mise à jour du contrôle de sécurité de l'IA générative sur Vertex AI
Le contrôle de sécurité Access Transparency (AXT) est disponible pour les fonctionnalités suivantes :
- Représentations vectorielles continues pour la prédiction en ligne multimodale
- Prédiction en ligne d'Imagen sur Vertex AI
- Réglage d'Imagen sur Vertex AI
6 décembre 2023
Modèles de texte mis à jour
La version @002
des modèles est disponible pour le texte, le chat, le code et le chat de code. Les versions de modèle @002
incluent des réponses d'invite améliorées.
Les modèles @002
sont les suivants :
text-bison@002
chat-bison@002
code-bison@002
codechat-bison@002
Pour vous assurer de toujours utiliser la version de modèle stable, spécifiez l'identifiant du modèle avec le numéro de version. Par exemple, text-bison@002
. Pour en savoir plus, consultez la page Versions et cycle de vie des modèles.
5 décembre 2023
Extraction
L'ancrage de modèle est disponible dans la version preview. Utilisez l'ancrage pour connecter les modèles text-bison
et chat-bison
à des datastores non structurés dans Vertex AI Search.
L'ancrage permet aux modèles d'accéder aux informations des dépôts de données et de les utiliser pour générer des réponses améliorées et plus nuancées.
Pour en savoir plus, consultez la Présentation de l'ancrage.
1 décembre 2023
Modifier
Les mises à jour suivantes de model_garden_name sont disponibles :
- Mise à jour des paramètres de déploiement du modèle par défaut avec des GPU L4, tels que LLaMA2, falcon-instruct, openllama, modèles Stable Diffusion 1.5, 2.1 et XL.
- Prise en charge du réglage des hyperparamètres et des ensembles de données personnalisés pour les modèles LLaMA2 à l'aide du format d'ensemble de données utilisé par le réglage supervisé dans Vertex AI.
- Paramètres LoRA et QLoRA recommandés pour le réglage des grands modèles de langage dans Vertex AI. Pour plus d'informations, consultez les Recommandations LoRA et QLoRA pour les LLM.
- Prise en charge des conversions AWQ et GPTQ pour les modèles LLaMA2 et OpenLLaMA.
- Rapports de benchmark pour l'entraînement JAX et ViT Pytorch, le réglage Openllama7b, le réglage d'hyperparamètres OpenLLaMA 3b/7b/13b et le réglage et l'inférence Stable Diffusion 1.5.
30 novembre 2023
Extraction
Une taille de modèle pour PaLM 2 pour le texte est en disponibilité générale (GA). Le modèle text-unicorn
améliore la qualité de la réponse pour un ensemble de tâches de raisonnement complexes par rapport au modèle text-bison
. Pour en savoir plus, consultez la page Informations relatives au modèle.
17 novembre 2023
L'API ComputeToken est disponible en version preview
L'API ComputeToken est disponible en version preview. Vous pouvez utiliser cette API pour obtenir la liste des jetons pour une invite donnée. Un jeton est un moyen de représenter une séquence courante de caractères présente dans une entrée de texte. Pour en savoir plus, consultez la section Obtenir une liste de jetons.
10 novembre 2023
IA générative sur Vertex AI
Des contrôles de sécurité sont disponibles pour des fonctionnalités supplémentaires d'IA générative sur Vertex AI.
3 novembre 2023
Mises à jour de Model Garden
Extraction
Les modèles suivants ont été ajoutés à Model Garden :
- ImageBind : modèle de représentation vectorielle continue multimodale.
- Vicuna v1.5 : LLM réglé basé sur llama2.
- OWL-ViT v2 : modèle de détection d'objets de vocabulaire ouvert SoTA.
- DITO : modèle de détection d'objets de vocabulaire ouvert SoTA.
- NLLB : modèle de traduction multilingue.
- Mistral-7B : LLM SoTA de petite taille.
- BioGPT : LLM réglé pour le domaine biomédical.
- BiomedCILP : modèle de base multimodal réglé pour le domaine biomédical.
Pour afficher la liste de tous les modèles disponibles, consultez la section Explorer les modèles dans Model Garden.
Modifiée
- Débit de diffusion amélioré pour le modèle de langage. Pour en savoir plus, consultez la page Diffuser des grands modèles de langage Open Source de manière efficace dans Model Garden. Les notebooks des fiches de modèle concernées ont été mis à jour en conséquence.
- La vitesse d'inférence est jusqu'à deux fois plus rapide que la mise en œuvre d'origine pour les modèles Stable Diffusion 1.5, 2.1 et XL.
- Amélioration du workflow du bouton Déployer dans toutes les fiches de modèle compatibles.
- Mise à jour des notebooks pour Llama2, OpenLlama et Falcon Instruct avec des spécifications de machine suggérées pour la diffusion de modèle et des conteneurs Docker faisceau d'évaluation EleutherAI pour l'évaluation du modèle.
Nouvelles versions de modèle stable textembedding-gecko
et textembedding-gecko-multilingual
Les versions de modèle stable suivantes sont disponibles dans l'IA générative sur Vertex AI :
textembedding-gecko@002
textembedding-gecko-multilingual@001
Pour en savoir plus sur les versions de modèle, consultez la page Versions et cycle de vie des modèles.
2 novembre 2023
L'IA générative sur Vertex AI est accessible via 12 API régionales en Amérique du Nord, en Europe et en Asie. Les API régionales permettent aux clients de contrôler l'emplacement de stockage des données au repos.
3 novembre 2023
Le réglage des modèles pour chat-bison@001
est en disponibilité générale (DG).
Le réglage de chat-bison@001
est compatible avec les visualisations de métriques Tensorboard. Pour en savoir plus, consultez la section Métriques de réglage et d'évaluation.
4 octobre 2023
Le réglage du modèle pour textembedding-gecko
est disponible en preview.
Vous pouvez maintenant utiliser le réglage supervisé pour régler le modèle textembedding-gecko
. Cette fonctionnalité est disponible en version bêta.
Pour en savoir plus, consultez la page Régler les modèles de texte.
1 septembre 2023
Mise à jour des tarifs
Le tarif de text-bison
a été réduit à 0,0005 $ par tranche de 1000 caractères d'entrée et de sortie. Pour en savoir plus, consultez les tarifs de Vertex AI.
29 août 2023
Nouveaux modèles de l'IA générative sur Vertex AI et compatibilité avec plusieurs langages
L'IA générative sur Vertex AI a été mise à jour pour inclure de nouveaux modèles de langues (derniers modèles), des modèles de langue compatibles avec les jetons d'entrée et de sortie (jusqu'à 32k), et davantage de langues compatibles. Pour en savoir plus, consultez les pages Modèles disponibles et Versions et cycle de vie des modèles.
Diffuser des réponses à partir de modèles d'IA générative
La compatibilité des flux de modèles d'IA générative est désormais en disponibilité générale (DG). Une fois que vous avez envoyé une invite, le modèle renvoie des jetons de réponse au fur et à mesure de leur génération, au lieu d'attendre que l'intégralité du résultat soit disponible.
Les modèles compatibles sont les suivants :
text-bison
chat-bison
code-bison
codechat-bison
Pour en savoir plus, consultez la page Diffuser les réponses à partir de modèles d'IA générative.
Le réglage supervisé pour le modèle text-bison
est en disponibilité générale (DG).
Le réglage supervisé pour le modèle text-bison
est en disponibilité générale (DG).
Le réglage du modèle pour le modèle chat-bison
est disponible en version bêta
Vous pouvez maintenant utiliser le réglage supervisé pour régler le modèle chat-bison
. Cette fonctionnalité est disponible en version bêta.
Pour en savoir plus, consultez la page Régler les modèles de texte.
Nouveau modèle de représentations vectorielles continues disponible en version Bêta
Les utilisateurs de l'IA générative sur Vertex AI peuvent créer des représentations vectorielles continues à l'aide d'un nouveau modèle entraîné sur un large éventail de langues autres que l'anglais. Le modèle est disponible en version (bêta).
textembedding-gecko-multilingual
Pour en savoir plus, consultez l'article Obtenir des représentations vectorielles continues de texte.
Réglage de subject et du style Imagen en disponibilité générale (DG)
Imagen sur Vertex AI propose désormais les fonctionnalités DG suivantes :
- Réglage du modèle de sujet (réglage standard)*
- Réglage des modèles de style*
* Fonctionnalité à accès restreint.
Pour plus d'informations sur Imagen sur Vertex AI ou sur l'accès à DG limité, consultez la présentation d'Imagen sur Vertex AI.
Réglage pour l'apprentissage automatique par renforcement qui utilise le feedback humain (RLHF) pour text-bison
Le modèle de fondation de génération de texte de l'IA générative sur Vertex AI (text-bison
) est compatible avec le réglage RLHF. La fonctionnalité de réglage RLHF se trouve en (aperçu).
Pour plus d'informations, consultez la page Utiliser le réglage des modèles RLHF.
Compatibilité avec le langage des API Vertex AI Codey
Les API Vertex AI Codey sont compatibles avec d'autres langages de programmation. Pour en savoir plus, consultez la page Langages de programmation compatibles.
Les API Vertex AI Codey sont compatibles avec le réglage supervisé
Les modèles des API Vertex AI Codey de chat de code (codechat-bison
) et de génération de code (code-bison
) sont compatibles avec le réglage supervisé. La fonctionnalité de réglage supervisé des modèles des API Vertex AI Codey est disponible en version (preview). Pour en savoir plus, consultez la page Régler les modèles de code.
Évaluation de modèles basée sur les métriques
Vous pouvez évaluer les performances des modèles de fondation et des modèles ajustés par rapport à un ensemble de données d'évaluation pour la classification, la synthèse, la réponse aux questions et la génération de texte général. Cette fonctionnalité est disponible en version Bêta.
Pour en savoir plus, consultez la page Évaluer les performances des modèles.
API CountToken disponible en preview
L'API CountToken est disponible en version Bêta. Vous pouvez utiliser cette API pour obtenir le nombre de jetons et le nombre de caractères facturables pour une invite. Pour en savoir plus, consultez la page Obtenir un nombre de jetons.
9 août 2023
Représentations vectorielles continues multimodales Imagen disponibles dans GA
Vertex AI propose désormais la fonctionnalité DG suivante :
- Représentations vectorielles continues multimodales
Cette fonctionnalité entraîne une tarification différente selon que vous utilisez une entrée d'image ou de texte. Pour en savoir plus, consultez la page sur la fonctionnalité de représentations vectorielles continues multimodales.
21 août 2023
Mise à jour des paramètres de réglage du modèle
Les tâches de réglage de modèle acceptent les paramètres facultatifs pour l'évaluation des modèles et l'intégration de Vertex AI TensorBoard. Cela vous permet d'évaluer votre modèle et de générer des visualisations à l'aide d'une seule commande. Pour plus d'informations, consultez la page Créer une tâche de réglage de modèle.
28 juillet 2023
Mise à jour des paramètres de réglage du modèle
Le paramètre learning_rate
du réglage du modèle est learning_rate_multiplier
.
Pour utiliser le taux d'apprentissage par défaut du modèle ou de la méthode de réglage, utilisez la valeur learning_rate_multiplier
par défaut de 1.0
.
Si vous n'avez pas encore configuré learning_rate
, aucune action n'est nécessaire.
Si vous utilisez tuning_method=tune_v2
avec le modèle de pipeline v2.0.0 (SDK Python v1.28.1 ou version ultérieure), le taux d'apprentissage recommandé est de 0,0002. Pour convertir une valeur learning_rate
personnalisée en learning_rate_multiplier
, calculez comme suit :
learing_rate_multiplier = custom_learning_rate_value / 0.0002
18 juillet 2023
Mise à jour des réglages du modèle pour text-bison
- Le pipeline de réglage mis à niveau offre un réglage plus efficace et de meilleures performances sur text-bison.
- Nouvelle région de réglage (
us-central1
) disponible avec la compatibilité GPU. - Le nouveau paramètre
learning_rate
vous permet d'ajuster la taille des étapes à chaque itération.
Pour en savoir plus, consultez la page Ajuster les modèles de fondation du langage.
Chirp en DG
Chirp est en disponibilité générale (DG). Pour plus d'informations, consultez les pages suivantes :
17 juillet 2023
Fonctionnalités de Imagen sur Vertex AI en disponibilité générale
Imagen sur Vertex AI propose les fonctionnalités DG suivantes :
- Génération d'images (génération text-vers-image)*
- Modification d'images*
- Visual Captioning (description d'image)
- Visual Question Answering (VQA)
* Fonctionnalité à accès restreint.
Pour plus d'informations sur Imagen ou sur l'accès à des fonctionnalités restreintes en disponibilité générale ou en version bêta, consultez la présentation d'Imagen sur Vertex AI.
Génération de visages compatible
Imagen est compatible avec la génération de visages pour les fonctionnalités suivantes :
* Fonctionnalité à accès restreint.
La génération de visages est activée par défaut, à l'exception des images avec des enfants ou des célébrités. Pour en savoir plus, consultez les consignes d'utilisation.
Langues supplémentaires compatibles
L'API Vertex AI PaLM est désormais compatible avec les langages suivants :
- Espagnol (es)
- Coréen (ko)
- Hindi (hi)
- Chinois (zh)
Pour obtenir la liste complète des langues disponibles, consultez la page Langues acceptées.
13 juillet 2023
Compatibilité par lot avec PaLM 2 pour Text
Les requêtes de texte par lot (text-bison
) sont disponibles en disponibilité générale.
Vous pouvez consulter les tarifs du modèle chat-bison
sur la page Tarifs de Vertex AI.
10 juillet 2023
PaLM 2 pour Chat
La compatibilité avec Chat (chat-bison
) est désormais disponible en DG.
Vous pouvez consulter les tarifs du modèle chat-bison
sur la page Tarifs de Vertex AI.
29 juin 2023
API Vertex AI Codey
Les API Vertex AI Codey sont en disponibilité générale (DG). Utilisez les API Vertex AI Codey pour créer des solutions avec génération de code, complétion de code et chat de code. Comme les API Vertex AI Codey sont en disponibilité générale, des frais d'utilisation vous sont facturés si vous les utilisez. Pour en savoir plus sur la tarification, consultez la page des tarifs de l'IA générative sur Vertex AI.
Les modèles de cette version incluent :
code-bison
(génération de code)codechat-bison
(chat de code)code-gecko
(complétion de code)
Le nombre maximal de jetons d'entrée est passé de 4 096 à 6 144 jetons pour code-bison
et codechat-bison
afin de permettre des invites plus longues et un historique des discussions. Le nombre maximal de jetons en sortie est passé de 1 024 à 2 048 pour code-bison
et codechat-bison
afin de permettre des réponses plus longues.
Des langages de programmation supplémentaires sont acceptés. Pour en savoir plus, consultez la page Langages de programmation compatibles.
Plusieurs ensembles de données avec réglages ont été supprimés des modèles code-bison
et codechat-bison
pour mettre en œuvre les améliorations suivantes :
- Discussion excessive.
- Les artefacts, tels que les caractères NBSP (espace insécable)
- Réponses de code de basse qualité.
Pour en savoir plus sur les certifications horizontales du cloud, consultez la section Certifications de Vertex AI.
15 juin 2023
PaLM 2 pour Chat
Le modèle chat-bison
a été mis à jour pour mieux suivre les instructions du champ context
. Pour en savoir plus sur la création d'invites de chat pour chat-bison
, consultez la section Concevoir des invites de chat.
7 juin 2023
API Embeddings et PaLM Text et Vertex AI Studio
L'IA générative sur Vertex AI est en (disponibilité générale).
Grâce à ce lancement de fonctionnalités, vous pouvez exploiter l'API Vertex AI PaLM pour générer des modèles d'IA que vous pouvez tester, régler et déployer dans vos applications basées sur l'IA.
Comme ces fonctionnalités sont en disponibilité générale, des frais d'utilisation vous sont facturés si vous utilisez l'API PaLM text-bison
et textembedding-gecko
. Pour connaître le détail des tarifs, consultez la page Tarification de Vertex AI.
Les fonctionnalités et les modèles de cette version sont les suivants:
- PaLM 2 pour le texte :
text-bison
- Représentation vectorielle continue pour le texte :
textembedding-gecko
- Vertex AI Studio pour le langage
Model Garden
Model Garden est disponible en disponibilité générale. Le jardin de modèles est une plate-forme qui vous permet de découvrir, de tester, de personnaliser et de déployer Vertex AI, puis de sélectionner des modèles OSS. Ces modèles vont de tunable à spécifiques à une tâche et sont tous disponibles sur la page Model Garden dans la console Google Cloud.
Pour commencer, consultez la page Explorer les modèles et les API d'IA dans le jardin de modèles.
API Vertex AI Codey
Les API Vertex AI Codey sont disponibles en version bêta.
Avec les API Codey, les API de génération de code, de complétion de code et de chat de code peuvent être utilisées à partir de n'importe quel projet Google Cloud sans liste d'autorisation. Les API sont accessibles depuis la région us-central1
. Les API Codey peuvent être utilisées dans Vertex AI Studio ou par programmation dans les commandes REST.
Pour commencer, consultez la présentation des modèles de code.
10 mai 2023
IA générative sur Vertex AI
L'IA générative sur Vertex AI est disponible en version bêta. Grâce à ce lancement de fonctionnalités, vous pouvez exploiter l'API Vertex AI PaLM pour générer des modèles d'IA que vous pouvez tester, régler et déployer dans vos applications basées sur l'IA.
Les fonctionnalités et les modèles de cette version sont les suivants :
- PaLM 2 pour le texte :
text-bison
- PaLM 2 pour Chat :
chat-bison
- Représentation vectorielle continue pour le texte :
textembedding-gecko
- Vertex AI Studio pour le langage
- Régler pour PaLM 2
- SDK Vertex AI v1.25, qui inclut de nouvelles fonctionnalités, telles que TextGenerationModel (
text-bison
), ChatModel (chat-bison
) et TextEmbeddingModel (textembedding-gecko@001
)
Vous pouvez interagir avec les fonctionnalités d'IA générative sur Vertex AI à l'aide de Vertex AI Studio dans la console Google Cloud, de l'API Vertex AI et du SDK Vertex AI pour Python.
- En savoir plus sur l'IA générative sur Vertex AI.
- Consultez une présentation de Vertex AI Studio.
- Lancez-vous avec un guide de démarrage rapide de Vertex AI Studio.
Model Garden
Model Garden est disponible en version bêta. Le jardin de modèles est une plate-forme qui vous permet de découvrir, de tester, de personnaliser et de déployer Vertex AI, et de sélectionner des modèles OSS. Ces modèles vont de l'ajustement configurable à l'exécution spécifique à une tâche. Ils sont tous disponibles sur la page du jardin de modèles de la console Google Cloud.