Gemini est une famille de modèles d'IA générative développés par Google et conçus pour les cas d'utilisation multimodaux. Si vous n'avez jamais utilisé de modèles Gemini sur Vertex AI, consultez la présentation de l'IA générative.
Les principaux avantages de Gemini sont les suivants:
Performances améliorées: les derniers grands modèles de langage (LLM), tels que Gemini Flash 1.5, offrent une meilleure compréhension d'un éventail de tâches de langage naturel que le modèle de texte AutoML. Pour en savoir plus, consultez le rapport technique de l'équipe Gemini, accessible au public.
Flexibilité: Gemini permet à la fois d'inviter (adaptation rapide) et de peaufiner (personnalisation plus poussée) pour répondre aux différents besoins des projets. Cette flexibilité permet de créer rapidement des prototypes, de les tester et de les déployer à l'aide de requêtes, avec la possibilité d'ajuster les pondérations du modèle Gemini pour des performances optimales sur des tâches spécifiques. Vertex AI propose des options de contrôle programmatique basées sur la console, ainsi que des options de SDK et d'API.
Fonctionnalités polyvalentes et multimodales: Gemini permet de traiter du texte, des images et d'autres modalités. Cette approche permet d'utiliser un format et un modèle uniques de manière cohérente pour différentes tâches. Cette flexibilité permet d'adapter facilement le processus à différentes applications, ce qui simplifie et accélère le développement.
Gemini est compatible avec la plupart des fonctionnalités disponibles dans AutoML Text. Toutefois, il existe des différences, et les bibliothèques clientes ne sont pas compatibles avec la rétrocompatibilité avec les intégrations client. En d'autres termes, vous devez planifier la migration de vos ressources pour bénéficier des fonctionnalités Gemini.
Si vous préparez un nouveau projet, nous vous conseillons de créer votre code, votre tâche, votre ensemble de données ou votre modèle avec Gemini. Cela vous permettra de tirer parti des nouvelles fonctionnalités et des améliorations du service dès qu'elles sont disponibles.
Procédure recommandée pour migrer vers Gemini
Suivez la procédure recommandée suivante pour mettre à jour votre code, vos tâches, vos ensembles de données et vos modèles existants d'AutoML Text vers Gemini.
Découvrez les principales différences entre Gemini et AutoML Text sur la page Gemini pour les utilisateurs AutoML Text.
Examinez les modifications potentielles concernant les tarifs (consultez la section Tarifs de migration pour Gemini).
Faites l'inventaire de votre code et de vos projets, tâches, ensembles de données, modèles et utilisateurs Google Cloud avec un accès à AutoML Text. Utilisez ces informations pour déterminer les ressources à migrer et pour vous assurer que seuls les bons utilisateurs ont accès aux ressources migrées.
Passez en revue les modifications apportées aux rôles IAM, puis mettez à jour les comptes de service et l'authentification pour vos ressources.
Vous pouvez migrer vos ressources à l'aide des deux méthodes suivantes :
Consultez les emplacements disponibles pour Gemini.
Identifiez l'utilisation des API AutoML Text afin de déterminer quelles applications les utilisent et d'identifier les appels de méthode que vous souhaitez migrer.
Mettez à jour vos applications et vos workflows pour utiliser Gemini.
Planifiez la surveillance du quota de requêtes. Consultez la page Quotas et limites pour en savoir plus.
Tarification de la migration Gemini
La migration est gratuite. Après la migration, les anciennes ressources restent disponibles dans AutoML Text jusqu'à la fermeture du service en juin 2025. Pour éviter des coûts inutiles, arrêtez ou supprimez les anciennes ressources après avoir confirmé la migration réussie de vos objets.
Tarifs Gemini par rapport aux tarifs AutoML Text
Les prix Gemini sont généralement moins élevés que ceux des tâches équivalentes dans AutoML Text. Le prix de Gemini dépend de l'utilisation que vous faites du modèle : pour prompt engineering (ingénierie des requêtes) uniquement, pour l'affinage uniquement ou pour une combinaison des deux. Pour en savoir plus, vous pouvez comparer les tarifs AutoML Text avec les tarifs Gemini.
Pour les modèles d'extraction d'entités, tenez compte du fait que la sortie de la mise en service du modèle peut être plus élevée, car la sortie correspond aux données structurées complètes.
Identifier l'utilisation des API AutoML Text
Vous pouvez déterminer quelles applications utilisent les API AutoML, ainsi que les méthodes qu'elles utilisent. Utilisez ces informations pour déterminer si ces appels d'API doivent être migrés vers Gemini:
Pour chacun de vos projets, accédez au tableau de bord des API et services afin d'obtenir la liste des API de produits utilisées par le projet. Pour en savoir plus, consultez la page Surveiller l'utilisation des API.
Si cette option est activée, vous pouvez consulter les journaux d'audit créés par AutoML text dans Cloud Audit Logs.
Pour voir l'utilisation de méthodes AutoML Text spécifiques, accédez à la page Métriques AutoML Text.
Gérer les modifications apportées aux rôles et aux autorisations IAM
Vertex AI fournit les rôles IAM (Identity and Access Management) suivants :
aiplatform.admin
aiplatform.user
aiplatform.viewer
L'utilisation des ensembles de données Vertex AI n'est plus nécessaire. Les données d'affinage dans Gemini ne peuvent être stockées que dans Cloud Storage.
Pour en savoir plus sur les rôles IAM, consultez la page Contrôle des accès.
Étape suivante
Consultez la présentation du réglage dans Gemini.
Pour comparer Gemini et AutoML Text, consultez Gemini pour les utilisateurs AutoML Text.