Utiliser les modèles ouverts Gemma

Gemma est un ensemble de modèles ouverts d'intelligence artificielle (IA) légers et génératifs. Les modèles Gemma peuvent être exécutés dans vos applications et sur votre matériel, vos appareils mobiles ou vos services hébergés. Vous pouvez également personnaliser ces modèles à l'aide de techniques de réglage afin qu'ils excellent dans l'exécution des tâches qui vous intéressent ainsi que vos utilisateurs. Les modèles Gemma sont basés sur des modèles Gemini et sont destinés à la communauté de développement de l'IA afin qu'ils puissent s'étendre et aller plus loin.

Le réglage fin peut vous aider à améliorer les performances d'un modèle pour des tâches spécifiques. Étant donné que les modèles de la famille Gemma sont à pondération ouverte, vous pouvez les ajuster à l'aide du framework d'IA de votre choix et du SDK Vertex AI. Vous pouvez ouvrir un exemple de notebook pour affiner le modèle Gemma à l'aide d'un lien disponible sur la fiche de modèle Gemma dans Model Garden.

Les modèles Gemma suivants peuvent être utilisés avec Vertex AI. Pour en savoir plus et tester les modèles Gemma, consultez les fiches de modèle Model Garden.

Nom du modèle Cas d'utilisation Fiche de modèle Model Garden
Gemma 2 Idéal pour la génération, la synthèse et l'extraction de texte. Accéder à la fiche de modèle Gemma 2
Gemma Idéal pour la génération, la synthèse et l'extraction de texte. Accéder à la fiche de modèle Gemma
CodeGemma Idéal pour la génération et la complétion de code. Accéder à la fiche de modèle CodeGemma
PaliGemma Idéal pour les tâches de sous-titrage d'images, les questions visuelles et les réponses. Accéder à la fiche de modèle PaliGemma

Voici quelques options dans lesquelles utiliser Gemma :

Utiliser Gemma avec Vertex AI

Vertex AI offre une plate-forme gérée qui permet de créer et de faire évoluer rapidement des projets de machine learning sans nécessiter d'expertise MLOps en interne. Vous pouvez utiliser Vertex AI en tant qu'application en aval qui diffuse le modèle Gemma. Par exemple, vous pouvez transférer des pondérations à partir de l'implémentation Keras de Gemma. Vous pouvez ensuite utiliser Vertex AI pour diffuser cette version de Gemma afin d'obtenir des prédictions. Nous vous recommandons d'utiliser Vertex AI si vous souhaitez bénéficier de fonctionnalités MLOps de bout en bout, de fonctionnalités de ML à valeur ajoutée et d'une expérience sans serveur pour simplifier le développement.

Pour commencer à utiliser Gemma, consultez les notebooks suivants :

Utiliser Gemma avec d'autres produits Google Cloud

Vous pouvez utiliser Gemma avec d'autres produits Google Cloud, tels que Google Kubernetes Engine et Dataflow.

Utiliser Gemma avec GKE

Google Kubernetes Engine (GKE) est la solution Google Cloud pour les services Kubernetes gérés, qui offre évolutivité, sécurité, résilience et rentabilité. Nous vous recommandons cette option si vous disposez déjà d'investissements Kubernetes, si votre entreprise dispose d'une expertise en MLOps interne ou si vous avez besoin d'un contrôle précis sur des charges de travail d'IA/ML complexes avec une sécurité, des pipelines de données et des ressources uniques et des exigences de gestion des ressources. Pour en savoir plus, consultez les tutoriels suivants dans la documentation GKE :

Utiliser Gemma avec Dataflow

Vous pouvez utiliser des modèles Gemma avec Dataflow pour l'analyse des sentiments. Utilisez Dataflow pour exécuter des pipelines d'inférence qui utilisent les modèles Gemma. Pour en savoir plus, consultez la section Exécuter des pipelines d'inférence avec des modèles ouverts Gemma.

Utiliser Gemma avec Colab

Vous pouvez utiliser Gemma avec Colaboratory pour créer votre solution Gemma. Dans Colab, vous pouvez utiliser Gemma avec des options de framework telles que PyTorch et JAX. Pour en savoir plus, consultez les sections suivantes :

Tailles et capacités des modèles Gemma

Les modèles Gemma sont disponibles dans plusieurs tailles afin que vous puissiez créer des solutions d'IA générative en fonction de vos ressources informatiques disponibles, des fonctionnalités dont vous avez besoin et de l'emplacement où vous souhaitez les exécuter. Chaque modèle est disponible dans une version réglée et une version non réglée :

  • Pré-entraîné : cette version du modèle n'a été entraînée sur aucune tâche ou instruction spécifique en dehors de l'ensemble d'entraînement de données principal Gemma. Nous vous déconseillons d'utiliser ce modèle sans effectuer de réglages.

  • Optimisation des instructions : cette version du modèle a été entraînée avec des interactions en langage humain afin de pouvoir participer à une conversation, comme pour un simple chatbot.

  • Combinaison affinée : cette version du modèle est affinée sur une combinaison d'ensembles de données académiques et accepte les requêtes en langage naturel.

Une taille de paramètre plus faible signifie des besoins en ressources plus faibles et une plus grande flexibilité de déploiement.

Nom du modèle Taille des paramètres Entrée Sortie Versions réglées Plates-formes concernées
Gemma 2
Gemma 27B 27 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Serveurs ou clusters de serveurs de grande taille
Gemma 9B 9 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et serveurs haut de gamme
Gemma 2B 2 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Appareils mobiles et ordinateurs portables
Gemma
Gemma 7B 7 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et petits serveurs
Gemma 2B 2,2 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Appareils mobiles et ordinateurs portables
CodeGemma
CodeGemma 7B 7 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et petits serveurs
CodeGemma 2B 2 milliards Texte Texte
  • Solutions pré-entraînées
Ordinateurs de bureau et petits serveurs
PaliGemma
PaliGemma 3B 3 milliards Texte Texte
  • Pré-entraînés
  • Combinaison affinée
Ordinateurs de bureau et petits serveurs

Gemma a été testé sur le matériel TPU v5e spécialement conçu par Google, ainsi que sur le matériel GPU L4 (G2 standard), A100 (A2 Standard) et H100 (A3 High) de NVIDIA.

Étape suivante