Utiliser les modèles ouverts Gemma

Gemma est un ensemble de modèles ouverts d'intelligence artificielle (IA) légers et génératifs. Les modèles Gemma peuvent être exécutés dans vos applications et sur votre matériel, vos appareils mobiles ou vos services hébergés. Vous pouvez également personnaliser ces modèles à l'aide de techniques de réglage afin qu'ils excellent dans l'exécution des tâches qui vous intéressent ainsi que vos utilisateurs. Les modèles Gemma sont basés sur des modèles Gemini et sont destinés à la communauté de développement de l'IA afin qu'ils puissent s'étendre et aller plus loin.

Le réglage fin peut vous aider à améliorer les performances d'un modèle pour des tâches spécifiques. Étant donné que les modèles de la famille Gemma sont à pondération ouverte, vous pouvez les ajuster à l'aide du framework d'IA de votre choix et du SDK Vertex AI. Vous pouvez ouvrir un exemple de notebook pour affiner le modèle Gemma à l'aide d'un lien disponible sur la fiche de modèle Gemma dans Model Garden.

Les modèles Gemma suivants peuvent être utilisés avec Vertex Generative AI. Pour en savoir plus et tester les modèles Gemma, consultez les fiches de modèle Model Garden.

Nom du modèle Cas d'utilisation Fiche de modèle Model Garden
Gemma Idéal pour la génération, la synthèse et l'extraction de texte. Accéder à la fiche de modèle Gemma
CodeGemma Idéal pour la génération et la complétion de code. Accéder à la fiche de modèle CodeGemma
PaliGemma Idéal pour les tâches de sous-titrage d'images, les questions visuelles et les réponses. Accéder à la fiche de modèle PaliGemma

Voici quelques options dans lesquelles utiliser Gemma :

Utiliser Gemma avec Vertex Generative AI

Vertex Generative AI offre une plate-forme gérée qui permet de créer et de faire évoluer rapidement des projets de machine learning sans nécessiter d'expertise MLOps en interne. Vous pouvez utiliser Vertex Generative AI en tant qu'application en aval qui diffuse le modèle Gemma. Par exemple, vous pouvez transférer des pondérations à partir de la mise en œuvre Keras de Gemma. Vous pouvez ensuite utiliser Vertex AI pour diffuser cette version de Gemma afin d'obtenir des prédictions. Nous vous recommandons d'utiliser Vertex Generative AI si vous souhaitez bénéficier de fonctionnalités MLOps de bout en bout, de fonctionnalités de ML à valeur ajoutée et d'une expérience sans serveur pour simplifier le développement.

Pour commencer à utiliser Gemma, consultez les notebooks suivants :

Utiliser Gemma avec d'autres produits Google Cloud

Vous pouvez utiliser Gemma avec d'autres produits Google Cloud, tels que Google Kubernetes Engine et Dataflow.

Utiliser Gemma avec GKE

Google Kubernetes Engine (GKE) est la solution Google Cloud pour les services Kubernetes gérés, qui offre évolutivité, sécurité, résilience et rentabilité. Nous vous recommandons cette option si vous disposez déjà d'investissements Kubernetes, si votre entreprise dispose d'une expertise en MLOps interne ou si vous avez besoin d'un contrôle précis sur des charges de travail d'IA/ML complexes avec une sécurité, des pipelines de données et des ressources uniques et des exigences de gestion des ressources. Pour en savoir plus, consultez les tutoriels suivants dans la documentation GKE :

Utiliser Gemma avec Dataflow

Vous pouvez utiliser des modèles Gemma avec Dataflow pour l'analyse des sentiments. Utilisez Dataflow pour exécuter des pipelines d'inférence qui utilisent les modèles Gemma. Pour en savoir plus, consultez la section Exécuter des pipelines d'inférence avec des modèles ouverts Gemma.

Utiliser Gemma avec Colab

Vous pouvez utiliser Gemma avec Colaboratory pour créer votre solution Gemma. Dans Colab, vous pouvez utiliser Gemma avec des options de framework telles que PyTorch et JAX. Pour en savoir plus, consultez les sections suivantes :

Tailles et capacités des modèles Gemma

Les modèles Gemma sont disponibles dans plusieurs tailles afin que vous puissiez créer des solutions d'IA générative en fonction de vos ressources informatiques disponibles, des fonctionnalités dont vous avez besoin et de l'emplacement où vous souhaitez les exécuter. Chaque modèle est disponible dans une version réglée et une version non réglée :

  • Pré-entraîné : cette version du modèle n'a été entraînée sur aucune tâche ou instruction spécifique en dehors de l'ensemble d'entraînement de données principal Gemma. Nous vous déconseillons d'utiliser ce modèle sans effectuer de réglages.

  • Optimisation des instructions : cette version du modèle a été entraînée avec des interactions en langage humain afin de pouvoir participer à une conversation, comme pour un simple chatbot.

  • Combinaison affinée : cette version du modèle est affinée sur une combinaison d'ensembles de données académiques et accepte les invites en langage naturel.

Si vous devez choisir entre Gemma 2B et Gemma 7B, envisagez d'utiliser Gemma 2B. Les tailles de paramètres inférieures de Gemma 2B signifient que celui-ci a des besoins en ressources inférieurs et une plus grande flexibilité de déploiement que Gemma 7B.

Nom du modèle Taille des paramètres Entrée Résultat Versions configurées Plates-formes prévues
Gemma 2B 2,2 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Appareils mobiles et ordinateurs portables
Gemma 7B 7 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et petits serveurs
CodeGemma 2B 2 milliards Texte Texte
  • Solutions pré-entraînées
Ordinateurs de bureau et petits serveurs
CodeGemma 7B 7 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et petits serveurs
PaliGemma 3B 3 milliards Texte Texte
  • Pré-entraînés
  • Combinaison affinée
Ordinateurs de bureau et petits serveurs

Gemma a été testé à l'aide du matériel TPU v5e spécialement conçu par Google et du matériel GPU L4 (norme G2), A100 (norme A2) et H100 (norme A3) de NVIDIA.