Gemma est un ensemble de modèles ouverts d'intelligence artificielle (IA) légers et génératifs. Les modèles Gemma peuvent être exécutés dans vos applications et sur votre matériel, vos appareils mobiles ou vos services hébergés. Vous pouvez également personnaliser ces modèles à l'aide de techniques de réglage afin qu'ils excellent dans l'exécution des tâches qui vous intéressent ainsi que vos utilisateurs. Les modèles Gemma sont basés sur des modèles Gemini et sont destinés à la communauté de développement de l'IA afin qu'ils puissent s'étendre et aller plus loin.
Le réglage fin peut vous aider à améliorer les performances d'un modèle pour des tâches spécifiques. Étant donné que les modèles de la famille Gemma sont à pondération ouverte, vous pouvez les ajuster à l'aide du framework d'IA de votre choix et du SDK Vertex AI. Vous pouvez ouvrir un exemple de notebook pour affiner le modèle Gemma à l'aide d'un lien disponible sur la fiche de modèle Gemma dans Model Garden.
Les modèles Gemma suivants peuvent être utilisés avec Vertex AI. Pour en savoir plus et tester les modèles Gemma, consultez les fiches de modèle Model Garden.
Nom du modèle | Cas d'utilisation | Fiche de modèle Model Garden |
---|---|---|
Gemma 2 | Idéal pour la génération, la synthèse et l'extraction de texte. | Accéder à la fiche de modèle Gemma 2 |
Gemma | Idéal pour la génération, la synthèse et l'extraction de texte. | Accéder à la fiche de modèle Gemma |
CodeGemma | Idéal pour la génération et la complétion de code. | Accéder à la fiche de modèle CodeGemma |
PaliGemma | Idéal pour les tâches de sous-titrage d'images, les questions visuelles et les réponses. | Accéder à la fiche de modèle PaliGemma |
Voici quelques options dans lesquelles utiliser Gemma :
Utiliser Gemma avec Vertex AI
Vertex AI offre une plate-forme gérée qui permet de créer et de faire évoluer rapidement des projets de machine learning sans nécessiter d'expertise MLOps en interne. Vous pouvez utiliser Vertex AI en tant qu'application en aval qui diffuse le modèle Gemma. Par exemple, vous pouvez transférer des pondérations à partir de l'implémentation Keras de Gemma. Vous pouvez ensuite utiliser Vertex AI pour diffuser cette version de Gemma afin d'obtenir des prédictions. Nous vous recommandons d'utiliser Vertex AI si vous souhaitez bénéficier de fonctionnalités MLOps de bout en bout, de fonctionnalités de ML à valeur ajoutée et d'une expérience sans serveur pour simplifier le développement.
Pour commencer à utiliser Gemma, consultez les notebooks suivants :
Affiner Gemma à l'aide de PEFT, puis déployer sur Vertex AI depuis Vertex
Affiner Gemma à l'aide de PEFT, puis déployer sur Vertex AI depuis Huggingface
Affiner Gemma à l'aide de KerasNLP, puis déployer sur Vertex AI
Affiner Gemma avec Ray sur Vertex AI, puis déployer sur Vertex AI
Utiliser Gemma avec d'autres produits Google Cloud
Vous pouvez utiliser Gemma avec d'autres produits Google Cloud, tels que Google Kubernetes Engine et Dataflow.
Utiliser Gemma avec GKE
Google Kubernetes Engine (GKE) est la solution Google Cloud pour les services Kubernetes gérés, qui offre évolutivité, sécurité, résilience et rentabilité. Nous vous recommandons cette option si vous disposez déjà d'investissements Kubernetes, si votre entreprise dispose d'une expertise en MLOps interne ou si vous avez besoin d'un contrôle précis sur des charges de travail d'IA/ML complexes avec une sécurité, des pipelines de données et des ressources uniques et des exigences de gestion des ressources. Pour en savoir plus, consultez les tutoriels suivants dans la documentation GKE :
- Diffuser Gemma avec vLLM
- Diffuser Gemma avec TGI
- Diffuser Gemma avec Triton et TensorRT-LLM
- Diffuser Gemma avec JetStream
- Diffuser Gemma avec Saxml
Utiliser Gemma avec Dataflow
Vous pouvez utiliser des modèles Gemma avec Dataflow pour l'analyse des sentiments. Utilisez Dataflow pour exécuter des pipelines d'inférence qui utilisent les modèles Gemma. Pour en savoir plus, consultez la section Exécuter des pipelines d'inférence avec des modèles ouverts Gemma.
Utiliser Gemma avec Colab
Vous pouvez utiliser Gemma avec Colaboratory pour créer votre solution Gemma. Dans Colab, vous pouvez utiliser Gemma avec des options de framework telles que PyTorch et JAX. Pour en savoir plus, consultez les sections suivantes :
- Premiers pas avec Gemma à l'aide de Keras.
- Premiers pas avec Gemma à l'aide de PyTorch.
- Réglage de base avec Gemma à l'aide de Keras.
- Réglage distribué avec Gemma à l'aide de Keras.
Tailles et capacités des modèles Gemma
Les modèles Gemma sont disponibles dans plusieurs tailles afin que vous puissiez créer des solutions d'IA générative en fonction de vos ressources informatiques disponibles, des fonctionnalités dont vous avez besoin et de l'emplacement où vous souhaitez les exécuter. Chaque modèle est disponible dans une version réglée et une version non réglée :
Pré-entraîné : cette version du modèle n'a été entraînée sur aucune tâche ou instruction spécifique en dehors de l'ensemble d'entraînement de données principal Gemma. Nous vous déconseillons d'utiliser ce modèle sans effectuer de réglages.
Optimisation des instructions : cette version du modèle a été entraînée avec des interactions en langage humain afin de pouvoir participer à une conversation, comme pour un simple chatbot.
Combinaison affinée : cette version du modèle est affinée sur une combinaison d'ensembles de données académiques et accepte les requêtes en langage naturel.
Une taille de paramètre plus faible signifie des besoins en ressources plus faibles et une plus grande flexibilité de déploiement.
Nom du modèle | Taille des paramètres | Entrée | Sortie | Versions réglées | Plates-formes concernées |
---|---|---|---|---|---|
Gemma 2 | |||||
Gemma 27B | 27 milliards | Texte | Texte |
|
Serveurs ou clusters de serveurs de grande taille |
Gemma 9B | 9 milliards | Texte | Texte |
|
Ordinateurs de bureau et serveurs haut de gamme |
Gemma 2B | 2 milliards | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
Gemma | |||||
Gemma 7B | 7 milliards | Texte | Texte |
|
Ordinateurs de bureau et petits serveurs |
Gemma 2B | 2,2 milliards | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
CodeGemma | |||||
CodeGemma 7B | 7 milliards | Texte | Texte |
|
Ordinateurs de bureau et petits serveurs |
CodeGemma 2B | 2 milliards | Texte | Texte |
|
Ordinateurs de bureau et petits serveurs |
PaliGemma | |||||
PaliGemma 3B | 3 milliards | Texte | Texte |
|
Ordinateurs de bureau et petits serveurs |
Gemma a été testé sur le matériel TPU v5e spécialement conçu par Google, ainsi que sur le matériel GPU L4 (G2 standard), A100 (A2 Standard) et H100 (A3 High) de NVIDIA.
Étape suivante
- Consultez la documentation Gemma.