Usar modelos abiertos de Gemma

Gemma es un conjunto de modelos abiertos de IA generativa ligeros. Los modelos de Gemma se pueden ejecutar en tus aplicaciones y en tu hardware, dispositivos móviles o servicios alojados. También puedes personalizar estos modelos con técnicas de ajuste para que destaquen en las tareas que son importantes para ti y tus usuarios. Los modelos de Gemma se basan en los modelos de Gemini y están pensados para que la comunidad de desarrollo de IA los amplíe y los lleve más allá.

El ajuste fino puede ayudar a mejorar el rendimiento de un modelo en tareas específicas. Como los modelos de la familia Gemma tienen pesos abiertos, puedes ajustar cualquiera de ellos con el framework de IA que quieras y el SDK de Vertex AI. Puedes abrir un ejemplo de cuaderno para ajustar el modelo de Gemma mediante un enlace disponible en la tarjeta del modelo de Gemma en Model Garden.

Los siguientes modelos Gemma se pueden usar con Vertex AI. Para obtener más información sobre los modelos de Gemma y probarlos, consulta sus tarjetas de modelo en Model Garden.

Nombre del modelo Use cases Tarjeta de modelo de Model Garden
Gemma 3n Puede recibir entradas multimodales, como texto, imágenes, vídeos y audio, y generar resultados de texto. Ir a la tarjeta del modelo Gemma 3n
Gemma 3 Es el más adecuado para tareas de generación de texto y comprensión de imágenes, como responder preguntas, resumir y razonar. Ir a la tarjeta del modelo Gemma 3
Gemma 2 Ideal para generar, resumir y extraer texto. Ir a la tarjeta del modelo Gemma 2
Gemma Ideal para generar, resumir y extraer texto. Ir a la tarjeta de modelo de Gemma
CodeGemma La mejor opción para generar y completar código. Ir a la tarjeta del modelo CodeGemma
PaliGemma 2 Es la mejor opción para tareas de subtitulado de imágenes y de preguntas y respuestas visuales. Ir a la tarjeta del modelo PaliGemma 2
PaliGemma Es la mejor opción para tareas de subtitulado de imágenes y de preguntas y respuestas visuales. Ir a la tarjeta del modelo PaliGemma
ShieldGemma 2 Comprueba la seguridad de las imágenes sintéticas y naturales para ayudarte a crear conjuntos de datos y modelos sólidos. Ir a la tarjeta del modelo ShieldGemma 2
TxGemma Es la mejor opción para tareas de predicción terapéutica, como clasificación, regresión o generación, y tareas de razonamiento. Ir a la tarjeta del modelo TxGemma
MedGemma Tres variantes de Gemma entrenadas para ofrecer un buen rendimiento en la comprensión de textos e imágenes médicos. Ir a la tarjeta del modelo MedGemma
MedSigLIP Variante de SigLIP entrenada para codificar imágenes y texto médicos en un espacio de incrustación común. Ir a la tarjeta de modelo de MedSigLIP
T5Gemma Es adecuada para diversas tareas generativas, como responder preguntas, resumir y razonar. Ir a la tarjeta del modelo T5Gemma

Estas son algunas opciones para usar Gemma:

Usar Gemma con Vertex AI

Vertex AI ofrece una plataforma gestionada para crear y escalar rápidamente proyectos de aprendizaje automático sin necesidad de tener experiencia en MLOps. Puedes usar Vertex AI como aplicación receptora que sirva los modelos de Gemma. Por ejemplo, puedes transferir pesos de la implementación de Gemma en Keras. A continuación, puedes usar Vertex AI para publicar esa versión de Gemma y obtener predicciones. Te recomendamos que uses Vertex AI si quieres disfrutar de funciones de MLOps integrales, funciones de aprendizaje automático de valor añadido y una experiencia sin servidor para optimizar el desarrollo.

Para empezar a usar Gemma, consulta los siguientes cuadernos:

Usar Gemma en otros Google Cloud productos

Puedes usar Gemma con otros Google Cloud productos, como Google Kubernetes Engine y Dataflow.

Usar Gemma con GKE

Google Kubernetes Engine (GKE) es la Google Cloud solución de Kubernetes gestionado que proporciona escalabilidad, seguridad, resiliencia y rentabilidad. Recomendamos esta opción si ya has invertido en Kubernetes, tu organización tiene experiencia interna en MLOps o necesitas un control granular sobre cargas de trabajo de IA o aprendizaje automático complejas con requisitos únicos de seguridad, canalización de datos y gestión de recursos. Para obtener más información, consulta los siguientes tutoriales de la documentación de GKE:

Usar Gemma con Dataflow

Puedes usar modelos Gemma con Dataflow para hacer análisis de sentimiento. Usa Dataflow para ejecutar flujos de procesamiento de inferencia que usen los modelos de Gemma. Para obtener más información, consulta Ejecutar pipelines de inferencia con modelos abiertos de Gemma.

Usar Gemma con Colab

Puedes usar Gemma con Colaboratory para crear tu solución de Gemma. En Colab, puedes usar Gemma con opciones de framework como PyTorch y JAX. Para obtener más información, consulta:

Tamaños y funciones de los modelos de Gemma

Los modelos de Gemma están disponibles en varios tamaños para que puedas crear soluciones de IA generativa en función de los recursos de computación disponibles, las funciones que necesites y dónde quieras ejecutarlas. Cada modelo está disponible en una versión ajustada y otra sin ajustar:

  • Preentrenado: esta versión del modelo no se ha entrenado con ninguna tarea ni instrucción específicas más allá del conjunto de datos de entrenamiento principal de Gemma. No recomendamos usar este modelo sin realizar algunos ajustes.

  • Ajustado para seguir instrucciones: esta versión del modelo se ha entrenado con interacciones en lenguaje humano para que pueda participar en una conversación, de forma similar a un bot de chat básico.

  • Mezcla con ajuste fino: esta versión del modelo se ha ajustado con una mezcla de conjuntos de datos académicos y acepta peticiones en lenguaje natural.

Cuanto menor sea el tamaño de los parámetros, menores serán los requisitos de recursos y mayor será la flexibilidad de implementación.

Nombre del modelo Tamaño de los parámetros Entrada Salida Versiones optimizadas Plataformas previstas
Gemma 3n
Gemma 3n E4B 4000 millones de parámetros efectivos Texto, imagen y audio Texto
  • Preentrenado
  • Ajustado con instrucciones
Dispositivos móviles y portátiles
Gemma 3n E2B 2000 millones de parámetros efectivos Texto, imagen y audio Texto
  • Preentrenado
  • Ajustado con instrucciones
Dispositivos móviles y portátiles
Gemma 3
Gemma 27B 27.000 millones Texto e imagen Texto
  • Preentrenado
  • Ajustado con instrucciones
Servidores o clústeres de servidores grandes
Gemma 12B 12.000 millones Texto e imagen Texto
  • Preentrenado
  • Ajustado con instrucciones
Ordenadores de sobremesa y servidores de gama alta
Gemma 4B 4000 millones Texto e imagen Texto
  • Preentrenado
  • Ajustado con instrucciones
Ordenadores de sobremesa y servidores pequeños
Gemma 1B 1000 millones Texto Texto
  • Preentrenado
  • Ajustado con instrucciones
Dispositivos móviles y portátiles
Gemma 2
Gemma 27B 27.000 millones Texto Texto
  • Preentrenado
  • Ajustado con instrucciones
Servidores o clústeres de servidores grandes
Gemma 9B 9000 millones Texto Texto
  • Preentrenado
  • Ajustado con instrucciones
Ordenadores de sobremesa y servidores de gama alta
Gemma 2B 2000 millones Texto Texto
  • Preentrenado
  • Ajustado con instrucciones
Dispositivos móviles y portátiles
Gemma
Gemma 7B 7000 millones Texto Texto
  • Preentrenado
  • Ajustado con instrucciones
Ordenadores de sobremesa y servidores pequeños
Gemma 2B 2200 millones Texto Texto
  • Preentrenado
  • Ajustado con instrucciones
Dispositivos móviles y portátiles
CodeGemma
CodeGemma 7B 7000 millones Texto Texto
  • Preentrenado
  • Ajustado con instrucciones
Ordenadores de sobremesa y servidores pequeños
CodeGemma 2B 2000 millones Texto Texto
  • Preentrenado
Ordenadores de sobremesa y servidores pequeños
PaliGemma 2
PaliGemma 28B 28.000 millones Texto e imagen Texto
  • Preentrenado
  • Mix fine-tuned
Servidores o clústeres de servidores grandes
PaliGemma 10B 10.000 millones Texto e imagen Texto
  • Preentrenado
  • Mix fine-tuned
Ordenadores de sobremesa y servidores de gama alta
PaliGemma 3B 3000 millones Texto e imagen Texto
  • Preentrenado
  • Mix fine-tuned
Ordenadores de sobremesa y servidores pequeños
PaliGemma
PaliGemma 3B 3000 millones Texto e imagen Texto
  • Preentrenado
  • Mix fine-tuned
Ordenadores de sobremesa y servidores pequeños
ShieldGemma 2
ShieldGemma 2 4000 millones Texto e imagen Texto
  • Ajustado
Ordenadores de sobremesa y servidores pequeños
TxGemma
TxGemma 27B 27.000 millones Texto Texto
  • Preentrenado
  • Ajustado con instrucciones
Servidores o clústeres de servidores grandes
TxGemma 9B 9000 millones Texto Texto
  • Preentrenado
  • Ajustado con instrucciones
Ordenadores de sobremesa y servidores de gama alta
TxGemma 2B 2000 millones Texto Texto
  • Preentrenado
Dispositivos móviles y portátiles
MedGemma
MedGemma 27B 27.000 millones Texto e imagen Texto
  • Ajustado con instrucciones de solo texto
  • Ajustado con instrucciones
Servidores o clústeres de servidores grandes
MedGemma 4B 4000 millones Texto e imagen Texto
  • Preentrenado
  • Ajustado con instrucciones
Ordenadores de sobremesa y servidores pequeños
MedSigLIP
MedSigLIP 800 millones Texto e imagen Inserción
  • Ajustado
Dispositivos móviles y portátiles
T5Gemma
T5Gemma 9B-9B 18.000 millones Texto Texto
  • PrefixLM, preentrenado
  • PrefixLM, ajustado mediante instrucciones
  • UL2, preentrenado
  • UL2, ajustado para instrucciones
Dispositivos móviles y portátiles
T5Gemma 9B-2B 11.000 millones Texto Texto
  • PrefixLM, preentrenado
  • PrefixLM, ajustado mediante instrucciones
  • UL2, preentrenado
  • UL2, ajustado para instrucciones
Dispositivos móviles y portátiles
T5Gemma 2B-2B 4000 millones Texto Texto
  • PrefixLM, preentrenado
  • PrefixLM, ajustado mediante instrucciones
  • UL2, preentrenado
  • UL2, ajustado para instrucciones
Dispositivos móviles y portátiles
T5Gemma XL-XL 4000 millones Texto Texto
  • PrefixLM, preentrenado
  • PrefixLM, ajustado mediante instrucciones
  • UL2, preentrenado
  • UL2, ajustado para instrucciones
Dispositivos móviles y portátiles
T5Gemma M-L 2000 millones Texto Texto
  • PrefixLM, preentrenado
  • PrefixLM, ajustado mediante instrucciones
  • UL2, preentrenado
  • UL2, ajustado para instrucciones
Dispositivos móviles y portátiles
T5Gemma L-L 1000 millones Texto Texto
  • PrefixLM, preentrenado
  • PrefixLM, ajustado mediante instrucciones
  • UL2, preentrenado
  • UL2, ajustado para instrucciones
Dispositivos móviles y portátiles
T5Gemma B-B 0,6 mil millones Texto Texto
  • PrefixLM, preentrenado
  • PrefixLM, ajustado mediante instrucciones
  • UL2, preentrenado
  • UL2, ajustado para instrucciones
Dispositivos móviles y portátiles
T5Gemma S-S 0,3 mil millones Texto Texto
  • PrefixLM, preentrenado
  • PrefixLM, ajustado mediante instrucciones
  • UL2, preentrenado
  • UL2, ajustado para instrucciones
Dispositivos móviles y portátiles

Gemma se ha probado con el hardware de TPU v5e creado específicamente por Google y con el hardware de GPU L4(G2 Standard), A100(A2 Standard) y H100(A3 High) de NVIDIA.

Siguientes pasos