Gemma es un conjunto de modelos abiertos de IA generativa ligeros. Los modelos de Gemma se pueden ejecutar en tus aplicaciones y en tu hardware, dispositivos móviles o servicios alojados. También puedes personalizar estos modelos con técnicas de ajuste para que destaquen en las tareas que son importantes para ti y tus usuarios. Los modelos de Gemma se basan en los modelos de Gemini y están pensados para que la comunidad de desarrollo de IA los amplíe y los lleve más allá.
El ajuste fino puede ayudar a mejorar el rendimiento de un modelo en tareas específicas. Como los modelos de la familia Gemma tienen pesos abiertos, puedes ajustar cualquiera de ellos con el framework de IA que quieras y el SDK de Vertex AI. Puedes abrir un ejemplo de cuaderno para ajustar el modelo de Gemma mediante un enlace disponible en la tarjeta del modelo de Gemma en Model Garden.
Los siguientes modelos Gemma se pueden usar con Vertex AI. Para obtener más información sobre los modelos de Gemma y probarlos, consulta sus tarjetas de modelo en Model Garden.
Nombre del modelo | Use cases | Tarjeta de modelo de Model Garden |
---|---|---|
Gemma 3n | Puede recibir entradas multimodales, como texto, imágenes, vídeos y audio, y generar resultados de texto. | Ir a la tarjeta del modelo Gemma 3n |
Gemma 3 | Es el más adecuado para tareas de generación de texto y comprensión de imágenes, como responder preguntas, resumir y razonar. | Ir a la tarjeta del modelo Gemma 3 |
Gemma 2 | Ideal para generar, resumir y extraer texto. | Ir a la tarjeta del modelo Gemma 2 |
Gemma | Ideal para generar, resumir y extraer texto. | Ir a la tarjeta de modelo de Gemma |
CodeGemma | La mejor opción para generar y completar código. | Ir a la tarjeta del modelo CodeGemma |
PaliGemma 2 | Es la mejor opción para tareas de subtitulado de imágenes y de preguntas y respuestas visuales. | Ir a la tarjeta del modelo PaliGemma 2 |
PaliGemma | Es la mejor opción para tareas de subtitulado de imágenes y de preguntas y respuestas visuales. | Ir a la tarjeta del modelo PaliGemma |
ShieldGemma 2 | Comprueba la seguridad de las imágenes sintéticas y naturales para ayudarte a crear conjuntos de datos y modelos sólidos. | Ir a la tarjeta del modelo ShieldGemma 2 |
TxGemma | Es la mejor opción para tareas de predicción terapéutica, como clasificación, regresión o generación, y tareas de razonamiento. | Ir a la tarjeta del modelo TxGemma |
MedGemma | Tres variantes de Gemma entrenadas para ofrecer un buen rendimiento en la comprensión de textos e imágenes médicos. | Ir a la tarjeta del modelo MedGemma |
MedSigLIP | Variante de SigLIP entrenada para codificar imágenes y texto médicos en un espacio de incrustación común. | Ir a la tarjeta de modelo de MedSigLIP |
T5Gemma | Es adecuada para diversas tareas generativas, como responder preguntas, resumir y razonar. | Ir a la tarjeta del modelo T5Gemma |
Estas son algunas opciones para usar Gemma:
Usar Gemma con Vertex AI
Vertex AI ofrece una plataforma gestionada para crear y escalar rápidamente proyectos de aprendizaje automático sin necesidad de tener experiencia en MLOps. Puedes usar Vertex AI como aplicación receptora que sirva los modelos de Gemma. Por ejemplo, puedes transferir pesos de la implementación de Gemma en Keras. A continuación, puedes usar Vertex AI para publicar esa versión de Gemma y obtener predicciones. Te recomendamos que uses Vertex AI si quieres disfrutar de funciones de MLOps integrales, funciones de aprendizaje automático de valor añadido y una experiencia sin servidor para optimizar el desarrollo.
Para empezar a usar Gemma, consulta los siguientes cuadernos:
Ajustar Gemma 3 con PEFT y, a continuación, desplegarlo en Vertex AI desde Vertex
Ajustar Gemma 2 con PEFT y, a continuación, desplegarlo en Vertex AI desde Vertex
Ajustar Gemma con PEFT y, a continuación, desplegarlo en Vertex AI desde Vertex
Ajustar Gemma con PEFT y, después, desplegarlo en Vertex AI desde Hugging Face
Ajustar Gemma con KerasNLP y, después, desplegarlo en Vertex AI
Ajustar Gemma con Ray en Vertex AI y, a continuación, desplegarlo en Vertex AI
Ejecutar inferencias locales con ShieldGemma 2 y Transformers de Hugging Face
Ejecutar inferencias locales con T5Gemma y las transformaciones de Hugging Face
Usar Gemma en otros Google Cloud productos
Puedes usar Gemma con otros Google Cloud productos, como Google Kubernetes Engine y Dataflow.
Usar Gemma con GKE
Google Kubernetes Engine (GKE) es la Google Cloud solución de Kubernetes gestionado que proporciona escalabilidad, seguridad, resiliencia y rentabilidad. Recomendamos esta opción si ya has invertido en Kubernetes, tu organización tiene experiencia interna en MLOps o necesitas un control granular sobre cargas de trabajo de IA o aprendizaje automático complejas con requisitos únicos de seguridad, canalización de datos y gestión de recursos. Para obtener más información, consulta los siguientes tutoriales de la documentación de GKE:
- Servir Gemma con vLLM
- Servir Gemma con TGI
- Servir Gemma con Triton y TensorRT-LLM
- Servir Gemma con JetStream
Usar Gemma con Dataflow
Puedes usar modelos Gemma con Dataflow para hacer análisis de sentimiento. Usa Dataflow para ejecutar flujos de procesamiento de inferencia que usen los modelos de Gemma. Para obtener más información, consulta Ejecutar pipelines de inferencia con modelos abiertos de Gemma.
Usar Gemma con Colab
Puedes usar Gemma con Colaboratory para crear tu solución de Gemma. En Colab, puedes usar Gemma con opciones de framework como PyTorch y JAX. Para obtener más información, consulta:
- Empieza a usar Gemma con Keras.
- Empieza a usar Gemma con PyTorch.
- Ajuste básico con Gemma usando Keras.
- Ajuste distribuido con Gemma mediante Keras.
Tamaños y funciones de los modelos de Gemma
Los modelos de Gemma están disponibles en varios tamaños para que puedas crear soluciones de IA generativa en función de los recursos de computación disponibles, las funciones que necesites y dónde quieras ejecutarlas. Cada modelo está disponible en una versión ajustada y otra sin ajustar:
Preentrenado: esta versión del modelo no se ha entrenado con ninguna tarea ni instrucción específicas más allá del conjunto de datos de entrenamiento principal de Gemma. No recomendamos usar este modelo sin realizar algunos ajustes.
Ajustado para seguir instrucciones: esta versión del modelo se ha entrenado con interacciones en lenguaje humano para que pueda participar en una conversación, de forma similar a un bot de chat básico.
Mezcla con ajuste fino: esta versión del modelo se ha ajustado con una mezcla de conjuntos de datos académicos y acepta peticiones en lenguaje natural.
Cuanto menor sea el tamaño de los parámetros, menores serán los requisitos de recursos y mayor será la flexibilidad de implementación.
Nombre del modelo | Tamaño de los parámetros | Entrada | Salida | Versiones optimizadas | Plataformas previstas |
---|---|---|---|---|---|
Gemma 3n | |||||
Gemma 3n E4B | 4000 millones de parámetros efectivos | Texto, imagen y audio | Texto |
|
Dispositivos móviles y portátiles |
Gemma 3n E2B | 2000 millones de parámetros efectivos | Texto, imagen y audio | Texto |
|
Dispositivos móviles y portátiles |
Gemma 3 | |||||
Gemma 27B | 27.000 millones | Texto e imagen | Texto |
|
Servidores o clústeres de servidores grandes |
Gemma 12B | 12.000 millones | Texto e imagen | Texto |
|
Ordenadores de sobremesa y servidores de gama alta |
Gemma 4B | 4000 millones | Texto e imagen | Texto |
|
Ordenadores de sobremesa y servidores pequeños |
Gemma 1B | 1000 millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
Gemma 2 | |||||
Gemma 27B | 27.000 millones | Texto | Texto |
|
Servidores o clústeres de servidores grandes |
Gemma 9B | 9000 millones | Texto | Texto |
|
Ordenadores de sobremesa y servidores de gama alta |
Gemma 2B | 2000 millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
Gemma | |||||
Gemma 7B | 7000 millones | Texto | Texto |
|
Ordenadores de sobremesa y servidores pequeños |
Gemma 2B | 2200 millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
CodeGemma | |||||
CodeGemma 7B | 7000 millones | Texto | Texto |
|
Ordenadores de sobremesa y servidores pequeños |
CodeGemma 2B | 2000 millones | Texto | Texto |
|
Ordenadores de sobremesa y servidores pequeños |
PaliGemma 2 | |||||
PaliGemma 28B | 28.000 millones | Texto e imagen | Texto |
|
Servidores o clústeres de servidores grandes |
PaliGemma 10B | 10.000 millones | Texto e imagen | Texto |
|
Ordenadores de sobremesa y servidores de gama alta |
PaliGemma 3B | 3000 millones | Texto e imagen | Texto |
|
Ordenadores de sobremesa y servidores pequeños |
PaliGemma | |||||
PaliGemma 3B | 3000 millones | Texto e imagen | Texto |
|
Ordenadores de sobremesa y servidores pequeños |
ShieldGemma 2 | |||||
ShieldGemma 2 | 4000 millones | Texto e imagen | Texto |
|
Ordenadores de sobremesa y servidores pequeños |
TxGemma | |||||
TxGemma 27B | 27.000 millones | Texto | Texto |
|
Servidores o clústeres de servidores grandes |
TxGemma 9B | 9000 millones | Texto | Texto |
|
Ordenadores de sobremesa y servidores de gama alta |
TxGemma 2B | 2000 millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
MedGemma | |||||
MedGemma 27B | 27.000 millones | Texto e imagen | Texto |
|
Servidores o clústeres de servidores grandes |
MedGemma 4B | 4000 millones | Texto e imagen | Texto |
|
Ordenadores de sobremesa y servidores pequeños |
MedSigLIP | |||||
MedSigLIP | 800 millones | Texto e imagen | Inserción |
|
Dispositivos móviles y portátiles |
T5Gemma | |||||
T5Gemma 9B-9B | 18.000 millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
T5Gemma 9B-2B | 11.000 millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
T5Gemma 2B-2B | 4000 millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
T5Gemma XL-XL | 4000 millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
T5Gemma M-L | 2000 millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
T5Gemma L-L | 1000 millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
T5Gemma B-B | 0,6 mil millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
T5Gemma S-S | 0,3 mil millones | Texto | Texto |
|
Dispositivos móviles y portátiles |
Gemma se ha probado con el hardware de TPU v5e creado específicamente por Google y con el hardware de GPU L4(G2 Standard), A100(A2 Standard) y H100(A3 High) de NVIDIA.
Siguientes pasos
- Consulta la documentación de Gemma.