Usar modelos abertos do Gemma

O Gemma é um conjunto de modelos abertos de inteligência artificial (IA) leve e generativa. Os modelos Gemma estão disponíveis para execução nos aplicativos e no hardware, dispositivos móveis ou serviços hospedados. Também é possível personalizar esses modelos usando técnicas de ajuste para que eles se destaquem na execução de tarefas importantes para você e seus usuários. Os modelos Gemma são baseados em modelos Gemini e destinados à comunidade de desenvolvimento de IA para ampliar e avançar.

O ajuste fino pode ajudar a melhorar o desempenho de um modelo em tarefas específicas. Como os modelos da família de modelos Gemma têm peso aberto, é possível ajustá-los usando o framework de IA de sua escolha e o SDK da Vertex AI. É possível abrir um exemplo de notebook para ajustar o modelo do Gemma usando um link disponível no card de modelo do Gemma no Model Garden.

Os modelos Gemma a seguir estão disponíveis para uso com a Vertex AI. Para saber mais e testar os modelos Gemma, consulte os cards de modelos do Model Garden.

Nome do modelo Casos de uso Card de modelo do Model Garden
Gemma 3n Capaz de entrada multimodal, processando texto, imagem, vídeo e áudio, e gerando saídas de texto. Acessar o card de modelo do Gemma 3n
O Gemma 3 Ideal para tarefas de geração de texto e compreensão de imagens, incluindo respostas a perguntas, resumo e raciocínio. Acessar o card de modelo do Gemma 3
Gemma 2 Ideal para geração, resumo e extração de textos. Acessar o card de modelo do Gemma 2
Gemma Ideal para geração, resumo e extração de textos. Acessar o card de modelo do Gemma
CodeGemma Melhor para geração e preenchimento de código. Acessar o card de modelo do CodeGemma
PaliGemma 2 Ideal para tarefas de legendagem de imagens e respostas a perguntas visuais. Acessar o card de modelo do PaliGemma 2
PaliGemma Ideal para tarefas de legendagem de imagens e respostas a perguntas visuais. Acessar o card de modelo do PaliGemma
ShieldGemma 2 Verifica a segurança de imagens sintéticas e naturais para ajudar você a criar modelos e conjuntos de dados robustos. Acessar o card de modelo do ShieldGemma 2
TxGemma Ideal para tarefas de previsão terapêutica, incluindo classificação, regressão ou geração, e tarefas de raciocínio. Acessar o card de modelo do TxGemma
MedGemma Três variantes do Gemma treinadas para performance na compreensão de texto e imagem médicos. Acessar o card de modelo do MedGemma
MedSigLIP Variante do SigLIP treinada para codificar imagens e textos médicos em um espaço de embedding comum. Acessar o card de modelo do MedSigLIP
T5Gemma Ideal para várias tarefas generativas, incluindo respostas a perguntas, resumo e raciocínio. Acessar o card de modelo do T5Gemma

Confira a seguir algumas opções de onde você pode usar o Gemma:

Usar o Gemma com a Vertex AI

A Vertex AI oferece uma plataforma gerenciada para criar e escalonar rapidamente projetos de machine learning sem precisar de experiência interna em MLOps. É possível usar a Vertex AI como o aplicativo downstream que exibe os modelos Gemma. Por exemplo, é possível transferir pesos da implementação do Keras do Gemma. A Vertex AI pode ser usada para disponibilizar essa versão do Gemma e receber previsões. Recomendamos o uso da Vertex AI se você quiser recursos de MLOps completos, recursos de ML com valor agregado e uma experiência sem servidor para um desenvolvimento simplificado.

Para começar a usar o Gemma, consulte os seguintes notebooks:

Usar o Gemma em outros produtos Google Cloud

Você pode usar o Gemma com outros produtos do Google Cloud , como o Google Kubernetes Engine e o Dataflow.

Usar o Gemma com o GKE

O Google Kubernetes Engine (GKE) é a Google Cloud solução para o Kubernetes gerenciado que oferece escalonabilidade, segurança, resiliência e economia. Recomendamos essa opção se você tiver investimentos atuais no Kubernetes, se sua organização tiver experiência interna em MLOps ou se precisar de controle granular sobre cargas de trabalho complexas de IA/ML com segurança, pipeline de dados e recursos exclusivos de gerenciamento de projetos. Para saber mais, consulte os seguintes tutoriais na documentação do GKE:

Usar o Gemma com o Dataflow

Você pode usar modelos Gemma com o Dataflow para análise de sentimento. Use o Dataflow para executar pipelines de inferência que usem os modelos Gemma. Para saber mais, consulte Executar pipelines de inferência com modelos abertos do Gemma.

Usar o Gemma com o Colab

Você pode usar o Gemma com o Colaboratory para criar sua solução Gemma. No Colab, você pode usar o Gemma com opções de framework, como PyTorch e JAX. Para saber mais, veja:

Tamanhos e recursos de modelos Gemma

Os modelos Gemma estão disponíveis em vários tamanhos para que você possa criar soluções de IA generativa com base nos seus recursos de computação disponíveis, nos recursos necessários e onde quer executá-los. Cada modelo está disponível em uma versão ajustada e uma não ajustada:

  • Pré-treinado: essa versão do modelo não foi treinada em tarefas ou instruções específicas além do conjunto de treinamento de dados principais do Gemma. Não recomendamos usar esse modelo sem realizar alguns ajustes.

  • Ajuste por instruções: essa versão do modelo foi treinada com interações de linguagem humana para participar de uma conversa, de maneira semelhante a um chatbot básico.

  • Combinação ajustada: essa versão do modelo é ajustada em uma combinação de conjuntos de dados acadêmicos e aceita comandos de linguagem natural.

Tamanhos de parâmetro menores significam requisitos de recursos menores e mais flexibilidade de implantação.

Nome do modelo Tamanho dos parâmetros Entrada Saída Versões ajustadas Plataformas pretendidas
Gemma 3n
Gemma 3n E4B 4 bilhões de parâmetros efetivos Texto, imagem e áudio Texto
  • Pré-treinado
  • Ajuste por instruções
Dispositivos móveis e laptops
Gemma 3n E2B 2 bilhões de parâmetros efetivos Texto, imagem e áudio Texto
  • Pré-treinado
  • Ajuste por instruções
Dispositivos móveis e laptops
Gemma 3
Gemma 27B 27 bilhões Texto e imagem Texto
  • Pré-treinado
  • Ajuste por instruções
Servidores ou clusters de servidores grandes
Gemma 12B 12 bilhões Texto e imagem Texto
  • Pré-treinado
  • Ajuste por instruções
Computadores desktop e servidores mais avançados
Gemma 4B 4 bilhões Texto e imagem Texto
  • Pré-treinado
  • Ajuste por instruções
Computadores desktop e pequenos servidores
Gemma 1B 1 bilhão Texto Texto
  • Pré-treinado
  • Ajuste por instruções
Dispositivos móveis e laptops
Gemma 2
Gemma 27B 27 bilhões Texto Texto
  • Pré-treinado
  • Ajuste por instruções
Servidores ou clusters de servidores grandes
Gemma 9B 9 bilhões Texto Texto
  • Pré-treinado
  • Ajuste por instruções
Computadores desktop e servidores mais avançados
Gemma 2B 2 bilhões Texto Texto
  • Pré-treinado
  • Ajuste por instruções
Dispositivos móveis e laptops
Gemma
Gemma 7B 7 bilhões Texto Texto
  • Pré-treinado
  • Ajuste por instruções
Computadores desktop e pequenos servidores
Gemma 2B 2,2 bilhões Texto Texto
  • Pré-treinado
  • Ajuste por instruções
Dispositivos móveis e laptops
CodeGemma
CodeGemma 7B 7 bilhões Texto Texto
  • Pré-treinado
  • Ajuste por instruções
Computadores desktop e pequenos servidores
CodeGemma 2B 2 bilhões Texto Texto
  • Pré-treinado
Computadores desktop e pequenos servidores
PaliGemma 2
PaliGemma 28B 28 bilhões Texto e imagem Texto
  • Pré-treinado
  • Combinação ajustada
Servidores ou clusters de servidores grandes
PaliGemma 10B 10 bilhões Texto e imagem Texto
  • Pré-treinado
  • Combinação ajustada
Computadores desktop e servidores mais avançados
PaliGemma 3B 3 bilhões Texto e imagem Texto
  • Pré-treinado
  • Combinação ajustada
Computadores desktop e pequenos servidores
PaliGemma
PaliGemma 3B 3 bilhões Texto e imagem Texto
  • Pré-treinado
  • Combinação ajustada
Computadores desktop e pequenos servidores
ShieldGemma 2
ShieldGemma 2 4 bilhões Texto e imagem Texto
  • Ajustado
Computadores desktop e pequenos servidores
TxGemma
TxGemma 27B 27 bilhões Texto Texto
  • Pré-treinado
  • Ajuste por instruções
Servidores ou clusters de servidores grandes
TxGemma 9B 9 bilhões Texto Texto
  • Pré-treinado
  • Ajuste por instruções
Computadores desktop e servidores mais avançados
TxGemma 2B 2 bilhões Texto Texto
  • Pré-treinado
Dispositivos móveis e laptops
MedGemma
MedGemma 27B 27 bilhões Texto e imagem Texto
  • Ajuste por instruções somente em texto
  • Ajuste por instruções
Servidores ou clusters de servidores grandes
MedGemma 4B 4 bilhões Texto e imagem Texto
  • Pré-treinado
  • Ajuste por instruções
Computadores desktop e pequenos servidores
MedSigLIP
MedSigLIP 800 milhões Texto e imagem Incorporação
  • Ajustado
Dispositivos móveis e laptops
T5Gemma
T5Gemma 9B-9B 18 bilhões Texto Texto
  • PrefixLM, pré-treinado
  • PrefixLM, ajuste por instruções
  • UL2, pré-treinado
  • UL2, ajustado por instruções
Dispositivos móveis e laptops
T5Gemma 9B-2B 11 bilhões Texto Texto
  • PrefixLM, pré-treinado
  • PrefixLM, ajuste por instruções
  • UL2, pré-treinado
  • UL2, ajustado por instruções
Dispositivos móveis e laptops
T5Gemma 2B-2B 4 bilhões Texto Texto
  • PrefixLM, pré-treinado
  • PrefixLM, ajuste por instruções
  • UL2, pré-treinado
  • UL2, ajustado por instruções
Dispositivos móveis e laptops
T5Gemma XL-XL 4 bilhões Texto Texto
  • PrefixLM, pré-treinado
  • PrefixLM, ajuste por instruções
  • UL2, pré-treinado
  • UL2, ajustado por instruções
Dispositivos móveis e laptops
T5Gemma M-L 2 bilhões Texto Texto
  • PrefixLM, pré-treinado
  • PrefixLM, ajuste por instruções
  • UL2, pré-treinado
  • UL2, ajustado por instruções
Dispositivos móveis e laptops
T5Gemma L-L 1 bilhão Texto Texto
  • PrefixLM, pré-treinado
  • PrefixLM, ajuste por instruções
  • UL2, pré-treinado
  • UL2, ajustado por instruções
Dispositivos móveis e laptops
T5Gemma B-B 0,6 bilhão Texto Texto
  • PrefixLM, pré-treinado
  • PrefixLM, ajuste por instruções
  • UL2, pré-treinado
  • UL2, ajustado por instruções
Dispositivos móveis e laptops
T5Gemma S-S 300 milhões Texto Texto
  • PrefixLM, pré-treinado
  • PrefixLM, ajuste por instruções
  • UL2, pré-treinado
  • UL2, ajustado por instruções
Dispositivos móveis e laptops

O Gemma foi testado usando o hardware de TPU v5e desenvolvido pelo Google e o hardware de GPU L4 (G2 Standard), A100 (A2 Standard) e H100 (A3 High) da NVIDIA.

A seguir