O Gemma é um conjunto de modelos abertos de inteligência artificial (IA) generativa e leves. Os modelos Gemma estão disponíveis para execução nas suas aplicações e no seu hardware, dispositivos móveis ou serviços alojados. Também pode personalizar estes modelos através de técnicas de ajuste para que se destaquem no desempenho de tarefas importantes para si e para os seus utilizadores. Os modelos Gemma são baseados nos modelos Gemini e destinam-se à comunidade de desenvolvimento de IA para expansão e utilização.
O ajuste fino pode ajudar a melhorar o desempenho de um modelo em tarefas específicas. Uma vez que os modelos na família de modelos Gemma são de peso aberto, pode otimizar qualquer um deles através da framework de IA à sua escolha e do SDK do Vertex AI. Pode abrir um exemplo de bloco de notas para ajustar o modelo Gemma através de um link disponível no cartão do modelo Gemma no Model Garden.
Os seguintes modelos Gemma estão disponíveis para utilização com o Vertex AI. Para saber mais sobre os modelos Gemma e testá-los, consulte os respetivos cartões de modelos do Model Garden.
Nome do modelo | Exemplos de utilização | Cartão do modelo do Model Garden |
---|---|---|
Gemma 3n | Capaz de entrada multimodal, processando texto, imagem, vídeo e entrada de áudio, e gerando saídas de texto. | Aceda ao cartão do modelo Gemma 3n |
Gemma 3 | Ideal para tarefas de geração de texto e compreensão de imagens, incluindo respostas a perguntas, resumo e raciocínio. | Aceda ao cartão do modelo Gemma 3 |
Gemma 2 | Ideal para geração, resumo e extração de texto. | Aceda ao cartão do modelo Gemma 2 |
Gemma | Ideal para geração, resumo e extração de texto. | Aceda ao cartão do modelo Gemma |
CodeGemma | Ideal para geração e conclusão de código. | Aceda ao cartão do modelo CodeGemma |
PaliGemma 2 | Melhor para tarefas de legendagem de imagens e tarefas visuais de perguntas e respostas. | Aceda ao cartão do modelo PaliGemma 2 |
PaliGemma | Melhor para tarefas de legendagem de imagens e tarefas visuais de perguntas e respostas. | Aceda ao cartão do modelo PaliGemma |
ShieldGemma 2 | Verifica a segurança das imagens sintéticas e naturais para ajudar a criar conjuntos de dados e modelos robustos. | Aceda ao cartão do modelo ShieldGemma 2 |
TxGemma | Melhor para tarefas de previsão terapêutica, incluindo classificação, regressão ou geração, e tarefas de raciocínio. | Aceda ao cartão do modelo TxGemma |
MedGemma | 3 variantes do Gemma preparadas para o desempenho na compreensão de texto e imagens médicos. | Aceda ao cartão do modelo MedGemma |
MedSigLIP | Variante do SigLIP que é preparada para codificar imagens médicas e texto num espaço de incorporação comum. | Aceda ao cartão do modelo MedSigLIP |
T5Gemma | Adequado para uma variedade de tarefas generativas, incluindo respostas a perguntas, resumos e raciocínio. | Aceda ao cartão do modelo T5Gemma |
Seguem-se algumas opções de onde pode usar o Gemma:
Use o Gemma com o Vertex AI
O Vertex AI oferece uma plataforma gerida para criar e dimensionar rapidamente projetos de aprendizagem automática sem precisar de conhecimentos especializados de MLOps internos. Pode usar a Vertex AI como a aplicação a jusante que apresenta os modelos Gemma. Por exemplo, pode transferir pesos da implementação do Gemma no Keras. Em seguida, pode usar o Vertex AI para fornecer essa versão do Gemma para receber previsões. Recomendamos que use a Vertex AI se quiser capacidades de MLOps completas, funcionalidades de ML de valor acrescentado e uma experiência sem servidor para um desenvolvimento simplificado.
Para começar a usar o Gemma, consulte os seguintes blocos de notas:
Ajuste o Gemma 3 com PEFT e, em seguida, implemente-o no Vertex AI a partir do Vertex
Ajuste o Gemma 2 com PEFT e, em seguida, implemente-o no Vertex AI a partir do Vertex
Ajuste o Gemma com PEFT e, em seguida, implemente-o no Vertex AI a partir do Vertex
Ajuste o Gemma com PEFT e, em seguida, implemente-o no Vertex AI a partir do Huggingface
Ajuste o Gemma com o KerasNLP e, em seguida, implemente-o no Vertex AI
Ajuste o Gemma com o Ray no Vertex AI e, em seguida, implemente-o no Vertex AI
Execute a inferência local com o ShieldGemma 2 com transformadores do Hugging Face
Execute a inferência local com o T5Gemma com transformadores do Hugging Face
Use o Gemma noutros Google Cloud produtos
Pode usar o Gemma com outros Google Cloud produtos, como o Google Kubernetes Engine e o Dataflow.
Use o Gemma com o GKE
O Google Kubernetes Engine (GKE) é a Google Cloud solução para o Kubernetes gerido que oferece escalabilidade, segurança, resiliência e rentabilidade. Recomendamos esta opção se tiver investimentos existentes no Kubernetes, a sua organização tiver conhecimentos internos de MLOps ou se precisar de um controlo detalhado sobre cargas de trabalho de IA/ML complexas com requisitos exclusivos de segurança, pipeline de dados e gestão de recursos. Para saber mais, consulte os seguintes tutoriais na documentação do GKE:
- Apresente o Gemma com o vLLM
- Apresente o Gemma com o TGI
- Implemente o Gemma com o Triton e o TensorRT-LLM
- Implemente o Gemma com o JetStream
Use o Gemma com o Dataflow
Pode usar os modelos Gemma com o Dataflow para análise de sentimentos. Use o Dataflow para executar pipelines de inferência que usam os modelos Gemma. Para saber mais, consulte o artigo Execute pipelines de inferência com modelos abertos Gemma.
Use o Gemma com o Colab
Pode usar o Gemma com o Colaboratory para criar a sua solução Gemma. No Colab, pode usar o Gemma com opções de frameworks, como o PyTorch e o JAX. Para saber mais, consulte:
- Comece a usar o Gemma com o Keras.
- Comece a usar o Gemma com o PyTorch.
- Ajuste básico com o Gemma através do Keras.
- Ajuste distribuído com o Gemma através do Keras.
Tamanhos e capacidades do modelo Gemma
Os modelos Gemma estão disponíveis em vários tamanhos para que possa criar soluções de IA generativa com base nos recursos de computação disponíveis, nas capacidades de que precisa e onde os quer executar. Cada modelo está disponível numa versão otimizada e numa versão não otimizada:
Pré-preparado: esta versão do modelo não foi preparada em tarefas nem instruções específicas, além do conjunto de dados de preparação principal do Gemma. Não recomendamos a utilização deste modelo sem fazer alguns ajustes.
Ajustado para instruções: esta versão do modelo foi preparada com interações de linguagem humana para poder participar numa conversa, de forma semelhante a um bot de chat básico.
Mistura de ajuste fino: esta versão do modelo é ajustada com base numa mistura de conjuntos de dados académicos e aceita comandos de linguagem natural.
Os tamanhos de parâmetros mais baixos significam requisitos de recursos mais baixos e maior flexibilidade de implementação.
Nome do modelo | Tamanho dos parâmetros | Entrada | Saída | Versões otimizadas | Plataformas pretendidas |
---|---|---|---|---|---|
Gemma 3n | |||||
Gemma 3n E4B | 4 mil milhões de parâmetros eficazes | Texto, imagem e áudio | Texto |
|
Dispositivos móveis e portáteis |
Gemma 3n E2B | 2 mil milhões de parâmetros eficazes | Texto, imagem e áudio | Texto |
|
Dispositivos móveis e portáteis |
Gemma 3 | |||||
Gemma 27B | 27 mil milhões | Texto e imagem | Texto |
|
Servidores grandes ou clusters de servidores |
Gemma 12B | 12 mil milhões | Texto e imagem | Texto |
|
Servidores e computadores de mesa de gama mais alta |
Gemma 4B | 4 mil milhões | Texto e imagem | Texto |
|
Computadores de mesa e pequenos servidores |
Gemma 1B | 1 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
Gemma 2 | |||||
Gemma 27B | 27 mil milhões | Texto | Texto |
|
Servidores grandes ou clusters de servidores |
Gemma 9B | 9 mil milhões | Texto | Texto |
|
Servidores e computadores de mesa de gama mais alta |
Gemma 2B | 2 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
Gemma | |||||
Gemma 7B | 7 mil milhões | Texto | Texto |
|
Computadores de mesa e pequenos servidores |
Gemma 2B | 2,2 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
CodeGemma | |||||
CodeGemma 7B | 7 mil milhões | Texto | Texto |
|
Computadores de mesa e pequenos servidores |
CodeGemma 2B | 2 mil milhões | Texto | Texto |
|
Computadores de mesa e pequenos servidores |
PaliGemma 2 | |||||
PaliGemma 28B | 28 mil milhões | Texto e imagem | Texto |
|
Servidores grandes ou clusters de servidores |
PaliGemma 10B | 10 mil milhões | Texto e imagem | Texto |
|
Servidores e computadores de mesa de gama mais alta |
PaliGemma 3B | 3 mil milhões | Texto e imagem | Texto |
|
Computadores de mesa e pequenos servidores |
PaliGemma | |||||
PaliGemma 3B | 3 mil milhões | Texto e imagem | Texto |
|
Computadores de mesa e pequenos servidores |
ShieldGemma 2 | |||||
ShieldGemma 2 | 4 mil milhões | Texto e imagem | Texto |
|
Computadores de mesa e pequenos servidores |
TxGemma | |||||
TxGemma 27B | 27 mil milhões | Texto | Texto |
|
Servidores grandes ou clusters de servidores |
TxGemma 9B | 9 mil milhões | Texto | Texto |
|
Servidores e computadores de mesa de gama mais alta |
TxGemma 2B | 2 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
MedGemma | |||||
MedGemma 27B | 27 mil milhões | Texto e imagem | Texto |
|
Servidores grandes ou clusters de servidores |
MedGemma 4B | 4 mil milhões | Texto e imagem | Texto |
|
Computadores de mesa e pequenos servidores |
MedSigLIP | |||||
MedSigLIP | 800 milhões | Texto e imagem | Incorporação |
|
Dispositivos móveis e portáteis |
T5Gemma | |||||
T5Gemma 9B-9B | 18 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
T5Gemma 9B-2B | 11 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
T5Gemma 2B-2B | 4 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
T5Gemma XL-XL | 4 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
T5Gemma M-L | 2 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
T5Gemma L-L | 1 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
T5Gemma B-B | 0,6 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
T5Gemma S-S | 0,3 mil milhões | Texto | Texto |
|
Dispositivos móveis e portáteis |
O Gemma foi testado com o hardware de TPU v5e criado especificamente pela Google e o hardware de GPU L4(G2 Standard), A100(A2 Standard) e H100(A3 High) da NVIDIA.
O que se segue?
- Consulte a documentação do Gemma.