Gemma è un insieme di modelli aperti di intelligenza artificiale (AI) generativa leggeri. I modelli Gemma sono disponibili per l'esecuzione nelle tue applicazioni e su hardware, dispositivi mobili o servizi ospitati. Puoi anche personalizzare questi modelli utilizzando tecniche di ottimizzazione in modo che eccellano nell'esecuzione di attività importanti per te e i tuoi utenti. I modelli Gemma si basano sui modelli Gemini e sono destinati alla community di sviluppo dell'AI per essere estesi e ulteriormente sviluppati.
Il perfezionamento può contribuire a migliorare le prestazioni di un modello in attività specifiche. Poiché i modelli della famiglia Gemma sono open weight, puoi ottimizzarli utilizzando il framework AI che preferisci e l'SDK Vertex AI. Puoi aprire un esempio di notebook per eseguire il fine-tuning del modello Gemma utilizzando un link disponibile nella scheda del modello Gemma in Model Garden.
I seguenti modelli Gemma sono disponibili per l'utilizzo con Vertex AI. Per scoprire di più sui modelli Gemma e provarli, consulta le relative schede del modello in Model Garden.
Nome modello | Use cases | Scheda del modello di Model Garden |
---|---|---|
Gemma 3n | In grado di gestire input multimodali, tra cui testo, immagini, video e audio, e generare output di testo. | Vai alla scheda del modello Gemma 3n |
Gemma 3 | Ideale per attività di generazione di testo e comprensione delle immagini, tra cui question answering, riassunto e ragionamento. | Vai alla scheda del modello Gemma 3 |
Gemma 2 | Ideale per la generazione, il riepilogo e l'estrazione di testo. | Vai alla scheda del modello Gemma 2 |
Gemma | Ideale per la generazione, il riepilogo e l'estrazione di testo. | Vai alla scheda del modello Gemma |
CodeGemma | Ideale per la generazione e il completamento del codice. | Vai alla scheda del modello CodeGemma |
PaliGemma 2 | Ideale per le attività di generazione di didascalie per immagini e di domande e risposte visive. | Vai alla scheda del modello PaliGemma 2 |
PaliGemma | Ideale per le attività di generazione di didascalie per immagini e di domande e risposte visive. | Vai alla scheda del modello PaliGemma |
ShieldGemma 2 | Controlla la sicurezza delle immagini sintetiche e naturali per aiutarti a creare set di dati e modelli solidi. | Vai alla scheda del modello ShieldGemma 2 |
TxGemma | Ideale per attività di previsione terapeutica, tra cui classificazione, regressione o generazione, e attività di ragionamento. | Vai alla scheda del modello TxGemma |
MedGemma | Tre varianti di Gemma addestrate per le prestazioni nella comprensione di testo e immagini di carattere medico. | Vai alla scheda del modello MedGemma |
MedSigLIP | Variante di SigLIP addestrata per codificare immagini e testo medici in uno spazio di incorporamento comune. | Vai alla scheda del modello MedSigLIP |
T5Gemma | Ideale per una serie di attività generative, tra cui domande e risposte, riepilogo e ragionamento. | Vai alla scheda del modello T5Gemma |
Di seguito sono riportate alcune opzioni per l'utilizzo di Gemma:
Utilizzare Gemma con Vertex AI
Vertex AI offre una piattaforma gestita per creare e scalare rapidamente progetti di machine learning senza la necessità di competenze MLOps interne. Puoi utilizzare Vertex AI come applicazione downstream che pubblica i modelli Gemma. Ad esempio, potresti trasferire i pesi dall'implementazione Keras di Gemma. Successivamente, puoi utilizzare Vertex AI per pubblicare quella versione di Gemma e ottenere previsioni. Ti consigliamo di utilizzare Vertex AI se vuoi funzionalità MLOps end-to-end, funzionalità ML a valore aggiunto e un'esperienza serverless per uno sviluppo semplificato.
Per iniziare a utilizzare Gemma, consulta i seguenti notebook:
Ottimizzare Gemma 3 utilizzando PEFT e poi eseguire il deployment su Vertex AI da Vertex
Ottimizzare Gemma 2 utilizzando PEFT e poi eseguire il deployment su Vertex AI da Vertex
Ottimizza Gemma utilizzando PEFT e poi esegui il deployment su Vertex AI da Vertex
Ottimizzare Gemma utilizzando PEFT e poi eseguire il deployment su Vertex AI da Hugging Face
Ottimizza Gemma utilizzando KerasNLP e poi esegui il deployment su Vertex AI
Ottimizzare Gemma con Ray su Vertex AI e poi eseguire il deployment su Vertex AI
Esegui l'inferenza locale con ShieldGemma 2 con i transformer Hugging Face
Eseguire l'inferenza locale con T5Gemma con Hugging Face Transformers
Utilizzare Gemma in altri Google Cloud prodotti
Puoi utilizzare Gemma con altri Google Cloud prodotti, come Google Kubernetes Engine e Dataflow.
Utilizzare Gemma con GKE
Google Kubernetes Engine (GKE) è la Google Cloud soluzione per Kubernetes gestito che offre scalabilità, sicurezza, resilienza ed efficacia in termini di costi. Consigliamo questa opzione se hai investimenti Kubernetes esistenti, la tua organizzazione dispone di competenze MLOps interne o se hai bisogno di un controllo granulare su carichi di lavoro AI/ML complessi con requisiti unici di sicurezza, pipeline di dati e gestione delle risorse. Per saperne di più, consulta i seguenti tutorial nella documentazione di GKE:
- Gestire Gemma con vLLM
- Gestire Gemma con TGI
- Gestire Gemma con Triton e TensorRT-LLM
- Gestire Gemma con JetStream
Utilizzare Gemma con Dataflow
Puoi utilizzare i modelli Gemma con Dataflow per l'analisi del sentiment. Utilizza Dataflow per eseguire pipeline di inferenza che utilizzano i modelli Gemma. Per scoprire di più, consulta Esegui pipeline di inferenza con i modelli open Gemma.
Utilizzare Gemma con Colab
Puoi utilizzare Gemma con Colaboratory per creare la tua soluzione Gemma. In Colab, puoi utilizzare Gemma con opzioni di framework come PyTorch e JAX. Per saperne di più, consulta:
- Inizia a utilizzare Gemma con Keras.
- Inizia a utilizzare Gemma con PyTorch.
- Ottimizzazione di base con Gemma utilizzando Keras.
- Ottimizzazione distribuita con Gemma utilizzando Keras.
Dimensioni e funzionalità del modello Gemma
I modelli Gemma sono disponibili in diverse dimensioni, in modo da poter creare soluzioni di AI generativa in base alle risorse di calcolo disponibili, alle funzionalità necessarie e alla posizione in cui vuoi eseguirle. Ogni modello è disponibile in una versione ottimizzata e in una non ottimizzata:
Preaddestrato: questa versione del modello non è stata addestrata su attività o istruzioni specifiche oltre al set di dati di addestramento di base di Gemma. Non consigliamo di utilizzare questo modello senza eseguire alcune modifiche.
Ottimizzato per le istruzioni: questa versione del modello è stata addestrata con interazioni in linguaggio umano in modo che possa partecipare a una conversazione, in modo simile a un chatbot di base.
Mix ottimizzato: questa versione del modello è ottimizzata su un mix di set di dati accademici e accetta prompt in linguaggio naturale.
Dimensioni dei parametri inferiori significano requisiti di risorse inferiori e maggiore flessibilità di implementazione.
Nome modello | Dimensioni dei parametri | Input | Output | Versioni ottimizzate | Piattaforme previste |
---|---|---|---|---|---|
Gemma 3n | |||||
Gemma 3n E4B | 4 miliardi di parametri effettivi | Testo, immagine e audio | Testo |
|
Dispositivi mobili e laptop |
Gemma 3n E2B | 2 miliardi di parametri effettivi | Testo, immagine e audio | Testo |
|
Dispositivi mobili e laptop |
Gemma 3 | |||||
Gemma 27B | 27 miliardi | Testo e immagine | Testo |
|
Server o cluster di server di grandi dimensioni |
Gemma 12B | 12 miliardi | Testo e immagine | Testo |
|
Computer desktop e server di fascia alta |
Gemma 4B | 4 miliardi | Testo e immagine | Testo |
|
Computer desktop e piccoli server |
Gemma 1B | 1 miliardo | Testo | Testo |
|
Dispositivi mobili e laptop |
Gemma 2 | |||||
Gemma 27B | 27 miliardi | Testo | Testo |
|
Server o cluster di server di grandi dimensioni |
Gemma 9B | 9 miliardi di | Testo | Testo |
|
Computer desktop e server di fascia alta |
Gemma 2B | 2 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
Gemma | |||||
Gemma 7B | 7 miliardi | Testo | Testo |
|
Computer desktop e piccoli server |
Gemma 2B | 2,2 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
CodeGemma | |||||
CodeGemma 7B | 7 miliardi | Testo | Testo |
|
Computer desktop e piccoli server |
CodeGemma 2B | 2 miliardi | Testo | Testo |
|
Computer desktop e piccoli server |
PaliGemma 2 | |||||
PaliGemma 28B | 28 miliardi | Testo e immagine | Testo |
|
Server o cluster di server di grandi dimensioni |
PaliGemma 10B | 10 miliardi | Testo e immagine | Testo |
|
Computer desktop e server di fascia alta |
PaliGemma 3B | 3 miliardi | Testo e immagine | Testo |
|
Computer desktop e piccoli server |
PaliGemma | |||||
PaliGemma 3B | 3 miliardi | Testo e immagine | Testo |
|
Computer desktop e piccoli server |
ShieldGemma 2 | |||||
ShieldGemma 2 | 4 miliardi | Testo e immagine | Testo |
|
Computer desktop e piccoli server |
TxGemma | |||||
TxGemma 27B | 27 miliardi | Testo | Testo |
|
Server o cluster di server di grandi dimensioni |
TxGemma 9B | 9 miliardi di | Testo | Testo |
|
Computer desktop e server di fascia alta |
TxGemma 2B | 2 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
MedGemma | |||||
MedGemma 27B | 27 miliardi | Testo e immagine | Testo |
|
Server o cluster di server di grandi dimensioni |
MedGemma 4B | 4 miliardi | Testo e immagine | Testo |
|
Computer desktop e piccoli server |
MedSigLIP | |||||
MedSigLIP | 800 milioni | Testo e immagine | Incorporamento |
|
Dispositivi mobili e laptop |
T5Gemma | |||||
T5Gemma 9B-9B | 18 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
T5Gemma 9B-2B | 11 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
T5Gemma 2B-2B | 4 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
T5Gemma XL-XL | 4 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
T5Gemma M-L | 2 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
T5Gemma L-L | 1 miliardo | Testo | Testo |
|
Dispositivi mobili e laptop |
T5Gemma B-B | 0,6 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
T5Gemma S-S | 0,3 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
Gemma è stato testato utilizzando l'hardware TPU v5e appositamente creato da Google e l'hardware GPU L4(G2 Standard), A100(A2 Standard) e H100(A3 High) di NVIDIA.
Passaggi successivi
- Consulta la documentazione di Gemma.