Gemma è un insieme di modelli aperti di intelligenza artificiale (AI) generativa leggeri. I modelli Gemma possono essere eseguiti nelle tue applicazioni e sul tuo hardware, sui tuoi dispositivi mobili o sui tuoi servizi ospitati. Puoi anche personalizzare questi modelli utilizzando tecniche di ottimizzazione in modo che eccellono nell'eseguire le attività importanti per te e per i tuoi utenti. I modelli Gemma si basano su quelli di Gemini e sono pensati per essere estesi e sviluppati ulteriormente dalla community di sviluppo dell'IA.
Il perfezionamento può contribuire a migliorare le prestazioni di un modello in attività specifiche. Poiché i modelli della famiglia Gemma sono a pesi aperti, puoi ottimizzarne uno qualsiasi utilizzando il framework di IA che preferisci e l'SDK Vertex AI. Puoi aprire un esempio di notebook per perfezionare il modello Gemma utilizzando un link disponibile nella scheda del modello Gemma in Model Garden.
I seguenti modelli Gemma sono disponibili per l'utilizzo con Vertex AI. Per scoprire di più e testare i modelli Gemma, consulta le relative schede in Model Garden.
Nome modello | Casi d'uso | Scheda del modello di Model Garden |
---|---|---|
Gemma 2 | Ideale per la generazione, il riepilogo e l'estrazione di testo. | Vai alla scheda del modello Gemma 2 |
Gemma | Ideale per la generazione, il riepilogo e l'estrazione di testo. | Vai alla scheda del modello Gemma |
CodeGemma | Ideale per la generazione e il completamento del codice. | Vai alla scheda del modello CodeGemma |
PaliGemma | Ideale per attività di sottotitolazione delle immagini e di domanda e risposta visiva. | Vai alla scheda del modello PaliGemma |
Di seguito sono riportate alcune opzioni per l'utilizzo di Gemma:
Utilizzare Gemma con Vertex AI
Vertex AI offre una piattaforma gestita per creare e scalare rapidamente i progetti di machine learning senza bisogno di competenze MLOps interne. Puoi utilizzare Vertex AI come applicazione a valle che pubblica i modelli Gemma. Ad esempio, potresti eseguire il porting dei pesi dall'implementazione di Keras di Gemma. Successivamente, puoi utilizzare Vertex AI per eseguire la pubblicazione di questa versione di Gemma e ottenere le previsioni. Ti consigliamo di utilizzare Vertex AI se vuoi funzionalità MLOps end-to-end, funzionalità di ML con valore aggiunto e un'esperienza serverless per lo sviluppo semplificato.
Per iniziare a utilizzare Gemma, consulta i seguenti notebook:
Ottimizza Gemma utilizzando PEFT ed esegui il deployment in Vertex AI da Vertex
Ottimizza Gemma utilizzando PEFT ed esegui il deployment su Vertex AI da Huggingface
Ottimizza Gemma utilizzando KerasNLP ed esegui il deployment in Vertex AI
Ottimizzare Gemma con Ray su Vertex AI ed eseguire il deployment su Vertex AI
Utilizzare Gemma in altri Google Cloud prodotti
Puoi utilizzare Gemma con altri Google Cloud prodotti, come Google Kubernetes Engine e Dataflow.
Utilizzare Gemma con GKE
Google Kubernetes Engine (GKE) è la Google Cloud soluzione per Kubernetes gestito che offre scalabilità, sicurezza, resilienza e costi effettivi. Ti consigliamo questa opzione se hai già investimenti in Kubernetes, la tua organizzazione dispone di competenze MLOps interne o se hai bisogno di un controllo granulare su carichi di lavoro di AI/ML complessi con requisiti unici di sicurezza, pipeline di dati e gestione delle risorse. Per saperne di più, consulta i seguenti tutorial nella documentazione di GKE:
- Pubblicare Gemma con vLLM
- Pubblicare Gemma con TGI
- Pubblicare Gemma con Triton e TensorRT-LLM
- Pubblicare Gemma con JetStream
- Pubblicare Gemma con Saxml
Utilizzare Gemma con Dataflow
Puoi utilizzare i modelli Gemma con Dataflow per l'analisi del sentiment. Utilizza Dataflow per eseguire pipeline di inferenza che utilizzano i modelli Gemma. Per scoprire di più, consulta Eseguire pipeline di inferenza con i modelli aperti di Gemma.
Utilizzare Gemma con Colab
Puoi utilizzare Gemma con Colaboratory per creare la tua soluzione Gemma. In Colab, puoi utilizzare Gemma con opzioni di framework come PyTorch e JAX. Per scoprire di più, consulta:
- Inizia a utilizzare Gemma con Keras.
- Inizia a utilizzare Gemma con PyTorch.
- Ottimizzazione di base con Gemma utilizzando Keras.
- Ottimizzazione distribuita con Gemma utilizzando Keras.
Dimensioni e funzionalità dei modelli Gemma
I modelli Gemma sono disponibili in diverse dimensioni, quindi puoi creare soluzioni di AI generativa in base alle risorse di calcolo disponibili, alle funzionalità di cui hai bisogno e a dove vuoi eseguirle. Ogni modello è disponibile in una versione ottimizzata e una non ottimizzata:
Preaddestrato: questa versione del modello non è stata addestrata su attività o istruzioni specifiche oltre al set di dati di addestramento di Gemma. Ti consigliamo di non utilizzare questo modello senza eseguire alcune ottimizzazioni.
Tarato in base alle istruzioni: questa versione del modello è stata addestrata con interazioni linguistiche umane in modo da poter partecipare a una conversazione, in modo simile a un bot di chat di base.
Ottimizzato per più tipi di dati: questa versione del modello è ottimizzata su un mix di set di dati accademici e accetta prompt in linguaggio naturale.
Dimensioni dei parametri inferiori significano requisiti di risorse inferiori e maggiore flessibilità di implementazione.
Nome modello | Dimensioni dei parametri | Input | Output | Versioni ottimizzate | Piattaforme previste |
---|---|---|---|---|---|
Gemma 2 | |||||
Gemma 27B | 27 miliardi | Testo | Testo |
|
Server o cluster di server di grandi dimensioni |
Gemma 9B | 9 miliardi di | Testo | Testo |
|
Computer e server di fascia più alta |
Gemma 2B | 2 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
Gemma | |||||
Gemma 7B | 7 miliardi | Testo | Testo |
|
Computer desktop e piccoli server |
Gemma 2B | 2,2 miliardi | Testo | Testo |
|
Dispositivi mobili e laptop |
CodeGemma | |||||
CodeGemma 7B | 7 miliardi | Testo | Testo |
|
Computer desktop e piccoli server |
CodeGemma 2B | 2 miliardi | Testo | Testo |
|
Computer desktop e piccoli server |
PaliGemma | |||||
PaliGemma 3B | 3 miliardi | Testo | Testo |
|
Computer desktop e piccoli server |
Gemma è stata testata utilizzando l'hardware TPU v5e appositamente progettato da Google e l'hardware GPU L4(G2 Standard), A100(A2 Standard), H100(A3 High) di NVIDIA.
Passaggi successivi
- Consulta la documentazione di Gemma.