Utilizzare i modelli aperti Gemma

Gemma è un insieme di modelli aperti di intelligenza artificiale generativa (AI). I modelli Gemma sono disponibili per l'esecuzione nelle tue applicazioni e sui tuoi hardware, dispositivi mobili o servizi in hosting. Puoi anche personalizzare questi modelli utilizzando tecniche di ottimizzazione in modo che siano eccellenti nello svolgere attività importanti per te e i tuoi utenti. I modelli Gemma si basano su modelli Gemini e sono destinati alla community di sviluppo AI da ampliare e ampliare.

Il perfezionamento può aiutare a migliorare le prestazioni di un modello in attività specifiche. Poiché i modelli della famiglia Gemma sono a peso aperto, puoi ottimizzarli utilizzando il framework IA di tua scelta e l'SDK Vertex AI. Puoi aprire un esempio di blocco note per perfezionare il modello Gemma utilizzando un link disponibile nella scheda del modello Gemma in Model Garden.

I seguenti modelli Gemma sono disponibili per l'uso con Vertex AI. Per saperne di più e testare i modelli Gemma, consulta le schede dei modelli di Model Garden.

Nome del modello Casi d'uso Scheda del modello di Model Garden
Gemma Ideale per la generazione, il riassunto e l'estrazione del testo. Vai alla scheda del modello Gemma
CodeGemma Ideale per la generazione e il completamento del codice. Vai alla scheda del modello CodeGemma
PaliGemma Ideale per aggiungere sottotitoli alle immagini e per attività di domande e risposte visive. Vai alla scheda del modello PaliGemma

Di seguito sono riportate alcune opzioni su dove puoi utilizzare Gemma:

Utilizzare Gemma con Vertex AI

Vertex AI offre una piattaforma gestita per creare e scalare rapidamente progetti di machine learning senza bisogno di competenze MLOps interne. Puoi utilizzare Vertex AI come applicazione downstream che gestisce i modelli Gemma. Ad esempio, puoi trasferire i pesi dall'implementazione Keras di Gemma. Poi puoi usare Vertex AI per fornire la versione di Gemma e ottenere previsioni. Ti consigliamo di utilizzare Vertex AI se vuoi funzionalità MLOps end-to-end, funzionalità ML a valore aggiunto e un'esperienza serverless per uno sviluppo semplificato.

Per iniziare a utilizzare Gemma, consulta i seguenti blocchi note:

Utilizzare Gemma in altri prodotti Google Cloud

Puoi utilizzare Gemma con altri prodotti Google Cloud, come Google Kubernetes Engine e Dataflow.

Utilizzo di Gemma con GKE

Google Kubernetes Engine (GKE) è la soluzione Google Cloud per Kubernetes gestito che offre scalabilità, sicurezza, resilienza ed efficienza in termini di costi. Ti consigliamo questa opzione se disponi di investimenti Kubernetes esistenti, se la tua organizzazione dispone di competenze MLOps interne o se hai bisogno di un controllo granulare su carichi di lavoro AI/ML complessi con requisiti esclusivi di sicurezza, pipeline dei dati e gestione delle risorse. Per saperne di più, guarda i seguenti tutorial nella documentazione di GKE:

Utilizza Gemma con Dataflow

Puoi utilizzare i modelli Gemma con Dataflow per l'analisi del sentiment. Utilizza Dataflow per eseguire pipeline di inferenza che utilizzano i modelli Gemma. Per saperne di più, consulta Eseguire pipeline di inferenza con i modelli aperti di Gemma.

Utilizzare Gemma con Colab

Puoi usare Gemma con Colaboratory per creare la tua soluzione Gemma. In Colab, puoi usare Gemma con opzioni di framework come PyTorch e JAX. Per scoprire di più, vedi:

Dimensioni e funzionalità del modello Gemma

I modelli Gemma sono disponibili in diverse dimensioni per consentirti di creare soluzioni di AI generativa in base alle risorse di calcolo disponibili, alle funzionalità necessarie e a dove vuoi eseguirle. Ogni modello è disponibile in una versione ottimizzata e non ottimizzata:

  • Preaddestrato: questa versione del modello non è stata addestrata su attività o istruzioni specifiche oltre il set di addestramento dei dati principali di Gemma. È sconsigliato usare questo modello senza eseguire qualche ottimizzazione.

  • Ottimizzato per le istruzioni: questa versione del modello è stata addestrata con interazioni tramite il linguaggio umano per poter partecipare a una conversazione, come in un bot di chat di base.

  • Mix ottimizzato: questa versione del modello è stata ottimizzata su una combinazione di set di dati accademici e accetta prompt in linguaggio naturale.

Se devi scegliere tra Gemma 2B e Gemma 7B, prendi in considerazione Gemma 2B. Le dimensioni inferiori dei parametri di Gemma 2B indicano che ha requisiti di risorse inferiori e una maggiore flessibilità di deployment rispetto a Gemma 7B.

Nome del modello Dimensione parametri Input Output Versioni ottimizzate Piattaforme previste
Gemma 2B 2,2 miliardi Testo Testo
  • Preaddestrati
  • Ottimizzato per le istruzioni
Dispositivi mobili e laptop
Gemma 7B 7 miliardi Testo Testo
  • Preaddestrati
  • Ottimizzato per le istruzioni
Computer desktop e server di piccole dimensioni
CodeGemma 2B 2 miliardi Testo Testo
  • Preaddestrati
Computer desktop e server di piccole dimensioni
CodeGemma 7B 7 miliardi Testo Testo
  • Preaddestrati
  • Ottimizzato per le istruzioni
Computer desktop e server di piccole dimensioni
PaliGemma 3B 3 miliardi Testo Testo
  • Preaddestrati
  • Mix perfezionato
Computer desktop e server di piccole dimensioni

Gemma è stata testata utilizzando l'hardware TPU v5e di Google appositamente creato e l'hardware GPU NVIDIA L4(standard G2), A100(A2 standard), H100(A3 standard).