Informazioni sull'ottimizzazione supervisionata per i modelli Gemini

L'ottimizzazione supervisionata è una buona opzione quando hai un'attività ben definita con dati etichettati disponibili. È particolarmente efficace per applicazioni specifiche del dominio, in cui il linguaggio o i contenuti sono molto diversi dai dati con cui il modello di grandi dimensioni è stato originariamente addestrato.

L'ottimizzazione supervisionata adatta il comportamento del modello con un set di dati etichettato. Questo processo regola le ponderazioni del modello per ridurre al minimo la differenza tra le previsioni e le etichette effettive. Ad esempio, può migliorare le prestazioni del modello per i seguenti tipi di attività:

  • Classificazione
  • Riassunto
  • Question answering estrattive
  • Chat

Modelli supportati

I seguenti modelli di testo Gemini supportano l'ottimizzazione supervisionata:

  • gemini-1.0-pro-002.

Casi d'uso per l'utilizzo di un'ottimizzazione supervisionata su modelli di testo

I modelli di testo di base funzionano bene quando l'output o l'attività previsti possono essere definiti in modo chiaro e conciso in un prompt e il prompt produce in modo coerente l'output previsto. Se vuoi che un modello impari qualcosa di nicchia o specifico che si discosta dai pattern linguistici generali, dovresti prendere in considerazione l'idea di ottimizzare il modello. Ad esempio, puoi utilizzare l'ottimizzazione per insegnare al modello quanto segue:

  • Strutture o formati specifici per la generazione di output.
  • Comportamenti specifici, ad esempio quando fornire un output consecutivo o dettagliato.
  • Output personalizzati specifici per tipi di input specifici.

Di seguito sono riportati alcuni casi d'uso che sono difficili da acquisire con solo le istruzioni dei prompt:

  • Classificazione: la risposta prevista è una parola o una frase specifica.

    L'ottimizzazione del modello può aiutare a impedire che il modello generi risposte dettagliate.

  • Riassunto: il riassunto segue un formato specifico. Ad esempio, potresti dover rimuovere le informazioni che consentono l'identificazione personale (PII) in un riepilogo della chat.

    La formattazione della sostituzione dei nomi degli altoparlanti con #Person1 e #Person2 è difficile da descrivere e il modello di base potrebbe non produrre in modo naturale una risposta del genere.

  • Question answering estrattivo: la domanda riguarda un contesto e la risposta è una sottostringa del contesto.

    La risposta "Last Glacial Maximum" è una frase specifica del contesto.

  • Chat: devi personalizzare la risposta del modello in modo che segua un utente tipo, un ruolo o un personaggio.

Puoi anche ottimizzare un modello nelle seguenti situazioni:

  • I prompt non producono i risultati previsti in modo abbastanza coerente.
  • L'attività è troppo complicata da definire in un prompt. Ad esempio, vuoi che il modello esegua la clonazione di comportamenti per un comportamento difficile da articolare in un prompt.
  • Hai intuizioni complesse su un'attività che sono facili da ottenere, ma difficili da formalizzare in un prompt.
  • Vuoi ridurre la lunghezza del contesto rimuovendo gli esempi di few-shot.

Quota

La quota viene applicata al numero di job di ottimizzazione simultanei. Ogni progetto include una quota predefinita per eseguire almeno un job di ottimizzazione. Si tratta di una quota globale, condivisa tra tutte le regioni disponibili. Se vuoi eseguire più job contemporaneamente, devi richiedere una quota aggiuntiva per Global concurrent tuning jobs.

Prezzi

L'ottimizzazione supervisionata per gemini-1.0-pro-002 è in anteprima.

  • Mentre l'ottimizzazione è in anteprima, l'ottimizzazione di un modello è senza costi.
  • Dopo aver ottimizzato un modello, si applicano comunque i costi di inferenza per il modello ottimizzato. I prezzi di inferenza sono gli stessi per ogni versione stabile di Gemini 1.0 Pro.

Per ulteriori informazioni, consulta i prezzi di Vertex AI e le versioni dei modelli stabili Gemini disponibili.

Passaggi successivi