Informazioni sull'ottimizzazione supervisionata per i modelli Gemini

Il perfezionamento supervisionato è una buona opzione quando hai un'attività ben definita con disponibili. È particolarmente efficace per applicazioni specifiche applicazioni in cui la lingua o i contenuti differiscono in modo significativo dai dati è stato addestrato inizialmente il modello di grandi dimensioni.

L'ottimizzazione supervisionata adatta il comportamento del modello con un set di dati etichettato. Questo processo regola le ponderazioni del modello per ridurre al minimo la differenza tra le sue previsioni e le etichette effettive. Ad esempio, può migliorare le prestazioni del modello per i seguenti tipi di attività:

  • Classificazione
  • Riassunto
  • Question answering estrattive
  • Chat

Modelli supportati

I seguenti modelli di testo Gemini supportano l'ottimizzazione supervisionata:

  • gemini-1.0-pro-002.

Casi d'uso per l'utilizzo di un'ottimizzazione supervisionata su modelli di testo

I modelli di testo di base funzionano bene quando l'output o l'attività previsti possono essere chiaramente e concisamente definito in un prompt, che produce costantemente l'output previsto. Se vuoi che un modello impari qualcosa di di nicchia o di specifico si discosta dai modelli linguistici generali, per ottimizzare il modello. Ad esempio, puoi utilizzare l'ottimizzazione per insegnare al modello seguenti:

  • Strutture o formati specifici per la generazione di output.
  • Comportamenti specifici, ad esempio quando fornire un output consecutivo o dettagliato.
  • Output personalizzati specifici per tipi di input specifici.

Di seguito sono riportati alcuni casi d'uso difficili da acquisire con istruzioni per il prompt:

  • Classificazione: la risposta prevista è una parola o una frase specifica.

    L'ottimizzazione del modello può aiutare a impedire che il modello generi risposte dettagliate.

  • Riassunto: il riassunto segue un formato specifico. Ad esempio, potrebbe essere necessario rimuovere le informazioni che consentono l'identificazione personale (PII) in una chat riassunto.

    Questa formattazione riguarda la sostituzione dei nomi degli altoparlanti con #Person1 e #Person2 è difficile da descrivere e il modello di base potrebbe non essere produrre una risposta simile.

  • Question answering estrattivo: la domanda riguarda un contesto e la risposta è una sottostringa del contesto.

    La risposta "Last Glacial Maximum" è una frase specifica del contesto.

  • Chat: devi personalizzare la risposta del modello in modo che segua un utente tipo, un ruolo o carattere.

Puoi anche ottimizzare un modello nelle seguenti situazioni:

  • I prompt non producono i risultati previsti in modo abbastanza coerente.
  • L'attività è troppo complicata da definire in un prompt. Ad esempio, se vuoi che il di eseguire la clonazione del comportamento per un comportamento difficile da articolare .
  • Hai intuizioni complesse su un'attività che sono facili da ottenere, ma difficili da formalizzare in un prompt.
  • Vuoi ridurre la lunghezza del contesto rimuovendo gli esempi di few-shot.

Quota

La quota viene applicata al numero di job di ottimizzazione simultanei. Ogni progetto arriva con una quota predefinita per eseguire almeno un job di ottimizzazione. Questa è una quota globale, condivise in tutte le regioni disponibili. Se vuoi eseguire più job contemporaneamente, devi richiedere una quota aggiuntiva per Global concurrent tuning jobs.

Prezzi

L'ottimizzazione supervisionata per gemini-1.0-pro-002 è in anteprima.

  • Mentre l'ottimizzazione è in anteprima, l'ottimizzazione di un modello è senza costi.
  • Dopo aver ottimizzato un modello, si applicano comunque i costi di inferenza per il modello ottimizzato. Il prezzo di inferenza è lo stesso per ogni versione stabile di Gemini 1.0 Pro.

Per ulteriori informazioni, vedi i prezzi di Vertex AI e Versioni del modello stabile Gemini disponibili.

Passaggi successivi