Il perfezionamento supervisionato è una buona opzione quando hai un'attività ben definita con disponibili. È particolarmente efficace per applicazioni specifiche applicazioni in cui la lingua o i contenuti differiscono in modo significativo dai dati è stato addestrato inizialmente il modello di grandi dimensioni. Puoi ottimizzare i tipi di dati relativi a testo, immagine, audio e documento.
L'ottimizzazione supervisionata adatta il comportamento del modello con un set di dati etichettato. Questo processo aggiusta i pesi del modello per ridurre al minimo la differenza tra le sue previsioni e le etichette effettive. Ad esempio, può migliorare le prestazioni del modello per i seguenti tipi di attività:
- Classificazione
- Riassunto
- Question answering estrattive
- Chat
Per scoprire di più, consulta Quando utilizzare la messa a punto fine supervisionata per Gemini.
Modelli supportati
I seguenti modelli Gemini supportano l'ottimizzazione supervisionata:
gemini-1.5-pro-002
(in GA, supporta testo, immagini, audio e documenti)gemini-1.5-flash-002
(in GA, supporta testo, immagini, audio e documenti)gemini-1.0-pro-002
(in anteprima, supporta solo l'ottimizzazione del testo)
Limitazioni
- Token di input e output massimi:
- Esempi di addestramento: 32.000
- Pubblicazione: 32.000
- Dimensioni del set di dati di convalida: 256 esempi
- Dimensione del file del set di dati di addestramento: fino a 1 GB per JSONL
- Dimensioni adattatore:
Gemini 1.5 Pro
: i valori supportati sono 1 e 4 (il valore predefinito è 4). L'utilizzo di valori più elevati (ad es. 8 o 16) non andrà a buon fine.Gemini 1.5 Flash
: i valori supportati sono 1, 4, 8 e 16 (il valore predefinito è 8).
Casi d'uso per l'utilizzo della messa a punto supervisionata
I modelli di base funzionano bene quando l'output o l'attività previsti possono essere chiaramente e concisamente definito in un prompt, che produce costantemente l'output previsto. Se vuoi che un modello impari qualcosa di di nicchia o di specifico si discosta da schemi generali, allora considera per ottimizzare il modello. Ad esempio, puoi utilizzare l'ottimizzazione per insegnare al modello seguenti:
- Strutture o formati specifici per la generazione di output.
- Comportamenti specifici, ad esempio quando fornire un output conciso o dettagliato.
- Output personalizzati specifici per tipi di input specifici.
Gli esempi seguenti sono casi d'uso difficili da acquisire con solo istruzioni per il prompt:
Classificazione: la risposta prevista è una parola o una frase specifica.
La regolazione del modello può contribuire a evitare che generi risposte verbose.
Riassunto: il riassunto segue un formato specifico. Ad esempio, potresti dover rimuovere informazioni che consentono l'identificazione personale (PII) nel riepilogo di una chat.
Questa formattazione riguarda la sostituzione dei nomi degli altoparlanti con
#Person1
e#Person2
è difficile da descrivere e il modello di base potrebbe non essere produrre una risposta simile.Question answering estrattivo: la domanda riguarda un contesto e la risposta è una sottostringa del contesto.
La risposta "Last Glacial Maximum" è una frase specifica del contesto.
Chat: devi personalizzare la risposta del modello in base a una persona, un ruolo o un personaggio.
Puoi anche ottimizzare un modello nelle seguenti situazioni:
- I prompt non producono i risultati previsti in modo sufficientemente coerente.
- L'attività è troppo complicata per essere definita in un prompt. Ad esempio, vuoi che il modello esegua la clonazione del comportamento per un comportamento difficile da articolare in un prompt.
- Hai intuizioni complesse su un'attività che sono facili da ottenere, ma difficili da formalizzare in un prompt.
- Vuoi ridurre la lunghezza del contesto rimuovendo gli esempi di few-shot.
Configura la regione di un job di ottimizzazione
I dati utente, come il set di dati trasformato e il modello ottimizzato, vengono archiviati
della regione del job di ottimizzazione. Durante la regolazione, il calcolo potrebbe essere trasferito ad altre regioni US
o
EU
per gli acceleratori disponibili. L'offload è trasparente per gli utenti.
Se utilizzi l'SDK Vertex AI, puoi specificare la regione durante l'inizializzazione. Ad esempio:
import vertexai vertexai.init(project='myproject', location='us-central1')
Se crei un job di ottimizzazione supervisionato tramite l'invio di una richiesta POST utilizzando il
tuningJobs.create
, utilizzerai l'URL per specificare la regione in cui il job di ottimizzazione viene eseguito. Ad esempio, nel seguente URL specifichi una regione sostituendo entrambe le istanze diTUNING_JOB_REGION
con la regione in cui viene eseguito il job.https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Se usi la console Google Cloud, puoi selezionarne il nome nella sezione Regione campo a discesa nella pagina Dettagli modello. Questa è la stessa pagina in cui selezioni il modello di base e il nome del modello ottimizzato.
Quota
La quota viene applicata al numero di job di ottimizzazione simultanei. Ogni progetto arriva
con una quota predefinita per eseguire almeno un job di ottimizzazione. Questa è una quota globale,
condivise tra tutte le regioni disponibili
e i modelli supportati. Se vuoi eseguire più job contemporaneamente, devi richiedere una quota aggiuntiva per Global concurrent tuning jobs
.
Prezzi
L'ottimizzazione supervisionata per gemini-1.0-pro-002
è in anteprima. Mentre l'ottimizzazione è in anteprima,
non costa nulla per ottimizzare un modello.
Prezzi per l'ottimizzazione di Gemini 1.5 Flash e Gemini 1.5 Pro è disponibile qui: prezzi di Vertex AI.
I token di addestramento vengono calcolati moltiplicando il numero totale di token nel set di dati di addestramento per il numero di epoche. Per tutti i modelli, dopo l'ottimizzazione, i costi di inferenza per il modello ottimizzato sono ancora valide. I prezzi di inferenza sono gli stessi per ogni versione stabile di Gemini. Per ulteriori informazioni, consulta Prezzi di Vertex AI e Versioni stabili dei modelli Gemini disponibili.
Passaggi successivi
- Prepara un set di dati di ottimizzazione supervisionato.