Introduzione all'ottimizzazione

L'ottimizzazione del modello è un processo fondamentale per adattare Gemini allo scopo di eseguire attività specifiche con maggiore precisione e precisione. L'ottimizzazione del modello funziona fornendo con un set di dati di addestramento che contiene un insieme di esempi attività di machine learning.

Questa pagina fornisce una panoramica dell'ottimizzazione del modello per Gemini, descrive le opzioni di ottimizzazione disponibili per Gemini e ti aiuta a determinare quando utilizzare ciascuna opzione di ottimizzazione.

Vantaggi dell'ottimizzazione del modello

L'ottimizzazione del modello è un modo efficace per personalizzare i modelli di grandi dimensioni in base alle tue attività. È un è il passaggio chiave per migliorare la qualità e l'efficienza del modello. L'ottimizzazione del modello fornisce i seguenti vantaggi:

  • Qualità superiore per attività specifiche.
  • Maggiore robustezza del modello.
  • Riduzione della latenza e dei costi di inferenza grazie a prompt più brevi.

Ottimizzazione rispetto alla progettazione dei prompt

L'ottimizzazione offre i seguenti vantaggi rispetto alla progettazione dei prompt.

  • Consente una profonda personalizzazione del modello e migliora le prestazioni sul attività specifiche.
  • Offre risultati più coerenti e affidabili.
  • In grado di gestire più esempi contemporaneamente.

Approcci all'ottimizzazione

L'ottimizzazione efficiente dei parametri e l'ottimizzazione completa sono due approcci personalizzazione di modelli di grandi dimensioni. Entrambi i metodi hanno i loro vantaggi e le loro implicazioni in termini di qualità del modello ed efficienza delle risorse.

L'ottimizzazione efficiente dei parametri

L'ottimizzazione efficiente dei parametri, chiamata anche ottimizzazione degli adattatori, consente di adattamento di modelli di grandi dimensioni alle tue attività o al tuo dominio specifico. Ottimizzazione efficiente dei parametri aggiorna un sottoinsieme relativamente piccolo dei parametri del modello durante l'ottimizzazione e il processo di sviluppo.

Per capire in che modo Vertex AI supporta l'ottimizzazione e la pubblicazione degli adattatori, maggiori dettagli sono disponibili nel seguente white paper, Adaptation of Large Foundation Models.

Ottimizzazione completa

L'ottimizzazione completa aggiorna tutti i parametri del modello, il che lo rende adatto adattando il modello a compiti molto complessi, con il potenziale di ottenere qualità. Tuttavia, l'ottimizzazione completa richiede risorse di calcolo più elevate ottimizzazione e pubblicazione, con un conseguente aumento dei costi complessivi.

L'ottimizzazione efficiente dei parametri rispetto all'ottimizzazione completa

L'ottimizzazione efficiente dei parametri è più efficiente in termini di risorse ed economicamente vantaggiosa fino all'ottimizzazione completa. Utilizza risorse di calcolo significativamente inferiori per l'addestramento. È in grado di adattare il modello più rapidamente con un set di dati più piccolo. La flessibilità l'ottimizzazione efficiente dei parametri offre una soluzione per l'apprendimento multitasking senza la necessità per un riaddestramento.

Metodi di ottimizzazione supportati

Vertex AI supporta i seguenti metodi per ottimizzare i modelli di base.

Ottimizzazione supervisionata

Il perfezionamento supervisionato migliora le prestazioni del modello insegnandogli una nuova competenza. I dati che contengono centinaia di esempi etichettati vengono usati per insegnare ai del modello per imitare un comportamento o un'attività desiderati. Ogni esempio etichettato dimostra l'output del modello durante l'inferenza.

Quando esegui un job di ottimizzazione supervisionato, il modello apprende parametri aggiuntivi che la aiutino a codificare le informazioni necessarie per eseguire l'attività desiderata apprendere il comportamento desiderato. Questi parametri vengono utilizzati durante l'inferenza. La dell'output del job di ottimizzazione è un nuovo modello che combina parametri con il modello originale.

L'ottimizzazione supervisionata di un modello di testo è una buona opzione quando l'output del modello non è complesso ed è relativamente facile da definire. È consigliata un'ottimizzazione supervisionata per classificazione, analisi del sentiment, estrazione di entità, riassunto di contenuti non complessi e scrivere query specifiche per il dominio. Per il codice personalizzati, l'ottimizzazione supervisionata è l'unica opzione.

Modelli che supportano il perfezionamento supervisionato

Entrambi i modelli Gemini e PaLM supportano l'ottimizzazione supervisionata. Per ulteriori informazioni sull'uso dell'ottimizzazione supervisionata con ogni rispettivo modello, consulta le pagine seguenti.

Apprendimento per rinforzo con feedback umano (RLHF)

Apprendimento per rinforzo con feedback umano (RLHF) e preferenze specificate dagli esseri umani per ottimizzare un modello linguistico. Con l'aiuto di una persona per ottimizzare i tuoi modelli, puoi renderli più in linea con quelli umani preferenze e ridurre i risultati indesiderati in situazioni in cui le persone intuizioni complesse su un'attività. Ad esempio, RLHF può aiutare con una risposta ambigua attività, ad esempio come scrivere una poesia sull'oceano, offrendo a una persona poesie sull'oceano e lasciare che la persona scelga la sua preferita.

L'ottimizzazione RLHF è una buona opzione quando l'output del modello è complesso non è facile con l'ottimizzazione supervisionata. L'ottimizzazione RLHF è consigliata per la risposta a domande, il riassunto di contenuti complessi e la creazione di contenuti, come una riscrittura. L'ottimizzazione RLHF non è supportata dai modelli di codice.

Modelli che supportano l'ottimizzazione RLHF

I modelli PaLM supportano l'ottimizzazione RLHF. Per ulteriori informazioni, vedi Ottimizzazione dei modelli di testo PaLM mediante l'ottimizzazione RLHF.

Distillazione del modello

La distillazione del modello è una buona opzione se hai un modello di grandi dimensioni che vuoi ridurre senza ridurne la capacità di fare ciò che vuoi. Il processo di distillazione di un modello crea un nuovo modello addestrato più piccolo che costa meno di utilizzo e ha una latenza inferiore rispetto al modello originale.

Modelli che supportano la distillazione

I modelli PaLM supportano la distillazione dei modelli. Per maggiori informazioni, vedi Creare modelli di testo distillato per PaLM.

Per ulteriori informazioni, vedi i prezzi di Vertex AI e Versioni del modello stabile Gemini disponibili.

Passaggi successivi