Utenti di Gemini per il testo AutoML

AutoML Text è stato ritirato. Questa pagina fornisce confronti tra AutoML Text e Gemini per aiutare gli utenti di AutoML Text a capire come utilizzare Gemini.

Controlla le tabelle che si applicano al tuo caso d'uso e esamina le modifiche che potrebbero influire sul tuo flusso di lavoro.

Uso generale

Queste differenze si applicano a tutti gli utenti di Gemini.

Operazione Testo AutoML Gemini
Formati dei dati di addestramento Puoi utilizzare file CSV o JSON Lines, ad eccezione dell'estrazione di entità di testo, per includere snippet di testo incorporati o per fare riferimento a documenti di tipo TXT. L'estrazione di entità supporta solo i file JSON Lines. Puoi utilizzare solo file JSON Line. Ogni riga del file deve rappresentare un singolo esempio di addestramento. Puoi scaricare un set di dati di esempio per ottimizzare i modelli Gemini. I file devono essere archiviati in Cloud Storage.
Annotazione del set di dati Le annotazioni sono raggruppate come oggetto AnnotationSet. Puoi utilizzare set di annotazioni diversi con lo stesso set di dati. Le annotazioni dei set di dati non sono applicabili con Gemini.
Importazione set di dati Specifichi i valori di utilizzo di ML in una colonna facoltativa per CSV, nella stessa riga dei dati oppure come tag in JSON Lines nello stesso oggetto JSON dei dati. Se non specifichi i valori di utilizzo di ML, i dati vengono suddivisi automaticamente per addestramento, test e convalida.
Per l'analisi del sentiment, i file CSV devono includere il valore massimo del sentiment nell'ultima colonna di ogni riga.
Devi avere due file JSONL separati, uno per l'addestramento e uno per la convalida. Il file di convalida è facoltativo. Il file di convalida deve contenere da 10 a 256 esempi.
Costi di archiviazione Quando crei un set di dati, i dati vengono caricati in Cloud Storage nel tuo progetto. Per tale capacità di archiviazione ti viene addebitato un costo. Scopri di più. Quando crei un set di dati, i dati vengono caricati in Cloud Storage nel tuo progetto. Per tale capacità di archiviazione ti viene addebitato un costo. Scopri di più
Etichettatura dati Fornisci le istruzioni di etichettatura utilizzando un URL. Le annotazioni fanno parte dell'oggetto Dataset e non possono essere manipolate utilizzando l'API. L'etichettatura dei dati non è applicabile con Gemini.
Deployment del modello Crea un oggetto Endpoint, che fornisce risorse per la pubblicazione di inferenze online. Dopodiché, esegui il deployment del modello sull'endpoint. Per richiedere inferenze, chiama il metodo predict(). Dopo il perfezionamento di Gemini, il modello viene archiviato in Vertex AI Model Registry e viene creato automaticamente un endpoint. Le inferenze online dal modello ottimizzato possono essere richieste utilizzando l'SDK Python, l'API REST o la console. Richiedi le inferenze recuperando prima l'endpoint ottimizzato e poi utilizzando il metodo generate_content().
Utilizzo del numero o dell'ID progetto Sia project-number che project-id funzionano in Vertex AI. Gemini utilizza project-id.
Punteggi di confidenza AutoML Text supporta i punteggi di affidabilità. Gemini non supporta i punteggi di confidenza.

Utenti API

Per informazioni dettagliate sull'API, consulta la documentazione di riferimento dell'API Vertex AI Generative AI Tuning.

Operazione o entità Testo AutoML Gemini
Creazione del modello Crea un oggetto TrainingPipeline, che restituisce un job di addestramento. Crea un job di ottimizzazione supervisionata che restituisce il job di ottimizzazione.
Utilizzo della libreria client Esistono diversi client API per ogni risorsa API. Puoi creare un job di fine tuning supervisionato per Gemini utilizzando l'SDK Python, l'API REST o la console.
Richiesta di deduzioni Richiedi le inferenze chiamando il metodo predict() sulla risorsa Endpoint. Richiedi le inferenze recuperando prima l'endpoint ottimizzato e poi utilizzando il metodo generate_content.
Endpoint di inferenza online Nel comando seguente, sostituisci REGION con la regione in cui si trova il modello di inferenza.
REGION-aiplatform.googleapis.com. Ad esempio:
us-central1-aiplatform.googleapis.com
Nel comando seguente, sostituisci TUNING_JOB_REGION con la regione in cui viene eseguito il job di ottimizzazione.
TUNING_JOB_REGION-aiplatform.googleapis.com. Ad esempio:
us-central1-aiplatform.googleapis.com
File di schema e definizione Alcuni campi di richiesta e risposta sono definiti nei file di schema e definizione. I formati dei dati vengono definiti utilizzando file di schema predefiniti. Ciò consente flessibilità per l'API e i formati dei dati. Il corpo della richiesta, i parametri del modello e il corpo della risposta sono gli stessi dei modelli Gemini non ottimizzati. Consulta le richieste di esempio.
Nome host aiplatform.googleapis.com aiplatform.googleapis.com
Nome host regionale Obbligatorio. Ad esempio:
us-central1-aiplatform.googleapis.com
Obbligatorio. Ad esempio:
us-central1-aiplatform.googleapis.com

Passaggi successivi