AutoML Text è stato ritirato. Questa pagina fornisce confronti tra AutoML Text e Gemini per aiutare gli utenti di AutoML Text a capire come utilizzare Gemini.
Controlla le tabelle che si applicano al tuo caso d'uso e esamina le modifiche che potrebbero influire sul tuo flusso di lavoro.
Uso generale
Queste differenze si applicano a tutti gli utenti di Gemini.
Operazione | Testo AutoML | Gemini |
---|---|---|
Formati dei dati di addestramento | Puoi utilizzare file CSV o JSON Lines, ad eccezione dell'estrazione di entità di testo, per
includere snippet di testo incorporati o per fare riferimento a documenti di tipo
TXT . L'estrazione di entità supporta solo i file JSON Lines. |
Puoi utilizzare solo file JSON Line. Ogni riga del file deve rappresentare un singolo esempio di addestramento. Puoi scaricare un set di dati di esempio per ottimizzare i modelli Gemini. I file devono essere archiviati in Cloud Storage. |
Annotazione del set di dati |
Le annotazioni sono raggruppate come oggetto AnnotationSet .
Puoi utilizzare set di annotazioni diversi con lo stesso set di dati.
|
Le annotazioni dei set di dati non sono applicabili con Gemini. |
Importazione set di dati | Specifichi i valori di utilizzo di ML in una colonna facoltativa per CSV, nella stessa riga
dei dati oppure come tag in JSON Lines nello stesso oggetto JSON dei dati. Se
non specifichi i valori di utilizzo di ML, i dati vengono suddivisi automaticamente per
addestramento, test e convalida. Per l'analisi del sentiment, i file CSV devono includere il valore massimo del sentiment nell'ultima colonna di ogni riga. |
Devi avere due file JSONL separati, uno per l'addestramento e uno per la convalida. Il file di convalida è facoltativo. Il file di convalida deve contenere da 10 a 256 esempi. |
Costi di archiviazione | Quando crei un set di dati, i dati vengono caricati in Cloud Storage nel tuo progetto. Per tale capacità di archiviazione ti viene addebitato un costo. Scopri di più. | Quando crei un set di dati, i dati vengono caricati in Cloud Storage nel tuo progetto. Per tale capacità di archiviazione ti viene addebitato un costo. Scopri di più |
Etichettatura dati |
Fornisci le istruzioni di etichettatura utilizzando un URL. Le annotazioni fanno parte
dell'oggetto Dataset e non possono essere manipolate utilizzando l'API.
|
L'etichettatura dei dati non è applicabile con Gemini. |
Deployment del modello |
Crea un oggetto Endpoint, che fornisce risorse per
la pubblicazione di inferenze online. Dopodiché, esegui il deployment del modello sull'endpoint.
Per richiedere inferenze, chiama il
metodo predict() .
|
Dopo il perfezionamento di Gemini, il modello viene archiviato in
Vertex AI Model Registry
e viene creato automaticamente un endpoint. Le inferenze online
dal modello ottimizzato
possono
essere richieste utilizzando l'SDK Python, l'API REST o la console. Richiedi
le inferenze recuperando prima l'endpoint ottimizzato e poi utilizzando il
metodo generate_content() .
|
Utilizzo del numero o dell'ID progetto |
Sia project-number che
project-id funzionano in Vertex AI.
|
Gemini utilizza project-id . |
Punteggi di confidenza | AutoML Text supporta i punteggi di affidabilità. | Gemini non supporta i punteggi di confidenza. |
Utenti API
Per informazioni dettagliate sull'API, consulta la documentazione di riferimento dell'API Vertex AI Generative AI Tuning.
Operazione o entità | Testo AutoML | Gemini |
---|---|---|
Creazione del modello |
Crea un oggetto TrainingPipeline , che restituisce un
job di addestramento.
|
Crea un job di ottimizzazione supervisionata che restituisce il job di ottimizzazione. |
Utilizzo della libreria client | Esistono diversi client API per ogni risorsa API. | Puoi creare un job di fine tuning supervisionato per Gemini utilizzando l'SDK Python, l'API REST o la console. |
Richiesta di deduzioni |
Richiedi le inferenze chiamando il metodo
predict()
sulla risorsa Endpoint.
|
Richiedi le inferenze recuperando prima l'endpoint ottimizzato e poi
utilizzando il
metodo generate_content .
|
Endpoint di inferenza online | Nel comando seguente, sostituisci REGION con la regione in cui si trova il modello di inferenza.REGION-aiplatform.googleapis.com .
Ad esempio:us-central1-aiplatform.googleapis.com |
Nel comando seguente, sostituisci TUNING_JOB_REGION con la regione in cui
viene eseguito il job di ottimizzazione.TUNING_JOB_REGION-aiplatform.googleapis.com .
Ad esempio:us-central1-aiplatform.googleapis.com |
File di schema e definizione | Alcuni campi di richiesta e risposta sono definiti nei file di schema e definizione. I formati dei dati vengono definiti utilizzando file di schema predefiniti. Ciò consente flessibilità per l'API e i formati dei dati. | Il corpo della richiesta, i parametri del modello e il corpo della risposta sono gli stessi dei modelli Gemini non ottimizzati. Consulta le richieste di esempio. |
Nome host | aiplatform.googleapis.com |
aiplatform.googleapis.com |
Nome host regionale | Obbligatorio. Ad esempio:us-central1-aiplatform.googleapis.com |
Obbligatorio. Ad esempio:us-central1-aiplatform.googleapis.com |
Passaggi successivi
Per iniziare a eseguire l'ottimizzazione, consulta Ottimizzazione dei modelli per i modelli di testo Gemini.