Progetti, modelli, versioni e job

Molti termini nel machine learning (ML) hanno cose diverse a seconda del contesto. Questa sezione definisce alcuni termini utilizzati in questa documentazione.

Progetti, modelli, versioni e job

progetto
Il tuo progetto è il tuo progetto Google Cloud. È il container logico per i modelli e i job di cui hai eseguito il deployment. Ogni progetto che utilizzi per sviluppare soluzioni di AI Platform Prediction deve avere AI Platform Prediction abilitato. Il tuo Account Google può avere accesso a più progetti Google Cloud.
Modello
Nel machine learning, un model rappresenta la soluzione a un problema che stai cercando di risolvere. In altre parole, è la ricetta per prevedere un valore dai dati. In AI Platform Prediction, un modello è un container logico per le singole versioni della soluzione. Ad esempio, supponiamo che il problema da risolvere sia la previsione del prezzo di vendita delle case sulla base di un insieme di dati sulle vendite precedenti. Creerai un modello in AI Platform Prediction chiamato housing_prices e proverai più tecniche di machine learning per risolvere il problema. In ogni fase, puoi eseguire il deployment delle versioni del modello. Ogni versione può essere completamente diversa dalle altre, ma puoi organizzarle nello stesso modello, se si adatta al tuo flusso di lavoro.
Modello addestrato
Un modello addestrato include lo stato del modello computazionale e le sue impostazioni dopo l'addestramento.
Modello salvato
La maggior parte dei framework di machine learning è in grado di serializzare le informazioni che rappresentano il modello addestrato e creare un file come modello salvato, di cui puoi eseguire il deployment per la previsione nel cloud.
Versione del modello
Una versione del modello, o solo la versione, è un'istanza di una soluzione di machine learning archiviata nel servizio modelli AI Platform Prediction. Puoi creare una versione passando un modello addestrato in serie (come modello salvato) al servizio. Quando crei una versione, puoi anche fornire un codice personalizzato (beta) per gestire le previsioni.
Job
Puoi interagire con i servizi di AI Platform Prediction avviando richieste e job. Le richieste sono normali richieste API web che restituiscono una risposta il più rapidamente possibile. I job sono operazioni a lunga esecuzione elaborate in modo asincrono. AI Platform Prediction offre job di addestramento e job di previsione batch. Invii una richiesta per avviare il job e ricevere una risposta rapida che verifichi lo stato del job. Puoi quindi richiedere periodicamente lo stato per monitorare l'avanzamento del job.

Creazione di pacchetti, gestione temporanea, esportazione e deployment dei modelli

Puoi spostare modelli e dati, in particolare tra il tuo ambiente locale e Cloud Storage, e tra Cloud Storage e i servizi di AI Platform Prediction. Questa documentazione utilizza i termini seguenti per indicare le operazioni specifiche del processo.

Pacchetto
Devi pacchettizzare la tua applicazione di addestramento in modo che il servizio di addestramento di AI Platform Prediction possa installarla su ogni istanza di addestramento. Con la pacchettizzazione dell'applicazione, la trasforma in un pacchetto di distribuzione Python standard. Quando esegui il deployment del codice personalizzato per la previsione (beta), devi pacchettizzare il codice anche per gestire le previsioni.
Fase
Puoi eseguire la fase del pacchetto dell'applicazione di addestramento in un bucket Cloud Storage a cui ha accesso il tuo progetto. Ciò consente al servizio di addestramento di accedere al pacchetto e copiarlo in tutte le istanze di addestramento. Puoi anche archiviare in un'area intermedia un modello salvato addestrato altrove in un bucket Cloud Storage a cui ha accesso il tuo progetto. Ciò consente al servizio di previsione online di accedere al modello ed eseguirne il deployment. Se esegui il deployment di codice personalizzato per la previsione (beta), aggiungi inoltre il pacchetto di codice personalizzato in Cloud Storage in modo che il servizio di previsione online possa accedervi durante il deployment.
Esporta
Nel contesto dei modelli di machine learning, questa documentazione utilizza il termine esportazione per indicare il processo di serializzazione del modello computazionale e delle impostazioni su file. Per l'esportazione vengono utilizzati il modello e gli oggetti salvati.
Esegui il deployment
Puoi deploy di una versione del modello quando crei una risorsa della versione. Devi specificare un modello esportato (una directory del modello salvato) e una risorsa del modello a cui assegnare la versione. AI Platform Prediction ospita la versione in modo da poter inviare previsioni al modello. Se esegui il deployment di codice personalizzato per la previsione (beta), fornisci anche un pacchetto di codice personalizzato durante il deployment.

Passaggi successivi