Vertex AI riunisce AI Platform e AutoML in un'unica interfaccia. Questa pagina mette a confronto Vertex AI e AI Platform per gli utenti che hanno dimestichezza con AI Platform.
Addestramento personalizzato
Con Vertex AI, puoi addestrare i modelli con AutoML oppure eseguire addestramento personalizzato, un flusso di lavoro più simile all'AI Platform Training.
Attività | AI Platform Training | Vertex AI |
---|---|---|
Seleziona la versione del framework di machine learning da utilizzare | Gli utenti della console Google Cloud impostano il nome e la versione del framework. | |
Versioni di runtime: quando invii un job di addestramento, specifica il numero di una versione di runtime che includa il framework e la relativa versione che preferisci. | Container predefiniti: quando invii un job di addestramento personalizzato, specifica l'URI di Artifact Registry di un container predefinito che corrisponde al tuo framework e alla relativa versione. | |
Invia un job di addestramento utilizzando un container personalizzato | Crea il tuo container personalizzato, ospitalo su Artifact Registry e utilizzalo per eseguire l'app di addestramento. | |
Imposta la regione Google Cloud da utilizzare | Specifica il nome di una regione quando invii un job di addestramento a un
endpoint globale (ml.googleapis.com ). |
Invia il job di addestramento personalizzato a un endpoint regionale, ad esempio
us-central1-aiplatform.googleapis.com .
Non esiste un endpoint globale. Alcune regioni disponibili in AI Platform non sono disponibili in Vertex AI. Consulta l'elenco delle regioni supportate
nella pagina Località.
|
Specifica le configurazioni delle macchine per l'addestramento distribuito | Specifica le configurazioni con nomi che fanno riferimento a ruoli specifici
del cluster di addestramento
(masterConfig , workerConfig ,
parameterServerConfig e evaluatorConfig ).
|
La configurazione è un elenco generico: specifica le configurazioni delle macchine in
CustomJobSpec.workerPoolSpecs[] . |
Invia un job di addestramento utilizzando un pacchetto Python | I campi relativi al pacchetto Python sono di primo livello all'interno di
TrainingInput . |
I campi relativi al tuo pacchetto Python sono organizzati all'interno di
pythonPackageSpec . |
Specifica i tipi di macchina |
|
|
Invio di un job di ottimizzazione degli iperparametri |
Invia un job di addestramento con una configurazione hyperparameters . Indipendentemente dal fatto che un job di addestramento venga inviato con o senza ottimizzazione degli iperparametri, viene creata una risorsa API TrainingJob .
|
Invia un job di ottimizzazione degli iperparametri con una configurazione studySpec . Viene creata una risorsa API di primo livello (HyperparameterTuningJob ). I job di addestramento personalizzati inviati senza ottimizzazione degli iperparametri creano una risorsa API CustomJob di primo livello.
|
Crea una pipeline di addestramento per orchestrare i job di addestramento con altre operazioni | Nessuna risorsa API integrata per l'orchestrazione; utilizza AI Platform Pipelines, Kubeflow o un altro strumento di orchestrazione. | Crea una risorsa TrainingPipeline per orchestrare un
job di addestramento con il deployment del modello. |
Previsione
Attività | AI Platform Prediction | Vertex AI |
---|---|---|
Seleziona la versione del framework di machine learning da utilizzare | Gli utenti della console Google Cloud impostano il nome e la versione del framework. | |
Versioni di runtime: quando esegui il deployment di un modello, specifica il numero di una versione di runtime che includa il framework e la relativa versione che preferisci. | Container predefiniti: quando esegui il deployment di un modello, specifica l'URI di Artifact Registry di un
contenitore predefinito che corrisponde al tuo framework e alla relativa versione. Utilizza
l'opzione multiregionale corrispondente al tuo endpoint regionale, ad esempio us-docker.pkg.dev per un endpoint us-central1 . |
|
Eseguire codice personalizzato con la previsione | Utilizza routine di previsione personalizzate. | Utilizza routine di previsione personalizzate su Vertex AI. |
Imposta la regione Google Cloud da utilizzare | Specifica il nome di una regione quando crei un modello su un endpoint API globale (ml.googleapis.com ). |
Crea il tuo modello su un endpoint regionale, ad esempio
us-central1-aiplatform.googleapis.com .
Non esiste un endpoint globale. Alcune regioni disponibili in AI Platform non sono disponibili in Vertex AI. Consulta l'elenco delle regioni supportate
nella pagina Località.
|
Memorizzare gli artefatti del modello | Gli artefatti del modello vengono archiviati in Cloud Storage. Non è associata alcuna risorsa API per gli elementi del modello. | È disponibile spazio di archiviazione dei modelli gestito per gli artefatti del modello ed è associato alla risorsa Model .Puoi comunque eseguire il deployment dei modelli archiviati in Cloud Storage senza utilizzare un set di dati gestito da Vertex AI. |
Deployment del modello | Esegui il deployment di un modello direttamente per renderlo disponibile per le previsioni online. |
Crea un oggetto Endpoint, che fornisce risorse per la pubblicazione di previsioni online. Poi esegui il deployment del modello nell'endpoint.
Per richiedere le previsioni, chiama il metodo
predict() . |
Richiedere previsioni batch | Puoi richiedere previsioni batch sui modelli archiviati in Cloud Storage e specificare una versione di runtime nella richiesta. In alternativa, puoi richiedere previsioni batch sui modelli di cui è stato eseguito il deployment e utilizzare la versione di runtime specificata durante il deployment del modello. | Carichi il modello su Vertex AI e poi specifichi un container predefinito o un container personalizzato per pubblicare le previsioni. |
Richieste di previsione online | La struttura JSON include un elenco di istanze. | La struttura JSON include un elenco di istanze e un campo per i parametri. |
Specifica i tipi di macchina | Specifica qualsiasi tipo di macchina disponibile quando crei una versione. | I tipi di macchine di previsione online legacy di AI Platform (MLS1) non sono supportati. Sono disponibili solo tipi di macchine Compute Engine . |
Deployment modelli | Crea una risorsa modello e poi una risorsa versione. | Crea una risorsa modello, una risorsa endpoint ed esegui il deployment del modello nell'endpoint. Specifica la suddivisione del traffico nell'endpoint. |
Vertex Explainable AI
Puoi ottenere attribuzioni delle funzionalità per i modelli tabulari e di immagini sia in AI Explanations per AI Platform sia in Vertex Explainable AI.
Attività | AI Explanations per AI Platform | Vertex Explainable AI |
---|---|---|
Ottenere le attribuzioni delle caratteristiche per i modelli tabulari | Utilizza il valore di Shapley campionato o i gradienti integrati per ottenere le attribuzioni delle funzionalità per i modelli tabulari. | |
Ottenere attribuzioni delle caratteristiche per i modelli di immagini | Utilizza i gradienti integrati o XRAI per ottenere le attribuzioni delle funzionalità per i modelli di immagini. |