Introduzione ad AI Platform

Utilizza AI Platform per addestrare modelli di machine learning su larga scala, ospitare il tuo modello addestrato nel cloud e utilizzare il modello per fare previsioni sui nuovi dati.

Dove AI Platform si inserisce nel flusso di lavoro ML

Il diagramma seguente offre una panoramica generale delle fasi di un flusso di lavoro ML. Le caselle blu indicano dove AI Platform fornisce servizi gestiti e API:

Flusso di lavoro ML
Flusso di lavoro ML

Come indicato nel diagramma, puoi utilizzare AI Platform per gestire le fasi seguenti del flusso di lavoro ML:

  • Addestra un modello ML sui tuoi dati:

    • Addestra modello
    • Valuta l'accuratezza del modello
    • Ottimizza iperparametri
  • Esegui il deployment del modello addestrato.

  • Invia richieste di previsione al tuo modello:

    • Previsione online
    • Previsione batch (solo per TensorFlow)
  • Monitora costantemente le previsioni.

  • Gestisci i modelli e le relative versioni.

Componenti di AI Platform

Questa sezione descrive i componenti di AI Platform e lo scopo principale di ogni elemento.

Servizio di formazione

Il servizio di addestramento di AI Platform consente di addestrare modelli utilizzando un'ampia gamma di opzioni di personalizzazione.

Puoi selezionare molti tipi di macchine diversi per potenziare i job di addestramento, consentire l'addestramento distribuito, utilizzare l'ottimizzazione degli iperparametri e accelerare con GPU e TPU.

Puoi anche selezionare diversi modi per personalizzare la tua applicazione di addestramento. Puoi inviare i tuoi dati di input affinché AI Platform possa addestrare utilizzando un algoritmo integrato (beta). Se gli algoritmi integrati non sono adatti al tuo caso d'uso, puoi inviare la tua applicazione di addestramento da eseguire su AI Platform oppure creare un container personalizzato con la tua applicazione di addestramento e le sue dipendenze per l'esecuzione su AI Platform.

Servizio di previsione

Il servizio di previsione di AI Platform consente di fornire previsioni in base a un modello addestrato, indipendentemente dal fatto che il modello sia stato addestrato o meno su AI Platform.

Servizio di etichettatura dati

AI Platform Data Labeling Service (beta) ti consente di richiedere l'etichettatura umana per un set di dati che prevedi di utilizzare per addestrare un modello di machine learning personalizzato. Puoi inviare una richiesta di etichettatura dei dati video, immagine o testo.

Per inviare una richiesta di etichettatura, devi fornire un campione rappresentativo di dati etichettati, specificare tutte le etichette possibili per il tuo set di dati e fornire alcune istruzioni su come applicarle. Gli etichettatori umani seguono le tue istruzioni e, una volta completata la richiesta di etichettatura, ricevi il tuo set di dati annotato che puoi utilizzare per addestrare un modello di machine learning.

Strumenti per interagire con AI Platform

Questa sezione descrive gli strumenti che utilizzi per interagire con AI Platform.

Console Google Cloud

Puoi eseguire il deployment dei modelli nel cloud e gestire modelli, versioni e job nella console Google Cloud. Questa opzione offre un'interfaccia utente per lavorare con le risorse di machine learning. Nell'ambito di Google Cloud, le risorse AI Platform sono collegate a strumenti utili come Cloud Logging e Cloud Monitoring.

Google Cloud CLI

Puoi gestire i modelli e le versioni, inviare job ed eseguire altre attività di AI Platform dalla riga di comando con lo strumento a riga di comando gcloud ai-platform.

Consigliamo i comandi gcloud per la maggior parte delle attività di AI Platform e l'API REST (vedi di seguito) per le previsioni online.

API REST

L'API REST di AI Platform fornisce servizi RESTful per la gestione di job, modelli e versioni e per fare previsioni con modelli ospitati su Google Cloud.

Puoi utilizzare la libreria client delle API di Google per Python per accedere alle API. Quando usi la libreria client, usi le rappresentazioni Python delle risorse e degli oggetti utilizzati dall'API. Questa operazione è più semplice e richiede meno codice rispetto al lavoro diretto con le richieste HTTP.

Consigliamo l'API REST in particolare per fornire previsioni online.

Blocchi note gestiti dall'utente di Vertex AI Workbench

Le istanze di blocchi note gestiti dall'utente di Vertex AI Workbench consentono di creare e gestire istanze di macchine virtuali (VM) di deep learning preconfigurate con JupyterLab.

Le istanze di blocchi note gestiti dall'utente dispongono di una suite di pacchetti di deep learning preinstallata, che include il supporto per i framework TensorFlow e PyTorch. Puoi configurare istanze solo CPU o abilitate per GPU.

Le istanze dei blocchi note gestiti dall'utente sono protette dall'autenticazione e dall'autorizzazione di Google Cloud e sono disponibili tramite un URL dell'istanza di blocchi note gestiti dall'utente. Anche le istanze di blocchi note gestiti dall'utente si integrano con GitHub e possono sincronizzarsi con un repository GitHub.

Per ulteriori informazioni, consulta la documentazione sui blocchi note gestiti dall'utente.

Deep Learning VM

Deep Learning VM Images è un insieme di immagini di macchine virtuali ottimizzate per attività di data science e machine learning. Tutte le immagini hanno framework e strumenti ML preinstallati. Puoi utilizzarli subito su istanze con GPU per accelerare le attività di elaborazione dati.

Le immagini Deep Learning VM sono disponibili per supportare molte combinazioni di framework e processori. Al momento esistono immagini che supportano TensorFlow Enterprise, TensorFlow, PyTorch e il computing generico ad alte prestazioni, con versioni per flussi di lavoro solo CPU e abilitati per GPU.

Per visualizzare un elenco dei framework disponibili, vedi Scegliere un'immagine.

Per saperne di più, consulta la documentazione di Deep Learning VM.

Passaggi successivi