Introduzione ad AI Platform

Utilizza AI Platform per addestrare i tuoi modelli di machine learning su larga scala, per ospitare il tuo modello addestrato nel cloud e per utilizzarlo per fare previsioni sui nuovi dati.

Dove AI Platform si inserisce nel flusso di lavoro ML

Lo schema riportato di seguito offre una panoramica di alto livello delle fasi di un flusso di lavoro ML. Le caselle riempite di blu indicano dove AI Platform fornisce servizi gestiti e API:

Flusso di lavoro ML
Flusso di lavoro di ML

Come indica il diagramma, puoi utilizzare AI Platform per gestire le seguenti fasi del flusso di lavoro ML:

  • Addestra un modello di machine learning sui tuoi dati:

    • Addestra modello
    • Valutare la precisione del modello
    • Regolazione degli iperparametri
  • Esegui il deployment del modello addestrato.

  • Invia richieste di previsione al tuo modello:

    • Previsione online
    • Previsione batch (solo per TensorFlow)
  • Monitora le previsioni su base continuativa.

  • Gestisci i tuoi modelli e versioni.

Componenti di AI Platform

In questa sezione vengono descritti i componenti che costituiscono AI Platform e lo scopo principale di ogni componente.

Servizio di formazione

Il servizio di addestramento AI Platform ti consente di addestrare modelli utilizzando un'ampia gamma di opzioni di personalizzazione.

Puoi selezionare molti tipi di macchine diverse per potenziare i job di addestramento, abilitare l'addestramento distribuito, utilizzare l'ottimizzazione degli iperparametri e accelerare con GPU e TPU.

Puoi anche scegliere diversi modi per personalizzare la tua applicazione di formazione. Puoi inviare i tuoi dati di input per AI Platform per l'addestramento utilizzando un algoritmo integrato (beta). Se gli algoritmo integrati non si adattano al tuo caso d'uso, puoi inviare la tua applicazione di addestramento da eseguire su AI Platform o creare un container personalizzato con la tua applicazione di addestramento e le sue dipendenze per l'esecuzione su AI Platform.

Servizio di previsione

Il servizio di previsione di AI Platform ti consente di fornire previsioni in base a un modello addestrato, indipendentemente dal fatto che il modello sia stato addestrato o meno su AI Platform.

Servizio Data Labeling

AI Platform Data Labeling Service (beta) ti consente di richiedere l'etichettatura umana per un set di dati che intendi utilizzare per addestrare un modello di machine learning personalizzato. Puoi inviare una richiesta per etichettare i tuoi dati video, immagine o di testo.

Per inviare una richiesta di etichettatura, fornisci un campione rappresentativo di dati etichettati, specifica tutte le possibili etichette del tuo set di dati e fornisci alcune istruzioni su come applicarle. I labeler umani seguono le tue istruzioni e, una volta completata la richiesta di etichettatura, avrai il set di dati annotato che puoi utilizzare per addestrare un modello di machine learning.

Strumenti per interagire con AI Platform

Questa sezione descrive gli strumenti che utilizzi per interagire con AI Platform.

console Google Cloud

Puoi eseguire il deployment di modelli nel cloud e gestirli, le versioni e i job nella console. Questa opzione ti offre un'interfaccia utente per lavorare con le tue risorse di machine learning. Come parte di Google Cloud, le tue risorse AI Platform sono collegate a strumenti utili come Cloud Logging e Cloud Monitoring.

L'interfaccia a riga di comando di Google Cloud

Puoi gestire i tuoi modelli e versioni, inviare job ed eseguire altre attività di AI Platform dalla riga di comando con lo strumento a riga di comando gcloud ai-platform.

Consigliamo i comandi gcloud per la maggior parte delle attività di AI Platform e l'API REST (vedi di seguito) per le previsioni online.

API REST

L'API REST di AI Platform fornisce servizi RESTful per la gestione di job, modelli e versioni e per la previsione di modelli ospitati su Google Cloud.

Per accedere alle API puoi utilizzare la libreria client dell'API di Google per Python. Quando utilizzi la libreria client, utilizzi le rappresentazioni Python delle risorse e degli oggetti utilizzati dall'API. Questa operazione è più semplice e richiede meno codice rispetto all'utilizzo diretto con le richieste HTTP.

Consigliamo di utilizzare l'API REST per fornire previsioni online in particolare.

Blocchi note gestiti dall'utente di Vertex AI

Le istanze di blocchi note gestite dall'utente di Vertex AI Workbench consentono di creare e gestire istanze di macchine virtuali (VM) preconfigurate con JupyterLab.

Le istanze di blocchi note gestite dall'utente hanno una suite di pacchetti di deep learning preinstallati, incluso il supporto per i framework di TensorFlow e PyTorch. Puoi configurare istanze solo con CPU o abilitate per GPU.

Le istanze di blocchi note gestite dall'utente sono protette dall'autenticazione e dall'autorizzazione Google Cloud e sono disponibili tramite un URL dell'istanza di blocchi note gestito dall'utente. Le istanze di blocchi note gestite dall'utente si integrano anche con GitHub e possono eseguire la sincronizzazione con un repository GitHub.

Per saperne di più, consulta la documentazione sui blocchi note gestiti dall'utente.

VM di deep learning

Deep Learning VM Images è un insieme di immagini di macchine virtuali ottimizzate per le attività di data science e machine learning. Tutte le immagini sono dotate di framework e strumenti ML preinstallati. Puoi utilizzarle immediatamente nelle istanze con GPU per accelerare le tue attività di elaborazione dati.

Le immagini Deep Learning VM sono disponibili per supportare molte combinazioni di framework e processore. Al momento sono disponibili immagini che supportano TensorFlow Enterprise, TensorFlow, PyTorch e computing generico ad alte prestazioni, con versioni per flussi di lavoro solo con CPU e abilitati per GPU.

Per visualizzare un elenco dei framework disponibili, consulta la sezione Scegliere un'immagine.

Per ulteriori informazioni, consulta la documentazione relativa a Deep Learning VM.

Passaggi successivi