Introduzione a Vertex AI

Vertex AI è una piattaforma di machine learning (ML) che consente di addestrare ed eseguire il deployment di modelli ML e applicazioni di AI e personalizzare i modelli linguistici di grandi dimensioni (LLM) da utilizzare nelle applicazioni basate sull'IA. Vertex AI combina i dati e i flussi di lavoro di ML engineering, data science e ML. ai team di collaborare utilizzando un set di strumenti comune e scalare le applicazioni utilizzando e i vantaggi di Google Cloud.

Vertex AI offre diverse opzioni per l'addestramento dei modelli e deployment:

Dopo aver eseguito il deployment dei modelli, utilizza gli strumenti MLOps end-to-end di Vertex AI per automatizzare e scalare i progetti durante il ciclo di vita dell'ML. Questi strumenti MLOps vengono eseguiti su un'infrastruttura completamente gestita che puoi personalizzare in base alle tue esigenze di rendimento e budget.

Puoi utilizzare l'SDK Vertex AI per Python per eseguire l'intero flusso di lavoro di machine learning in Vertex AI Workbench, un ambiente di sviluppo basato su Jupyter Notebook. Puoi collaborare con un team per sviluppare il tuo modello in Colab Enterprise, una versione di Colaboratory integrata con Vertex AI. Altre interfacce disponibili includono la console Google Cloud, lo strumento a riga di comando Google Cloud CLI, il client librerie e Terraform (supporto limitato).

Vertex AI e il flusso di lavoro di machine learning (ML)

Questa sezione fornisce una panoramica del flusso di lavoro di machine learning e di come puoi utilizzare Vertex AI per creare i tuoi modelli ed eseguirne il deployment.

diagramma del flusso di lavoro ML

  1. Preparazione dei dati: dopo aver estratto e pulito il set di dati, esegui Analisi esplorativa dei dati (EDA) per comprendere lo schema dei dati e e le caratteristiche che il modello ML prevede. Applica le trasformazioni dei dati e la creazione di funzionalità al modello e suddividi i dati in set di addestramento, convalida e test.

    • Esplora e visualizza i dati utilizzando i notebook di Vertex AI Workbench. Vertex AI Workbench si integra con Cloud Storage e BigQuery per aiutarti ad accedere ed elaborare i dati più velocemente.

    • Per set di dati di grandi dimensioni, utilizza Dataproc Serverless Spark da un blocco note Vertex AI Workbench per eseguire carichi di lavoro Spark senza dover gestire i tuoi cluster Dataproc.

  2. Addestramento del modello: scegli un metodo di addestramento per addestrare un modello e ottimizzarlo per delle prestazioni.

    • Per addestrare un modello senza scrivere codice, consulta la panoramica di AutoML. AutoML supporta i dati tabulari, di testo, di immagine e video.

    • scrivere il codice di addestramento e addestrare modelli personalizzati utilizzando per il framework ML, consulta la panoramica dell'addestramento personalizzato.

    • Ottimizzare gli iperparametri per i modelli con addestramento personalizzato utilizzando l'ottimizzazione personalizzata offerte di lavoro.

    • Vertex AI Vizier ottimizza gli iperparametri in modelli di machine learning (ML) complessi.

    • Utilizza Vertex AI Experiments per addestrare il tuo modello utilizzando diverse tecniche di ML e confrontarne i risultati.

    • Registra i modelli addestrati nel Vertex AI Model Registry per il controllo delle versioni e il passaggio a e produzione. Vertex AI Model Registry si integra con di deployment, come la valutazione e gli endpoint del modello.

  3. Valutazione e iterazione del modello: valuta il modello addestrato, apporta aggiustamenti ai dati in base alle metriche di valutazione e esegui l'iterazione sul modello.

    • Usare le metriche di valutazione del modello, come precisione e richiamo, per valutare e confrontare le prestazioni dei modelli. Crea valutazioni mediante Vertex AI Model Registry o includere le valutazioni Flusso di lavoro di Vertex AI Pipelines.
  4. Distribuzione del modello: esegui il deployment del modello in produzione e vai online o eseguire query direttamente per le previsioni batch.

    • Esegui il deployment del modello con addestramento personalizzato utilizzando container predefiniti o personalizzati per ottenere predizioni online in tempo reale (a volte chiamate previsioni HTTP).

    • Ottieni previsioni batch asincrone, che non richiedono il deployment negli endpoint.

    • Il runtime TensorFlow ottimizzato consente di pubblicare TensorFlow a costi inferiori e con latenza inferiore rispetto a quelli basati su open source container predefiniti di servizio TTensorFlow.

    • Per i casi di distribuzione online con modelli tabulari, utilizza Vertex AI Feature Store per fornire caratteristiche da un nel repository centrale e monitorare l'integrità delle caratteristiche.

    • Vertex Explainable AI ti aiuta a capire in che modo ogni caratteristica contribuisce alla previsione del modello (attribuzione delle caratteristiche) e a trovare i dati etichettati in modo errato nel set di dati di addestramento (spiegazione basata su esempi).

    • Esegui il deployment e ottieni previsioni online per i modelli addestrati con BigQuery ML.

  5. Monitoraggio del modello: monitora le prestazioni del modello di cui è stato eseguito il deployment. Utilizza i dati di previsione in entrata per addestrare nuovamente il modello e migliorarne le prestazioni.

    • Vertex AI Model Monitoring monitora i modelli per il disallineamento addestramento/produzione e la deviazione della previsione, oltre a inviarti avvisi quando i dati di previsione in arrivo sono troppo distanti dalla base di addestramento.

Passaggi successivi