Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Vertex AI è una piattaforma di machine learning (ML) che ti consente di addestrare
ed eseguire il deployment di modelli ML e applicazioni AI e personalizzare modelli linguistici di grandi dimensioni
(LLM) da utilizzare nelle tue applicazioni basate sull'AI. Vertex AI combina i workflow di data engineering, data science e ML engineering per consentire ai team di collaborare utilizzando una serie comune di strumenti, nonché scalare le applicazioni sfruttando i vantaggi di Google Cloud.
Vertex AI fornisce varie opzioni per addestrare
un modello ed eseguirne il deployment:
Model Garden
ti consente di scoprire, testare, personalizzare ed eseguire il deployment
di Vertex AI e selezionare modelli e asset open source.
L'AI generativa ti consente di accedere ai grandi modelli di AI generativa di Google per più modalità (testo, codice, immagini, voce). Puoi ottimizzare
i LLM di Google in base alle tue esigenze e poi eseguirne il deployment
per utilizzarli nelle tue applicazioni basate sull'AI.
Dopo aver eseguito il deployment dei modelli, utilizza gli strumenti MLOps end-to-end di Vertex AI per automatizzare e scalare i progetti durante l'intero ciclo di vita ML.
Questi strumenti MLOps vengono eseguiti su un'infrastruttura completamente gestita che puoi personalizzare
in base alle tue esigenze di rendimento e budget.
Puoi utilizzare l'SDK Vertex AI per Python per eseguire l'intero flusso di lavoro di machine learning in Vertex AI Workbench, un ambiente di sviluppo basato su blocchi note Jupyter. Puoi collaborare con un team
per sviluppare il tuo modello in Colab Enterprise,
una versione di Colaboratory integrata con
Vertex AI. Altre interfacce disponibili
includono la console Google Cloud , lo strumento a riga di comando Google Cloud CLI, le librerie
client e Terraform (supporto limitato).
Vertex AI e il flusso di lavoro di machine learning (ML)
Questa sezione fornisce una panoramica del flusso di lavoro di machine learning e di come
puoi utilizzare Vertex AI per creare ed eseguire il deployment dei tuoi modelli.
Preparazione dei dati: dopo aver estratto e pulito il set di dati, esegui l'analisi esplorativa dei dati (EDA) per comprendere lo schema dei dati e le caratteristiche previste dal modello ML. Applica trasformazioni dei dati
efeature engineeringà al modello e suddividi i dati in set di addestramento,
convalida e test.
Esplora e visualizza i dati utilizzando i notebook di Vertex AI Workbench. Vertex AI Workbench si integra con Cloud Storage e
BigQuery per aiutarti ad accedere ed elaborare i dati più rapidamente.
Per i set di dati di grandi dimensioni, utilizza Dataproc Serverless Spark da un blocco note Vertex AI Workbench per eseguire i workload Spark senza dover gestire i tuoi cluster Dataproc.
Addestramento del modello: scegli un metodo di addestramento per addestrare un modello e ottimizzarlo per
le prestazioni.
Per addestrare un modello senza scrivere codice, consulta la panoramica di AutoML. AutoML supporta dati tabulari, immagini e video.
Per scrivere il tuo codice di addestramento e addestrare modelli personalizzati utilizzando il framework ML che preferisci, consulta la panoramica dell'addestramento personalizzato.
Vertex AI Vizier ottimizza gli iperparametri per te in modelli di machine learning (ML) complessi.
Utilizza Vertex AI Experiments per addestrare il modello utilizzando
diverse tecniche di ML e confrontare i risultati.
Registra i modelli addestrati in
Vertex AI Model Registry per il controllo delle versioni e il trasferimento alla
produzione. Vertex AI Model Registry si integra con le funzionalità di convalida e
deployment, come la valutazione dei modelli e gli endpoint.
Valutazione e iterazione del modello: valuta il modello addestrato, apporta modifiche ai dati in base alle metriche di valutazione e itera il modello.
Utilizza le metriche di valutazione del modello, come precisione e richiamo, per valutare e confrontare le prestazioni dei tuoi modelli. Crea valutazioni
tramite Vertex AI Model Registry o includile nel flusso di lavoro di
Vertex AI Pipelines.
Servizio di modelli: esegui il deployment del modello in produzione e ottieni inferenze online o esegui query direttamente per le inferenze batch.
Esegui il deployment del modello con addestramento personalizzato utilizzando container predefiniti o personalizzati per ottenere inferenze online in tempo reale (a volte chiamate inferenze HTTP).
Ottieni inferenze batch asincrone, che non richiedono
il deployment negli endpoint.
Il runtime TensorFlow ottimizzato ti consente di pubblicare modelli TensorFlow a un costo inferiore e con una latenza inferiore rispetto ai container di pubblicazione TensorFlow precompilati basati su open source.
Per i casi di pubblicazione online con modelli tabellari, utilizza
Vertex AI Feature Store per pubblicare le caratteristiche da un
repository centrale e monitorare l'integrità delle caratteristiche.
Vertex Explainable AI ti aiuta a capire in che modo ogni caratteristica contribuisce all'inferenza del modello (attribuzione delle caratteristiche) e a trovare dati etichettati in modo errato dal set di dati di addestramento (spiegazione basata su esempi).
Esegui il deployment e ottieni inferenze online per i modelli addestrati con
BigQuery ML.
Monitoraggio del modello: monitora le prestazioni del modello di cui è stato eseguito il deployment. Utilizza
i dati di inferenza in entrata per eseguire il retraining del modello e migliorare le prestazioni.
Vertex AI Model Monitoring monitora i modelli per
il disallineamento tra addestramento e gestione e la deviazione dell'inferenza e ti invia avvisi quando
i dati di inferenza in entrata si discostano troppo dalla baseline di addestramento.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["# Introduction to Vertex AI\n\nVertex AI is a machine learning (ML) platform that lets you train\nand deploy ML models and AI applications, and customize large language models\n(LLMs) for use in your AI-powered applications. Vertex AI combines data\nengineering, data science, and ML engineering workflows, enabling your\nteams to collaborate using a common toolset and scale your applications using\nthe benefits of Google Cloud.\n\nVertex AI provides several options for model [training](/vertex-ai/docs/start/training-methods)\nand deployment:\n\n- [AutoML](/vertex-ai/docs/beginner/beginners-guide) lets you train tabular, image, or video data\n without writing code or preparing data splits. These models can be\n [deployed for online inference or queried directly for batch inference](/vertex-ai/docs/predictions/overview#get_predictions_from_models).\n\n- [Custom training](/vertex-ai/docs/training/overview) gives you complete control over the training\n process, including using your preferred ML framework, writing your own\n training code, and choosing hyperparameter tuning options. You can import\n your custom-trained model into the [Model Registry](/vertex-ai/docs/model-registry/introduction)\n and [deploy it to an endpoint](/vertex-ai/docs/general/deployment) for online\n inference using [prebuilt](/vertex-ai/docs/predictions/pre-built-containers) or [custom](/vertex-ai/docs/predictions/use-custom-container) containers.\n Or you can\n [query it directly for batch inferences](/vertex-ai/docs/predictions/get-batch-predictions).\n\n- [Model Garden](/vertex-ai/generative-ai/docs/model-garden/explore-models)\n lets you discover, test, customize, and deploy\n Vertex AI and select open-source models and assets.\n\n- [Generative AI](/vertex-ai/generative-ai/docs/overview) gives you access to Google's large generative AI\n models for multiple modalities (text, code, images, speech). You can tune\n Google's LLMs to meet your needs, and then deploy them\n for use in your AI-powered applications.\n\nAfter you deploy your models, use Vertex AI's end-to-end MLOps tools to\nautomate and scale projects throughout the ML lifecycle.\nThese MLOps tools are run on fully-managed infrastructure that you can customize\nbased on your performance and budget needs.\n\nYou can use the [Vertex AI SDK for Python](/vertex-ai/docs/python-sdk/use-vertex-ai-python-sdk) to run the entire machine\nlearning workflow in [Vertex AI Workbench](/vertex-ai/docs/workbench/introduction), a Jupyter\nnotebook-based development environment. You can collaborate with a team\nto develop your model in [Colab Enterprise](/colab/docs/introduction),\na version of [Colaboratory](https://colab.google/) that is integrated with\nVertex AI. Other [available interfaces](/vertex-ai/docs/start/introduction-interfaces)\ninclude the Google Cloud console, the Google Cloud CLI command line tool, client\nlibraries, and Terraform (limited support).\n\nVertex AI and the machine learning (ML) workflow\n------------------------------------------------\n\nThis section provides an overview of the machine learning workflow and how you\ncan use Vertex AI to build and deploy your models.\n\n1. **Data preparation** : After extracting and cleaning your dataset, perform\n [exploratory data analysis (EDA)](/vertex-ai/docs/glossary#exploratory_data_analysis) to understand the data schema and\n characteristics that are expected by the ML model. Apply data transformations\n and feature engineering to the model, and split the data into training,\n validation, and test sets.\n\n - Explore and visualize data using [Vertex AI Workbench](/vertex-ai/docs/workbench/introduction)\n notebooks. Vertex AI Workbench integrates with Cloud Storage and\n BigQuery to help you access and process your data faster.\n\n - For large datasets, use [Dataproc Serverless Spark](/dataproc-serverless/docs/overview) from a\n Vertex AI Workbench notebook to run Spark workloads without having to\n manage your own Dataproc clusters.\n\n2. **Model training**: Choose a training method to train a model and tune it for\n performance.\n\n - To train a model without writing code, see the [AutoML\n overview](/vertex-ai/docs/training-overview#automl). AutoML supports tabular, image, and\n video data.\n\n - To write your own training code and train custom models using your preferred\n ML framework, see the [Custom training overview](/vertex-ai/docs/training/overview).\n\n - Optimize hyperparameters for custom-trained models using [custom tuning\n jobs](/vertex-ai/docs/training/using-hyperparameter-tuning).\n\n - [Vertex AI Vizier](/vertex-ai/docs/vizier/overview) tunes hyperparameters for you in complex machine\n learning (ML) models.\n\n - Use [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) to train your model using\n different ML techniques and compare the results.\n\n - Register your trained models in the\n [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) for versioning and hand-off to\n production. Vertex AI Model Registry integrates with validation and\n deployment features such as model evaluation and endpoints.\n\n3. **Model evaluation and iteration**: Evaluate your trained model, make\n adjustments to your data based on evaluation metrics, and iterate on your\n model.\n\n - Use [model evaluation](/vertex-ai/docs/evaluation/introduction) metrics, such as precision and recall, to evaluate and compare the performance of your models. Create evaluations through Vertex AI Model Registry, or include evaluations in your [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) workflow.\n4. **Model serving**: Deploy your model to production and get online\n inferences or query it directly for batch inferences.\n\n - Deploy your custom-trained model using [prebuilt](/vertex-ai/docs/predictions/pre-built-containers) or\n [custom](/vertex-ai/docs/predictions/use-custom-container) containers to get real-time [*online\n inferences*](/vertex-ai/docs/predictions/overview#online_predictions) (sometimes called HTTP inference).\n\n - Get asynchronous [*batch inferences*](/vertex-ai/docs/predictions/overview#batch_predictions), which don't require\n deployment to endpoints.\n\n - [Optimized TensorFlow runtime](/vertex-ai/docs/predictions/optimized-tensorflow-runtime) lets you serve TensorFlow\n models at a lower cost and with lower latency than open source based\n prebuilt TensorFlow serving containers.\n\n - For online serving cases with tabular models, use\n [Vertex AI Feature Store](/vertex-ai/docs/featurestore/overview) to serve features from a\n central repository and monitor feature health.\n\n - [Vertex Explainable AI](/vertex-ai/docs/explainable-ai/overview) helps you understand how each feature contributes to\n model inference (*feature attribution* ) and find mislabeled data from the\n training dataset (*example-based explanation*).\n\n - Deploy and get online inferences for models trained with\n [BigQuery ML](/vertex-ai/docs/beginner/bqml).\n\n5. **Model monitoring**: Monitor the performance of your deployed model. Use\n incoming inference data to retrain your model for improved performance.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline.\n\nWhat's next\n-----------\n\n- Learn about [Vertex AI's MLOps features](/vertex-ai/docs/start/introduction-mlops).\n\n- Learn about [interfaces that you can use to interact with\n Vertex AI](/vertex-ai/docs/start/introduction-interfaces)."]]