Passa ai contenuti principali
Google Cloud
Documentazione Aree tecnologiche
  • AI e ML
  • Sviluppo di applicazioni
  • Hosting di applicazioni
  • Computing
  • Analisi dei dati e pipeline
  • Database
  • Distribuito, ibrido e multi-cloud
  • AI generativa
  • Soluzioni di settore
  • Networking
  • Osservabilità e monitoraggio
  • Sicurezza
  • Storage
Strumenti per più prodotti
  • Gestione di accessi e risorse
  • Gestione di costi e utilizzo
  • Google Cloud SDK, linguaggi, framework e strumenti
  • Infrastructure as Code (IaC)
  • Migrazione
Siti correlati
  • Home page di Google Cloud
  • Prova gratuita e livello gratuito
  • Architecture Center
  • Blog
  • Contatta il team di vendita
  • Developer Center di Google Cloud
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentazione di Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Assistenza Google Cloud
  • Canale YouTube di Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Accedi
  • Vertex AI
Guide Riferimento Esempi Assistenza Risorse
Contattaci Inizia gratuitamente
Google Cloud
  • Documentazione
    • Guide
    • Riferimento
    • Esempi
    • Assistenza
    • Risorse
  • Aree tecnologiche
    • Altro
  • Strumenti per più prodotti
    • Altro
  • Siti correlati
    • Altro
  • Console
  • Contattaci
  • Inizia gratuitamente
  • Scopri
  • Panoramica
  • Introduzione a Vertex AI
  • MLOps su Vertex AI
  • Interfacce per Vertex AI
  • Guide per principianti di Vertex AI
    • Addestra un modello AutoML
    • Addestra un modello personalizzato
    • Ottenere inferenze da un modello personalizzato
    • Addestra un modello utilizzando Vertex AI e l'SDK Python
      • Presentazione
      • Prerequisiti
      • Crea un notebook
      • Crea un set di dati
      • Creare un copione di formazione
      • Addestra un modello
      • Fare un'inferenza
  • Framework ML integrati
    • PyTorch
    • TensorFlow
  • Vertex AI per gli utenti di BigQuery
  • Glossario
  • Per iniziare
  • Configurazione di un progetto e di un ambiente di sviluppo
  • Installare l'SDK Vertex AI Python
  • Scelta di un metodo di addestramento
  • Prova un tutorial
    • Panoramica dei tutorial
    • Tutorial su AutoML
      • Introduzione ai dati di immagine
        • Panoramica
        • Configurazione del progetto e dell'ambiente
        • Creazione di un set di dati e importazione di immagini
        • Addestra un modello di classificazione di immagini AutoML
        • Valutare e analizzare le prestazioni del modello
        • Deployment di un modello in un endpoint ed esecuzione di un'inferenza
        • Pulizia del progetto
      • Introduzione ai dati tabulari
        • Panoramica
        • Configurazione del progetto e dell'ambiente
        • Creazione di un set di dati e addestramento di un modello di classificazione AutoML
        • Deployment di un modello e richiesta di un'inferenza
        • Pulizia del progetto
    • Tutorial sull'addestramento personalizzato
      • Addestra un modello tabulare personalizzato
      • Addestra un modello di classificazione delle immagini TensorFlow Keras
        • Panoramica
        • Configurazione del progetto e dell'ambiente
        • Addestramento di un modello di classificazione delle immagini personalizzato
        • Esecuzione di previsioni da un modello di classificazione delle immagini personalizzato
        • Pulizia del progetto
      • Ottimizzare un modello di classificazione delle immagini con dati personalizzati
    • Tutorial sui notebook di addestramento personalizzato
  • Utilizzare l'AI generativa e i LLM
  • Informazioni sull'AI generativa
  • Utilizzare gli strumenti di sviluppo di Vertex AI
  • Panoramica degli strumenti di sviluppo
  • Utilizza l'SDK Vertex AI
    • Panoramica
    • Introduzione all'SDK Vertex AI per Python
    • Classi dell'SDK Vertex AI per Python
      • Panoramica delle classi dell'SDK Vertex AI
      • Classi di dati
      • Corsi di formazione
      • Classi modello
      • Classi di previsione
      • Classi di monitoraggio
  • Utilizzare Vertex AI nei notebook
    • Scelta di una soluzione di blocco note
    • Colab Enterprise
      • Guida rapida:crea un notebook utilizzando la console
      • Connetti a un runtime
      • Gestire runtime e modelli di runtime
        • Crea un modello di runtime
        • Crea un runtime
    • Vertex AI Workbench
      • Presentazione
      • Tutorial su Notebook
      • Per iniziare
        • Crea un'istanza utilizzando la console
        • Pianifica l'esecuzione di un notebook
      • Configurare un'istanza
        • Crea un'istanza
        • Creazione di una versione specifica di un'istanza
        • Crea un'istanza con accesso alle credenziali utente
        • Crea un'istanza con Confidential Computing
        • Aggiungere un ambiente conda
        • Arresto per inattività
        • Creazione di un'istanza utilizzando un container personalizzato
        • Crea un'istanza abilitata per Dataproc
        • Crea un'istanza con credenziali di terze parti
        • Gestire le funzionalità tramite i metadati
        • Utilizzare le prenotazioni
      • Connessione ai dati
        • Esegui query sui dati in BigQuery da JupyterLab
        • Accedere ai bucket e ai file Cloud Storage in JupyterLab
      • Esplorare e visualizzare i dati
        • Esplorare e visualizzare i dati in BigQuery
      • Mantenere
        • Gestire l'ambiente conda
        • Backup e ripristino
          • Salvataggio di un blocco note in GitHub
          • Utilizzare uno snapshot
          • Utilizza Cloud Storage
        • Arresta un'istanza
        • Esegui l'upgrade dell'ambiente di un'istanza
        • Accesso a JupyterLab tramite SSH
        • Eseguire la migrazione dei dati a una nuova istanza
        • Modifica il tipo di macchina e configura le GPU
        • Eseguire il provisioning delle risorse utilizzando Terraform
      • Monitoraggio
        • Monitoraggio dello stato di integrità
      • Controllare l'accesso
        • Controllo dell'accesso
        • Gestire l'accesso a un'istanza
        • Gestire l'accesso all'interfaccia JupyterLab di un'istanza
        • Utilizzo delle chiavi di crittografia gestite dal cliente
        • Utilizzo di un'istanza all'interno di un perimetro di servizio
      • Risolvere i problemi di Vertex AI Workbench
      • Note di rilascio di Vertex AI Workbench
      • Notebook gestiti
        • Introduzione ai notebook gestiti
        • Per iniziare
          • Crea un'istanza di blocchi note gestiti utilizzando la console Cloud
          • Pianificare l'esecuzione di notebook gestiti
        • Configura un'istanza di notebook gestiti
          • Crea un'istanza con un container personalizzato
          • Esecuzione di un'istanza di blocchi note gestiti su un cluster Dataproc
          • Utilizzare Dataproc Serverless Spark con i notebook gestiti
          • Arresto per inattività
          • Versioni dei notebook gestiti
        • Connessione ai dati
          • Esegui query sui dati in BigQuery da JupyterLab
          • Accedere ai bucket e ai file Cloud Storage in JupyterLab
        • Esplorare e visualizzare i dati
          • Panoramica
          • Esplorare e visualizzare i dati in BigQuery
        • Sviluppare un modello
          • Sviluppo del modello in un'istanza di notebook gestiti
        • Esegui il deployment
          • Esegui i file notebook con lo strumento di esecuzione
          • Eseguire le esecuzioni dei notebook con parametri
        • Mantenere
          • Esegui la migrazione a un'istanza di Vertex AI Workbench
          • Salvataggio di un blocco note in GitHub
          • Modifica il tipo di macchina e configura le GPU di un'istanza di Managed Notebooks
          • Upgrade dell'ambiente di un'istanza di notebook gestiti
          • Esegui la migrazione dei dati a una nuova istanza di notebook gestiti
        • Monitoraggio
          • Audit logging
        • Controllare l'accesso
          • Controllo dell'accesso
          • Gestire l'accesso a un'istanza
          • Gestire l'accesso all'interfaccia JupyterLab di un'istanza
          • Utilizzo delle chiavi di crittografia gestite dal cliente
          • Configurare una rete
          • Utilizzo di un'istanza di notebook gestiti all'interno di un perimetro di servizio
        • Risolvere i problemi relativi ai blocchi note gestiti
      • Notebook gestiti dall'utente
        • Introduzione ai blocchi note gestiti dall'utente
        • Per iniziare
          • Crea un'istanza di blocchi note gestiti dall'utente utilizzando la console Cloud
        • Configura un'istanza di notebook gestiti dall'utente
          • Creazione di una versione specifica di un'istanza
          • Installare le dipendenze
          • Scelta di un'immagine VM
          • Crea un'istanza con un container personalizzato
        • Esplora i dati
          • Data science con R su Google Cloud: tutorial esplorativo sull'analisi dei dati
        • Monitoraggio
          • Monitoraggio dello stato di integrità
          • Audit logging
        • Controllare l'accesso
          • Controllo dell'accesso
          • Gestire l'accesso a un'istanza
          • Gestire l'accesso all'interfaccia JupyterLab di un'istanza
          • Chiavi di crittografia gestite dal cliente
          • Utilizzo di un'istanza di blocchi note gestiti dall'utente all'interno di un perimetro di servizio
          • Utilizzo di una Shielded VM con blocchi note gestiti dall'utente
          • Tutorial: crea un'istanza di notebook in una rete VPC
        • Mantenere
          • Esegui la migrazione a un'istanza di Vertex AI Workbench
          • Salvataggio di un blocco note in GitHub
          • Esegui il backup dei dati utilizzando uno snapshot
          • Chiusura di un'istanza di blocchi note gestiti dall'utente
          • Modificare il tipo di macchina e configurare le GPU di un'istanza di blocchi note gestiti dall'utente
          • Upgrade dell'ambiente di un'istanza di blocco note gestita dall'utente
          • Esegui la migrazione dei dati a una nuova istanza di blocchi note gestiti dall'utente
          • Registrazione di un'istanza legacy con l'API Notebooks
          • Accesso a JupyterLab tramite SSH
        • Risolvere i problemi relativi ai blocchi note gestiti dall'utente
  • Supporto di Terraform per Vertex AI
  • Sviluppo di modelli di AI predittiva
  • Panoramica
  • Sviluppo di modelli AutoML
    • Panoramica dell'addestramento AutoML
    • Dati dell'immagine
      • Classificazione
        • Preparazione dei dati
        • Crea set di dati
        • Addestra modello
        • Valuta il modello
        • Ricevi previsioni
        • Interpreta i risultati
      • Rilevamento di oggetti
        • Preparazione dei dati
        • Crea set di dati
        • Addestra modello
        • Valuta il modello
        • Ricevi previsioni
        • Interpreta i risultati
      • Codifica dei dati delle immagini con Base64
      • Esportazione di un modello AutoML Edge
    • Dati tabulari
      • Panoramica
      • Introduzione ai dati tabulari
      • Tabular Workflows
        • Panoramica
        • Feature engineering
        • AutoML end-to-end
          • Panoramica
          • Addestra un modello
          • Ottenere inferenze online
          • Ottenere inferenze batch
        • TabNet
          • Panoramica
          • Addestra un modello
          • Ottenere inferenze online
          • Ottenere inferenze batch
        • Ampio e profondo
          • Panoramica
          • Addestra un modello
          • Ottenere inferenze online
          • Ottenere inferenze batch
        • Previsione
          • Panoramica
          • Addestra un modello
          • Ottenere inferenze online
          • Ottenere inferenze batch
        • Prezzi
        • Service account
        • Gestisci quote
      • Esegui la classificazione e la regressione con AutoML
        • Panoramica
        • Guida rapida: classificazione AutoML (console Cloud)
        • Preparare i dati di addestramento
        • Crea un set di dati
        • Addestra un modello
        • Valuta il modello
        • Visualizza l'architettura del modello
        • Ottenere inferenze online
        • Ottenere inferenze batch
        • Esporta modello
      • Eseguire previsioni con AutoML
        • Panoramica
        • Preparare i dati di addestramento
        • Crea un set di dati
        • Addestra un modello
        • Valuta il modello
        • Ottenere inferenze
        • Previsione gerarchica
      • Eseguire previsioni con ARIMA+
      • Eseguire previsioni con Prophet
      • Esegui la riconciliazione delle entità
      • Attribuzioni delle funzionalità per la classificazione e la regressione
      • Attribuzioni delle caratteristiche per la previsione
      • Tipi di dati e trasformazioni per dati AutoML tabulari
      • Parametri di addestramento per la previsione
      • Suddivisioni dei dati per i dati tabulari
      • Best practice per la creazione di dati di addestramento tabulari
      • Previsione con Timeseries Insights
    • Addestra un modello AutoML Edge
      • Utilizzo della console
      • Utilizzo dell'API
    • Dati di testo AutoML
      • Eseguire la migrazione da AutoML Text a Gemini
      • Gemini per gli utenti di AutoML Text
  • Vertex AI Training
    • Panoramica dell'addestramento personalizzato in Vertex AI
    • Caricare e preparare i dati
      • Panoramica della preparazione dei dati
      • Utilizzare Cloud Storage come file system montato
      • Monta una condivisione NFS per l'addestramento personalizzato
      • Utilizzo di set di dati gestiti
    • Preparare l'applicazione di addestramento
      • Informazioni sul servizio di addestramento personalizzato
      • Prepara il codice di addestramento
      • Utilizzo di container predefiniti
        • Creazione di un'applicazione di addestramento Python per un container predefinito
        • Container predefiniti per l'addestramento personalizzato
      • Utilizzo di container personalizzati
        • Container personalizzati per l'addestramento
        • Creazione di un container personalizzato
        • Containerizzazione ed esecuzione del codice di addestramento a livello locale
      • Utilizzare Deep Learning VM Image e Deep Learning Containers
    • Addestrare su una risorsa permanente
      • Panoramica
      • Crea risorsa permanente
      • Esegui job di addestramento su una risorsa permanente
      • Recuperare le informazioni sulle risorse permanenti
      • Riavvia una risorsa permanente
      • Eliminare una risorsa permanente
    • Configura il job di addestramento
      • Scelta di un metodo di addestramento personalizzato
      • Configurazione delle impostazioni dei container per l'addestramento
      • Configurazione delle risorse di calcolo per l'addestramento
      • Utilizzare le prenotazioni con l'addestramento
      • Utilizzare le VM spot con l'addestramento
    • Invia il job di addestramento
      • Creazione job personalizzati
      • Ottimizzazione di iperparametri
        • Panoramica dell'ottimizzazione degli iperparametri
        • Utilizzo dell'ottimizzazione degli iperparametri
      • Creazione pipeline di addestramento
      • Pianificare i job in base alla disponibilità delle risorse
      • Utilizzo dell'addestramento distribuito
      • Addestramento con le VM Cloud TPU
      • Utilizzo dell'IP privato per l'addestramento personalizzato
      • Utilizzare l'interfaccia Private Service Connect per l'addestramento (consigliato)
    • Eseguire la ricerca di architetture neurali
      • Panoramica
      • Configura l'ambiente
      • Tutorial per principianti
      • Best practice e flusso di lavoro
      • Progettazione dell'attività proxy
      • Ottimizzare la velocità di addestramento per PyTorch
      • Utilizzare container di addestramento e spazi di ricerca predefiniti
    • Monitoraggio e debug
      • Monitoraggio e debug dell'addestramento con una shell interattiva
      • Profilare le prestazioni dell'addestramento del modello
    • Ottimizzazione con Vertex AI Vizier
      • Panoramica di Vertex AI Vizier
      • Creazione di studi Vertex AI Vizier
      • Tutorial sui notebook di Vertex AI Vizier
    • Ottenere inferenze
    • Tutorial: crea una pipeline per l'addestramento continuo
    • Crea vincoli personalizzati delle policy dell'organizzazione
  • Ray on Vertex AI
    • Panoramica di Ray su Vertex AI
    • Configurazione di Ray su Vertex AI
    • Crea un cluster Ray su Vertex AI
    • Monitorare i cluster Ray su Vertex AI
    • Scalare un cluster Ray su Vertex AI
    • Sviluppare un'applicazione Ray su Vertex AI
    • Esegui Spark sul cluster Ray su Vertex AI
    • Utilizzare Ray su Vertex AI con BigQuery
    • Esegui il deployment di un modello e ottieni inferenze
    • Elimina un cluster Ray
    • Tutorial sui notebook Ray on Vertex AI
  • Sviluppo di modelli di AI generativa
  • Panoramica
  • Creazione e gestione dei set di dati
  • Panoramica
  • Suddivisioni dei dati per i modelli AutoML
  • Creazione di un set di annotazioni
  • Eliminazione di un set di annotazioni
  • Aggiungere etichette (console)
  • Esportazione di metadati e annotazioni da un set di dati
  • Gestire le versioni del set di dati
  • Utilizza Data Catalog per cercare risorse del modello e del set di dati
  • Ottenere inferenze
  • Panoramica
  • Configura i modelli per l'inferenza
    • Esportare gli artefatti del modello per l'inferenza
    • Container predefiniti per l'inferenza
    • Requisiti dei container personalizzati per l'inferenza
    • Utilizzo di un container personalizzato per l'inferenza
    • Utilizzare route personalizzate arbitrarie
    • Utilizza il runtime TensorFlow ottimizzato
    • Pubblicare inferenze con NVIDIA Triton
    • Routine di inferenza personalizzate
  • Ottenere inferenze online
    • Crea un endpoint
      • Scegli un tipo di endpoint
      • Crea un endpoint pubblico
      • Utilizza endpoint pubblici dedicati (opzione consigliata)
      • Utilizza endpoint privati dedicati basati su Private Service Connect (consigliato)
      • Utilizza gli endpoint di accesso privato ai servizi
    • Esegui il deployment di un modello in un endpoint
      • Panoramica del deployment dei modelli
      • Risorse di computing per l'inferenza
      • Esegui il deployment di un modello utilizzando la console Google Cloud
      • Esegui il deployment di un modello utilizzando gcloud CLI o l'API Vertex AI
      • Utilizzare la scalabilità automatica per l'inferenza
      • Utilizza un deployment in sequenza per sostituire un modello di cui è stato eseguito il deployment
      • Annullare il deployment di un modello ed eliminare l'endpoint
      • Utilizzare le Cloud TPU per l'inferenza online
      • Utilizzare le prenotazioni con l'inferenza online
      • Utilizzare le VM con avvio flessibile con l'inferenza
      • Utilizzare le VM spot con l'inferenza
    • Ricevere un'inferenza online
    • Visualizzare le metriche di inferenza online
      • Visualizza le metriche dell'endpoint
      • Visualizzare le metriche DCGM
    • Condividere le risorse tra i deployment
    • Utilizzo del logging dell'inferenza online
  • Ottenere inferenze batch
    • Ottenere inferenze batch da un modello personalizzato
    • Utilizzare le prenotazioni con l'inferenza batch
    • Generare previsioni batch da un modello Model Garden autodeployato
  • Pubblicare modelli di AI generativa
    • Esegui il deployment di modelli di AI generativa
    • Eroga modelli open Gemma utilizzando Cloud TPU con Saxml
    • Gestisci modelli aperti Llama 3 utilizzando Cloud TPU multi-host con Saxml
    • Gestisci un modello DeepSeek-V3 utilizzando il deployment di GPU multi-host
  • Policy dell'organizzazione personalizzate
  • Tutorial sui notebook di inferenza Vertex AI
  • Eseguire ricerche sulla similarità vettoriale
  • Panoramica di Vector Search
  • Prova
  • Per iniziare
    • Guida rapida di Ricerca vettoriale
    • Prima di iniziare
    • Tutorial su Notebook
  • Informazioni sulla ricerca ibrida
  • Creare e gestire l'indice
    • Formato e struttura dei dati di input
    • Creare e gestire l'indice
    • Indici ottimizzati per l'archiviazione
    • Parametri di configurazione dell'indice
    • Aggiorna e ricrea indice
    • Filtrare le corrispondenze vettoriali
    • Importare i dati dell'indice da BigQuery
    • Incorporamenti con metadati
  • Esegui il deployment di un indice ed esegui query
    • Private Service Connect (consigliato)
      • Configurare la ricerca vettoriale con Private Service Connect
      • Query
      • Autenticazione con token web JSON
    • Endpoint pubblico
      • Esegui il deployment
      • Query
    • Accesso privato ai servizi
      • Configura una connessione di peering di rete VPC
      • Esegui il deployment
      • Query
      • Autenticazione con token web JSON
  • Monitorare un indice di cui è stato eseguito il deployment
  • Utilizzare criteri dell'organizzazione personalizzati
  • Assistenza
  • Operazioni di machine learning (MLOps)
  • Gestisci funzionalità
    • Gestione delle caratteristiche in Vertex AI
    • Vertex AI Feature Store
      • Informazioni su Vertex AI Feature Store
      • Configurare le funzionalità
        • Prepara l'origine dati
        • Creare un gruppo di funzionalità
        • Creare una funzionalità
      • Configurare la pubblicazione online
        • Tipi di pubblicazione online
        • Crea un'istanza di negozio online
        • Crea un'istanza della visualizzazione caratteristiche
      • Controllare l'accesso
        • Controllare l'accesso alle risorse
      • Sincronizza il negozio online
        • Avviare una sincronizzazione dei dati
        • Elenca operazioni di sincronizzazione
        • Aggiornare le funzionalità in una visualizzazione delle caratteristiche
      • Funzionalità di servizio
        • Eroga le funzionalità dal negozio online
        • Mostrare i valori storici delle caratteristiche
      • Monitoraggio
        • Funzionalità di monitoraggio
      • Gestire le risorse delle funzionalità
        • Elenca i gruppi di caratteristiche
        • Elenco funzionalità
        • Aggiorna un gruppo di funzionalità
        • Aggiornare una funzionalità
        • Eliminare un gruppo di funzionalità
        • Eliminare una funzionalità
      • Gestire le risorse del negozio online
        • Elenco di negozi online
        • Visualizzazioni delle funzionalità dell'elenco
        • Aggiornare un negozio online
        • Aggiornare una visualizzazione delle caratteristiche
        • Eliminare un archivio online
        • Eliminare una visualizzazione delle caratteristiche
      • Metadati delle funzionalità
        • Aggiorna etichette
      • Cerca risorse
        • Cerca risorse
        • Cercare i metadati delle risorse in Data Catalog
      • Gestire gli incorporamenti
        • Cercare utilizzando gli incorporamenti
      • Tutorial su Notebook
        • Blocchi note tutorial di Vertex AI Feature Store
    • Feature Store Vertex AI (legacy)
      • Informazioni su Vertex AI Feature Store (legacy)
      • Modello dei dati e risorse
      • Requisiti dei dati di origine
      • Configurazione
      • Best practice
      • Utilizzare Vertex AI Feature Store (legacy)
        • Gestione dei featurestore
        • Gestione dei tipi di entità
        • Gestione e ricerca di caratteristiche
        • Importazione batch
        • Importazione streaming
        • Pubblicazione online
        • Recupero dei dati di addestramento
        • Esportazione dei valori delle caratteristiche
        • Eliminare i valori delle caratteristiche
        • Monitoraggio
        • Controllare l'accesso alle risorse
  • Gestione modelli
    • Introduzione a Vertex AI Model Registry
    • Controllo delle versioni in Model Registry
    • Importa modelli in Model Registry
    • Copiare modelli in Model Registry
    • Eliminazione di un modello
    • Integra con BigQuery ML
    • Utilizzare gli alias dei modelli
    • Utilizzare le etichette del modello
    • Utilizza Data Catalog per cercare risorse del modello e del set di dati
  • Valuta i modelli
    • Valutazione dei modelli in Vertex AI
    • Esecuzione della valutazione dei modelli in Vertex AI
    • Valutazione del modello per l'equità
      • Introduzione alla valutazione dei modelli per verificare l'equità
      • Metriche di distorsione dei dati per Vertex AI
      • Metriche di distorsione del modello per Vertex AI
    • Tutorial sui notebook di valutazione del modello
  • Orchestrare i flussi di lavoro ML utilizzando le pipeline
    • Presentazione
    • Interfacce
    • Configura il tuo progetto
    • Crea una pipeline
    • Esegui una pipeline
    • Utilizzare i modelli di pipeline
      • Creare, caricare e utilizzare un modello di pipeline
      • Utilizzare un modello predefinito della galleria dei modelli
    • Configurazione della pipeline
      • Configurazione della memorizzazione nella cache di un'esecuzione
      • Configura la policy di errore
      • Configura i tentativi per un'attività della pipeline
      • Specifica dei tipi di macchina per un passaggio della pipeline
      • Richiedere risorse di machine learning di Google Cloud con Vertex AI Pipelines
      • Configura l'interfaccia Private Service Connect (consigliato)
      • Configurazione dei secret con Secret Manager
      • Configura l'esecuzione di una pipeline su una risorsa permanente
    • Pianificazione e attivazione dell'esecuzione di pipeline
      • Pianificare l'esecuzione di una pipeline con l'API Scheduler
      • Attivazione dell'esecuzione di una pipeline con Pub/Sub
    • Annullare o eliminare le esecuzioni pipeline
      • Annulla esecuzioni pipeline
      • Elimina esecuzioni pipeline
    • Esegui di nuovo una pipeline
    • Monitorare l'esecuzione della pipeline
      • Visualizzare le metriche della pipeline
      • Visualizza i log dei job della pipeline
      • Esegui il routing dei log a un sink Cloud Pub/Sub
      • Configurazione delle notifiche via email
    • Visualizzare i risultati
      • Visualizzazione e analisi dei risultati delle pipeline
      • Monitoraggio della derivazione degli artefatti della pipeline
      • File HTML e markdown di output
    • Etichettatura delle risorse da parte di Vertex AI Pipelines
    • Informazioni sui costi di esecuzione della pipeline
    • Migrazione da Kubeflow Pipelines a Vertex AI Pipelines
    • Utilizzare vincoli personalizzati
    • Google Cloud Pipeline Components
      • Guida rapida
      • Introduzione a Google Cloud Pipeline Components
      • Elenco di Google Cloud Pipeline Components
      • Utilizzare Google Cloud Pipeline Components
      • Crea i tuoi componenti della pipeline
    • Tutorial su Vertex AI Pipelines
      • Notebook tutorial
  • Monitoraggio e analisi dei metadati ML
    • Introduzione a Vertex ML Metadata
    • Modello dei dati e risorse
    • Configurazione dell'archivio dei metadati del progetto
    • Utilizzo di Vertex ML Metadata
      • Monitorare Vertex ML Metadata
      • Analizzare Vertex ML Metadata
      • Gestire Vertex ML Metadata
      • Schemi di sistema
      • Creazione e utilizzo di schemi personalizzati
      • Utilizzare vincoli personalizzati con gli archivi di metadati
    • Tutorial sui blocchi note di Vertex ML Metadata
  • Comprendere il comportamento del modello
    • Introduzione a Explainable AI
    • Configurazione delle spiegazioni basate su esempi per l'addestramento personalizzato
    • Configurazione delle spiegazioni basate su caratteristiche per l'addestramento personalizzato
      • Configurazione delle spiegazioni
      • Configurazione delle impostazioni di visualizzazione
      • Miglioramento delle spiegazioni
    • Configura le spiegazioni basate sulle funzionalità per la classificazione delle immagini AutoML
      • Configurazione delle impostazioni di visualizzazione
      • Miglioramento delle spiegazioni
    • Utilizzo di TensorFlow per le spiegazioni
    • Richiesta di spiegazioni
    • Limitazioni di Explainable AI
    • Tutorial sui notebook Explainable AI
  • Monitorare la qualità del modello
    • Introduzione a Model Monitoring
    • Monitoraggio modelli v2
      • Configurare il monitoraggio del modello
      • Esegui job di monitoraggio
      • Gestire i monitoraggi del modello
    • Monitoraggio modelli v1
      • Fornire schemi a Model Monitoring
      • Monitoraggio di disallineamenti e deviazioni delle caratteristiche
      • Monitoraggio di disallineamenti e deviazioni delle attribuzioni delle caratteristiche
      • Monitoraggio dei modelli per le previsioni batch
  • Monitorare gli esperimenti
    • Introduzione a Vertex AI Experiments
    • Configura Vertex AI Experiments
    • Creare un esperimento
    • Creare e gestire esecuzioni di esperimenti
    • Dati di log
      • Registrare automaticamente i dati in un'esecuzione dell'esperimento
      • Registrare manualmente i dati in un'esecuzione dell'esperimento
    • Registrare i modelli in un'esecuzione dell'esperimento
    • Monitorare le esecuzioni e gli artefatti
    • Aggiungere l'esecuzione della pipeline all'esperimento
    • Esegui il job di addestramento con il monitoraggio degli esperimenti
    • Confrontare e analizzare le corse
    • Utilizzo di Vertex AI TensorBoard
      • Introduzione a Vertex AI TensorBoard
      • Configura Vertex AI TensorBoard
      • Configura lo script di addestramento
      • Utilizzo di Vertex AI TensorBoard con addestramento personalizzato
      • Utilizzo di Vertex AI TensorBoard con Vertex AI Pipelines
      • Registrare manualmente i dati di TensorBoard
      • Caricare i log esistenti
      • Visualizzare Vertex AI TensorBoard
    • Tutorial su Notebook
      • Inizia a utilizzare Vertex AI Experiments
      • Confrontare le esecuzioni delle pipeline
      • Addestramento del modello
      • Confrontare i modelli
      • Registrazione automatica
      • Registrazione automatica dell'allenamento personalizzato
      • Monitorare parametri e metriche per l'addestramento personalizzato
      • Elimina gli esperimenti Vertex AI TensorBoard obsoleti
      • Addestramento personalizzato di Vertex AI TensorBoard con container personalizzato
      • Addestramento personalizzato di Vertex AI TensorBoard con container predefinito
      • Ottimizzazione degli iperparametri di Vertex AI TensorBoard con il dashboard HParams
      • Profilare le prestazioni di addestramento del modello utilizzando Cloud Profiler
      • Prestazioni di addestramento del modello di profilo utilizzando Cloud Profiler nell'addestramento personalizzato con container predefinito
      • Integrazione di Vertex AI TensorBoard con Vertex AI Pipelines
  • Amministrazione
  • Controllo dell'accesso
    • Controllo dell'accesso con IAM
    • Autorizzazioni IAM
    • Configurare un progetto per un team
    • Controllare l'accesso agli endpoint Vertex AI
    • Utilizzo di un account di servizio personalizzato
    • Utilizzo delle chiavi di crittografia gestite dal cliente
    • Access Transparency
  • Monitorare le risorse Vertex AI
    • Metriche di Cloud Monitoring
    • Informazioni sugli audit log
  • Networking
    • Panoramica dell'accesso al networking
    • Accedere all'API Vertex AI
    • Accesso ai servizi Vertex AI tramite l'accesso privato ai servizi
    • Accesso ai servizi Vertex AI tramite endpoint PSC
    • Accesso ai servizi Vertex AI tramite interfacce PSC
    • Configurazione del peering di rete VPC
    • Configura la connettività ad altre reti
    • Configura un'interfaccia Private Service Connect
    • Tutorial: accedi alle pipeline di addestramento in modalità privata dall'ambiente on-premise
    • Tutorial: accedi privatamente a un indice Vector Search da on-premise
    • Tutorial: accedi all'API Generative AI da un ambiente on-premise
    • Tutorial: accedi alle previsioni batch in privato da on-premise
    • Tutorial: crea un'istanza di Vertex AI Workbench in una rete VPC
  • Sicurezza
    • Controlli di servizio VPC
    • Consentire l'accesso all'endpoint pubblico alle risorse protette dall'esterno di un perimetro
    • Consentire l'accesso multicloud alle risorse protette dall'esterno di un perimetro
    • Consentire l'accesso a risorse protette dall'interno di un perimetro
  • Denomina le risorse
  • Esempi e tutorial
  • Tutorial su Notebook
  • Esempi di codice
    • Tutti gli esempi di codice di Vertex AI
    • Esempi di codice per tutti i prodotti
  • AI e ML
  • Sviluppo di applicazioni
  • Hosting di applicazioni
  • Computing
  • Analisi dei dati e pipeline
  • Database
  • Distribuito, ibrido e multi-cloud
  • AI generativa
  • Soluzioni di settore
  • Networking
  • Osservabilità e monitoraggio
  • Sicurezza
  • Storage
  • Gestione di accessi e risorse
  • Gestione di costi e utilizzo
  • Google Cloud SDK, linguaggi, framework e strumenti
  • Infrastructure as Code (IaC)
  • Migrazione
  • Home page di Google Cloud
  • Prova gratuita e livello gratuito
  • Architecture Center
  • Blog
  • Contatta il team di vendita
  • Developer Center di Google Cloud
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentazione di Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Assistenza Google Cloud
  • Canale YouTube di Google Cloud Tech
Questa pagina è stata tradotta dall'API Cloud Translation.
  • Home
  • Documentation
  • AI and ML
  • Vertex AI

Utilizza l'SDK Vertex AI

L'SDK Vertex AI ti consente di utilizzare le funzionalità e i modelli di IA generativa di Google per creare applicazioni basate sull'IA.

L'SDK Vertex AI è disponibile per Python, Go, Java e Node.js. Per scoprire di più su ciascun SDK, consulta quanto segue:

  • SDK Vertex AI per Python
  • SDK Vertex AI Node.js
  • SDK Vertex AI Java
  • SDK Vertex AI Go

Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.

Ultimo aggiornamento 2025-10-19 UTC.

  • Perché Google

    • Scegliere Google Cloud
    • Affidabilità e sicurezza
    • Infrastruttura cloud moderna
    • Multi-cloud
    • Infrastruttura globale
    • Clienti e case study
    • Report degli analisti
    • Whitepaper
  • Prodotti e prezzi

    • Visualizza tutti i prodotti
    • Visualizza tutte le soluzioni
    • Google Cloud per startup
    • Google Cloud Marketplace
    • Prezzi di Google Cloud
    • Contatta il team di vendita
  • Assistenza

    • Community forums
    • Assistenza
    • Note di rilascio
    • Stato del sistema
  • Risorse

    • GitHub
    • Inizia a utilizzare Google Cloud
    • Documentazione di Google Cloud
    • Esempi di codice
    • Cloud Architecture Center
    • Formazione e certificazione
    • Developer Center
  • Coinvolgi

    • Blog
    • Eventi
    • X (Twitter)
    • Google Cloud su YouTube
    • Google Cloud Tech su YouTube
    • Diventa partner
    • Google Cloud Affiliate Program
    • Risorse multimediali per la stampa
  • Informazioni su Google
  • Privacy
  • Termini del sito
  • Termini di Google Cloud
  • Manage cookies
  • Il nostro terzo decennio di azione per il clima: unisciti a noi
  • Registrati alla newsletter di Google Cloud Iscriviti
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어