AI Platform Prediction porta la potenza e la flessibilità di TensorFlow, scikit-learn e XGBoost nel cloud. Puoi utilizzare AI Platform Prediction per ospitare i modelli addestrati in modo da poter inviare loro richieste di previsione.
Per iniziare
-
Introduzione ad AI Platform
Una panoramica dei prodotti AI Platform.
-
Panoramica di Prediction
Un'introduzione all'utilizzo di AI Platform Prediction per ospitare modelli di machine learning e fornire previsioni.
-
Ambiente di sviluppo
Requisiti per l'ambiente di sviluppo locale.
-
Previsione online e batch
Una panoramica delle differenze tra la previsione online e la previsione batch.
-
Per iniziare: addestramento e previsione con TensorFlow Keras
Addestra un modello TensorFlow Keras in AI Platform Training e eseguine il deployment in AI Platform Prediction.
-
Per iniziare: addestramento e previsione con TensorFlow Estimator
Addestra un modello TensorFlow Estimator in AI Platform Training e eseguine il deployment in AI Platform Prediction.
-
Introduzione a scikit-learn e XGBoost
Esegui il deployment di un modello scikit-learn o XGBoost per fornire le previsioni.
Flusso di lavoro di previsione
-
Esportazione dei modelli per la previsione
Scrivi il codice di addestramento per esportare gli artefatti del modello pronti per AI Platform Prediction.
-
Esportazione di un SavedModel per la previsione
Esporta un SavedModel di TensorFlow in modo che sia compatibile con AI Platform Prediction.
-
Deployment dei modelli
Esegui il deployment dei modelli di machine learning creando risorse di modelli e versioni dei modelli.
-
Routine di previsione personalizzate
Personalizza il modo in cui AI Platform Prediction elabora le richieste di previsione.
-
Tipi di macchine per la previsione online
Configura i tipi di macchine virtuali e GPU utilizzati da AI Platform Prediction per gestire le richieste.
-
Generazione di previsioni online
Invia richieste al tuo modello di machine learning di cui è stato eseguito il deployment e ricevi le previsioni.
-
Generazione di previsioni batch
Esegui una previsione su un volume elevato di istanze di dati utilizzando un modello TensorFlow.
Container personalizzati per la previsione online
-
Per iniziare: pubblicazione di previsioni PyTorch con un container personalizzato
Utilizza un container personalizzato per eseguire il deployment di un modello di machine learning PyTorch che genera previsioni online.
-
Requisiti per i container personalizzati
Scopri i requisiti per creare un'immagine container Docker personalizzata da utilizzare con AI Platform Prediction.
-
Utilizzo di un container personalizzato
Configura la versione del modello in modo da utilizzare un container personalizzato.
Integrazione con strumenti e servizi
-
Utilizzo della libreria client Python
Utilizza la libreria client dell'API di Google per Python per inviare richieste all'API AI Platform Training and Prediction.
-
Utilizzo di Cloud Storage
Configura Cloud Storage per utilizzarlo con AI Platform Prediction.
-
Utilizzo dello strumento What-If
Controlla i modelli di cui è stato eseguito il deployment con una dashboard interattiva.
Monitoraggio e sicurezza
-
Modelli di monitoraggio
Monitora le prestazioni e il comportamento dei modelli di cui è stato eseguito il deployment.
-
Visualizzazione degli audit log
Monitora le attività di amministrazione e l'accesso ai dati con Cloud Audit Logs.
-
Controllo degli accessi
Una panoramica delle autorizzazioni necessarie per eseguire diverse azioni nell'API AI Platform Training & Prediction, nonché i ruoli IAM che forniscono queste autorizzazioni.
-
Utilizzo di un account di servizio personalizzato
Configura una versione del modello in modo che utilizzi un account di servizio personalizzato per fornire le previsioni.
-
Utilizzo dei Controlli di servizio VPC
Configura i Controlli di servizio VPC per mitigare il rischio di esfiltrazione di dati.
Risorse di AI Platform Prediction
-
Progetti, modelli, versioni e job
Una panoramica delle risorse che crei e con cui interagisci in AI Platform.
-
Gestione di modelli e job
Gestisci le risorse AI Platform che hai creato.
-
Etichettatura delle risorse
Organizza job, modelli e versioni dei modelli con le etichette personalizzate.
-
Condivisione di modelli
Condividi l'accesso alle risorse di AI Platform Prediction con altri utenti, gruppi o account di servizio.
Tutorial
-
Creazione di una routine di previsione personalizzata con Keras
Esegui il deployment di un modello Keras insieme al codice di pre-elaborazione e post-elaborazione per gestire le richieste.
-
Generazione di previsioni online con XGBoost
Esegui il deployment di un modello XGBoost e richiedi le previsioni.
-
Generazione di previsioni online con scikit-learn
Esegui il deployment di un modello scikit-learn che utilizza una pipeline con molti trasformatori.
-
Previsioni con le pipeline di scikit-learn
Esegui il deployment di un modello scikit-learn che utilizza una pipeline con un passaggio di pre-elaborazione e un passaggio di classificazione.
-
Utilizzo di una pipeline di scikit-learn con strumenti di trasformazione personalizzati
Esegui il deployment di una pipeline scikit-learn con pre-elaborazione personalizzata.
-
Creazione di una routine di previsione personalizzata con scikit-learn
Esegui il deployment di un modello scikit-learn insieme al codice di pre-elaborazione e post-elaborazione per la gestione delle richieste.
-
Utilizzo di scikit-learn su Kaggle e AI Platform Prediction
Addestra un modello in Kaggle ed eseguine il deployment in AI Platform Prediction.
Versioni runtime
AI Explanations
-
Panoramica di AI Explanations
Un'introduzione all'utilizzo di AI Explanations con AI Platform Prediction.
-
Introduzione ad AI Explanations
Esegui il deployment dei modelli TensorFlow e fai richieste di spiegazione.
-
Limitazioni di AI Explanations
Considerazioni da tenere presenti quando si utilizzano le AI Explanations.
-
Utilizzo di attribuzioni di funzionalità
Configura il tuo modello di machine learning per le AI Explanations e richiedi spiegazioni.
-
Salvataggio dei modelli TensorFlow
Salvare correttamente i modelli TensorFlow 2 e TensorFlow 1.15 per le AI Explanations.
-
Preparazione dei metadati
Crea il file dei metadati delle spiegazioni richiesto per le AI Explanations;IA utilizzando l'SDK Explainable AI.
-
Visualizzazione delle spiegazioni
Visualizza le spiegazioni con AI Explanations.
-
Informazioni su input e output per le spiegazioni
Trova i tensori di input e di output per creare manualmente il file dei metadati della spiegazione prima di implementare un modello TensorFlow 1.15 esistente in AI Explanations.
Valutazione continua
-
Panoramica della valutazione continua
Introduzione alla valutazione continua.
-
Prima di iniziare la valutazione continua
Preparare il modello di machine learning in modo che sia compatibile con la valutazione continua.
-
Creazione di un job di valutazione
Configura la modalità di valutazione della versione del modello.
-
Visualizzazione delle metriche di valutazione
Visualizza le metriche relative al tuo modello calcolate dalla valutazione continua.
-
Aggiornamento, messa in pausa o eliminazione di un job di valutazione
Aggiorna un job di valutazione continua esistente.