AI Platform Prediction introduce la potenza e la flessibilità di TensorFlow, scikit-learn e XGBoost nel cloud. Puoi utilizzare AI Platform Prediction per ospitare i tuoi modelli addestrati in modo da poter inviare loro richieste di previsione.
Per iniziare
-
Introduzione ad AI Platform
Una panoramica dei prodotti AI Platform.
-
Panoramica di Prediction
Introduzione all'utilizzo di AI Platform Prediction per ospitare modelli di machine learning e fornire previsioni.
-
Ambiente di sviluppo
Requisiti per l'ambiente di sviluppo locale.
-
Previsione online e batch
Una panoramica delle differenze tra le previsioni online e batch.
-
Per iniziare: addestramento e previsione con TensorFlow Keras
Addestra un modello TensorFlow Keras in AI Platform Training ed esegui il deployment del modello in AI Platform Prediction.
-
Per iniziare: addestramento e previsione con TensorFlow Estimator
Addestra un modello TensorFlow Estimator in AI Platform Training ed esegui il deployment del modello in AI Platform Prediction.
-
Inizia a utilizzare scikit-learn e XGBoost
Esegui il deployment di un modello scikit-learn o XGBoost per gestire le previsioni.
Flusso di lavoro di previsione
-
Esportazione dei modelli per la previsione
Scrivi il codice di addestramento per esportare gli artefatti del modello pronti per AI Platform Prediction.
-
Esportazione di un SavedModel per la previsione
Esporta un modello TensorFlow SaveModel in modo che sia compatibile con AI Platform Prediction.
-
Deployment dei modelli
Esegui il deployment dei modelli di machine learning creando risorse modello e versione del modello.
-
Routine di previsione personalizzate
Personalizza il modo in cui AI Platform Prediction elabora le richieste di previsione.
-
Tipi di macchine per la previsione online
Configura i tipi di macchine virtuali e le GPU utilizzate da AI Platform Prediction per gestire le richieste.
-
Generazione di previsioni online
Invia richieste al tuo modello di machine learning di cui hai eseguito il deployment e ricevi previsioni.
-
Richiesta di previsioni batch
Esegui la previsione su un volume elevato di istanze di dati utilizzando un modello TensorFlow.
Container personalizzati per la previsione online
-
Per iniziare: fornire previsioni PyTorch con un container personalizzato
Utilizza un container personalizzato per eseguire il deployment di un modello di machine learning PyTorch che fornisce previsioni online.
-
Requisiti per i container personalizzati
Scopri i requisiti per creare un'immagine container Docker personalizzata da utilizzare con AI Platform Prediction.
-
Utilizzo di un container personalizzato
Configura la tua versione del modello in modo che utilizzi un container personalizzato.
Integrazione con strumenti e servizi
-
Utilizzo della libreria client Python
Utilizza la libreria client delle API di Google per Python per inviare richieste all'API AI Platform Training and Prediction.
-
Utilizzo di Cloud Storage
Configura Cloud Storage per funzionare con AI Platform Prediction.
-
Utilizzo dello strumento What-If
Esamina i modelli di cui hai eseguito il deployment con una dashboard interattiva.
Monitoraggio e sicurezza
-
Modelli di monitoraggio
Monitora le prestazioni e il comportamento dei modelli di cui è stato eseguito il deployment.
-
Visualizzazione degli audit log
Monitora le attività di amministrazione e l'accesso ai dati con gli audit log di Cloud.
-
Controllo dell'accesso
Una panoramica delle autorizzazioni necessarie per eseguire varie azioni nell'API AI Platform Training and Prediction e i ruoli IAM che forniscono queste autorizzazioni.
-
Utilizzo di un account di servizio personalizzato
Configura una versione del modello per utilizzare un account di servizio personalizzato per gestire le previsioni.
-
Utilizzo dei Controlli di servizio VPC
Configura i Controlli di servizio VPC per ridurre il rischio di esfiltrazione dei dati.
Risorse di AI Platform Prediction
-
Progetti, modelli, versioni e job
Una panoramica delle risorse che crei e con cui interagisci in AI Platform.
-
Gestione di modelli e job
Gestisci le risorse AI Platform che hai creato.
-
Etichettatura delle risorse
Organizza job, modelli e versioni di modelli con etichette personalizzate.
-
Condivisione di modelli
Condividi l'accesso alle risorse di AI Platform Prediction con altri utenti, gruppi o account di servizio.
Tutorial
-
Creazione di una routine di previsione personalizzata con Keras
Esegui il deployment di un modello Keras insieme al codice di pre-elaborazione e post-elaborazione per la gestione delle richieste.
-
Generazione di previsioni online con XGBoost
Esegui il deployment di un modello XGBoost e richiedi le previsioni.
-
Generazione di previsioni online con scikit-learn
Esegui il deployment di un modello scikit-learn che utilizza una pipeline con molti trasformatori.
-
Previsioni con le pipeline di scikit-learn
Esegui il deployment di un modello scikit-learn che utilizza una pipeline con un passaggio di pre-elaborazione e un passaggio di classificazione.
-
Utilizzo di una pipeline di scikit-learn con strumenti di trasformazione personalizzati
Esegui il deployment di una pipeline scikit-learn con pre-elaborazione personalizzata.
-
Creazione di una routine di previsione personalizzata con scikit-learn
Esegui il deployment di un modello scikit-learn insieme a codice di pre-elaborazione e post-elaborazione per la gestione delle richieste.
-
Utilizzo di scikit-learn su Kaggle e AI Platform Prediction
Addestra un modello in Kaggle ed eseguine il deployment in AI Platform Prediction.
Versioni runtime
AI Explanations
-
Panoramica AI AI
Introduzione all'utilizzo di AI Explanations con AI Platform Prediction.
-
Introduzione ad AI Explanations
Eseguire il deployment dei modelli TensorFlow ed effettuare richieste di spiegazione.
-
Limitazioni di AI Explanations
Considerazioni da tenere presenti quando si utilizza AI Explanations.
-
Utilizzo di attribuzioni di funzionalità
Configura il tuo modello di machine learning per AI Explanations e richiedi spiegazioni.
-
Salvataggio dei modelli TensorFlow
Salva correttamente i modelli TensorFlow 2 e TensorFlow 1.15 per AI Explanations.
-
Preparazione dei metadati
Crea il file dei metadati di spiegazione richiesto per AI Explanations, utilizzando l'SDK Explainable AI.
-
Visualizzazione delle spiegazioni
Visualizza le spiegazioni con AI Explanations.
-
Informazioni su input e output per le spiegazioni
Trova i tensori di input e di output per creare manualmente il file di metadati di spiegazione, prima di eseguire il deployment di un modello TensorFlow 1.15 esistente in AI Explanations.
Valutazione continua
-
Panoramica della valutazione continua
Un'introduzione alla valutazione continua.
-
Prima di iniziare la valutazione continua
Preparazione del modello di machine learning per essere compatibile con la valutazione continua.
-
Creazione di un job di valutazione
Configura la modalità di valutazione della versione del modello.
-
Visualizzazione delle metriche di valutazione
Visualizza le metriche relative al tuo modello calcolate tramite la valutazione continua.
-
Aggiornamento, messa in pausa o eliminazione di un job di valutazione
Aggiorna un job di valutazione continua esistente.