AI Platform Prediction porta la potenza e la flessibilità di TensorFlow, scikit-learn e XGBoost nel cloud. Puoi utilizzare AI Platform Prediction per ospitare i modelli addestrati in modo da inviare loro richieste di previsione.
Per iniziare
-
Introduzione ad AI Platform
Una panoramica dei prodotti AI Platform.
-
Panoramica di Prediction
Un'introduzione all'uso di AI Platform Prediction per ospitare modelli di machine learning e fornire previsioni.
-
Ambiente di sviluppo
Requisiti per l'ambiente di sviluppo locale.
-
Previsione online e batch
Una panoramica delle differenze tra la previsione online e batch.
-
Per iniziare: addestramento e previsione con TensorFlow Keras
Addestra un modello TensorFlow Keras in AI Platform Training ed esegui il deployment del modello su AI Platform Prediction.
-
Per iniziare: addestramento e previsione con TensorFlow Estimator
Addestra un modello TensorFlow Estimator in AI Platform Training ed esegui il deployment del modello in AI Platform Prediction.
-
Introduzione a scikit-learn e XGBoost
Esegui il deployment di un modello scikit-learn o XGBoost per fornire previsioni.
Flusso di lavoro di previsione
-
Esportazione dei modelli per la previsione
Scrivi il codice di addestramento per esportare gli artefatti del modello che sono pronti per AI Platform Prediction.
-
Esportazione di un SavedModel per la previsione
Esporta un SaveModel TensorFlow in modo che sia compatibile con AI Platform Prediction.
-
Deployment dei modelli
Esegui il deployment di modelli di machine learning creando risorse per modello e versione del modello.
-
Routine di previsione personalizzate
Personalizza il modo in cui AI Platform Prediction elabora le richieste di previsione.
-
Tipi di macchine per la previsione online
Configura i tipi di macchine virtuali e GPU utilizzati dal AI Platform Prediction per gestire le richieste.
-
Generazione di previsioni online
Invia richieste al modello di machine learning di cui hai eseguito il deployment e ricevi previsioni.
-
Richiesta di previsioni batch
Esegui la previsione su un volume elevato di istanze di dati utilizzando un modello TensorFlow.
Container personalizzati per la previsione online
-
Per iniziare: pubblicazione di previsioni PyTorch con un container personalizzato
Utilizza un container personalizzato per eseguire il deployment di un modello di machine learning PyTorch che fornisca previsioni online.
-
Requisiti per i container personalizzati
Scopri i requisiti per la creazione di un'immagine di container Docker personalizzata da utilizzare con AI Platform Prediction.
-
Utilizzo di un container personalizzato
Configura la versione del modello per utilizzare un container personalizzato.
Integrazione con strumenti e servizi
-
Utilizzo della libreria client Python
Utilizza la libreria client delle API di Google per Python per inviare richieste all'API AI Platform Training and Prediction.
-
Utilizzo di Cloud Storage
Configura Cloud Storage in modo che funzioni con AI Platform Prediction.
-
Utilizzo dello strumento What-If
Ispeziona i modelli di cui hai eseguito il deployment con una dashboard interattiva.
Monitoraggio e sicurezza
-
Monitoraggio dei modelli
Monitora le prestazioni e il comportamento dei modelli di cui è stato eseguito il deployment.
-
Visualizzazione degli audit log
Monitora l'attività di amministrazione e l'accesso ai dati con Cloud Audit Logs.
-
Controllo dell'accesso
Una panoramica delle autorizzazioni necessarie per eseguire varie azioni nell'API AI Platform Training and Prediction, nonché dei ruoli IAM che forniscono queste autorizzazioni.
-
Utilizzo di un account di servizio personalizzato
Configura una versione del modello per utilizzare un account di servizio personalizzato per gestire le previsioni.
-
Utilizzo dei Controlli di servizio VPC
Configura i Controlli di servizio VPC per ridurre il rischio di esfiltrazione di dati.
Risorse di AI Platform Prediction
-
Progetti, modelli, versioni e job
Una panoramica delle risorse che crei e con cui interagisci in AI Platform.
-
Gestione di modelli e job
Gestisci le risorse AI Platform che hai creato.
-
Etichettatura delle risorse
Organizza job, modelli e versioni dei modelli con etichette personalizzate.
-
Condivisione di modelli
Condividi l'accesso alle tue risorse di AI Platform Prediction con altri utenti, gruppi o account di servizio.
Tutorial
-
Creazione di una routine di previsione personalizzata con Keras
Esegui il deployment di un modello Keras insieme a codice di pre-elaborazione e post-elaborazione per la gestione delle richieste.
-
Generazione di previsioni online con XGBoost
Esegui il deployment di un modello XGBoost e richiedi previsioni.
-
Generazione di previsioni online con scikit-learn
Esegui il deployment di un modello scikit-learn che utilizza una pipeline con molti trasformatori.
-
Previsioni con le pipeline di scikit-learn
Esegui il deployment di un modello scikit-learn che utilizza una pipeline con una fase di pre-elaborazione e una di classificazione.
-
Utilizzo di una pipeline di scikit-learn con strumenti di trasformazione personalizzati
Esegui il deployment di una pipeline scikit-learn con pre-elaborazione personalizzata.
-
Creazione di una routine di previsione personalizzata con scikit-learn
Esegui il deployment di un modello scikit-learn insieme a codice di pre-elaborazione e post-elaborazione per la gestione delle richieste.
-
Utilizzo di scikit-learn su Kaggle e AI Platform Prediction
Addestra un modello in Kaggle ed eseguine il deployment in AI Platform Prediction.
Versioni runtime
AI Explanations
-
Panoramica di AI Explanations
Un'introduzione all'utilizzo di AI Explanations con AI Platform Prediction.
-
Introduzione ad AI Explanations
Esegui il deployment dei modelli TensorFlow ed effettua richieste di spiegazione.
-
Limitazioni di AI Explanations
Considerazioni da tenere presenti quando si utilizza AI Explanations.
-
Utilizzo di attribuzioni di funzionalità
Configura il tuo modello di machine learning per AI Explanations e richiedi spiegazioni.
-
Salvataggio dei modelli TensorFlow
Salva correttamente i modelli TensorFlow 2 e TensorFlow 1.15 per AI Explanations.
-
Preparazione dei metadati
Crea il file di metadati di spiegazione richiesto per AI Explanations, utilizzando l'SDK Explainable AI.
-
Visualizzazione delle spiegazioni
Visualizza le spiegazioni con AI Explanations.
-
Informazioni su input e output per le spiegazioni
Trova i tensori di input e di output per creare manualmente il file di metadati di spiegazione prima di eseguire il deployment di un modello TensorFlow 1.15 esistente in AI Explanations.
Valutazione continua
-
Panoramica della valutazione continua
Un'introduzione alla valutazione continua.
-
Prima di iniziare la valutazione continua
Preparazione del modello di machine learning affinché sia compatibile con la valutazione continua.
-
Creazione di un job di valutazione
Configura la modalità di valutazione della versione del modello.
-
Visualizzazione delle metriche di valutazione
Visualizza le metriche sul modello calcolate tramite valutazione continua.
-
Aggiornamento, messa in pausa o eliminazione di un job di valutazione
Aggiorna un job di valutazione continua esistente.