Mit AI Platform Prediction stehen Ihnen das Potenzial und die Flexibilität von TensorFlow, scikit-learn und XGBoost in der Cloud zur Verfügung. Mithilfe von AI Platform Prediction können Sie Ihre trainierten Modelle hosten, sodass Sie Vorhersageanfragen an sie senden können.
Einstieg
-
Einführung in AI Platform
Eine Übersicht über AI Platform-Produkte
-
Vorhersageüberblick
Eine Einführung dazu, wie Sie mithilfe von AI Platform Prediction Modelle für maschinelles Lernen hosten und Vorhersagen bereitstellen
-
Entwicklungsumgebung
Anforderungen an Ihre lokale Entwicklungsumgebung
-
Onlinevorhersage im Vergleich zur Batchvorhersage
Eine Übersicht über die Unterschiede zwischen Online- und Batchvorhersage
-
Erste Schritte: Training und Vorhersage mit TensorFlow Keras
Trainieren Sie in AI Platform Training ein TensorFlow Keras-Modell und stellen Sie das Modell für AI Platform Prediction bereit.
-
Erste Schritte: Training und Vorhersage mit TensorFlow Estimator
Trainieren Sie in AI Platform Training ein TensorFlow Estimator-Modell und stellen Sie das Modell für AI Platform Prediction bereit.
-
Erste Schritte mit scikit-learn und XGBoost
Bereitstellen eines scikit-learn- oder XGBoost-Modells, um Vorhersagen zur Verfügung zu stellen
Vorhersageworkflow
-
Modelle für Vorhersagen exportieren
Schreiben von Trainingscode, um Modellartefakte für AI Platform Prediction zu exportieren
-
SavedModel für Vorhersagen exportieren
Exportieren eines TensorFlow-SavedModel, sodass es mit AI Platform Prediction kompatibel ist
-
Modelle bereitstellen
Bereitstellen von ML-Modellen durch Erstellen von Modell- und Modellversionsressourcen
-
Benutzerdefinierte Vorhersageroutinen
Anpassen, wie Vorhersageanfragen von AI Platform Prediction verarbeitet werden
-
Maschinentypen für die Onlinevorhersage
Konfigurieren, welche Arten von virtuellen Maschinen und GPUs AI Platform Prediction zur Verarbeitung von Anfragen verwendet
-
Onlinevorhersagen abrufen
Senden von Anfragen an das bereitgestellte ML-Modell, um Vorhersagen zu erhalten
-
Batchvorhersagen abrufen
Erstellen von Vorhersagen für eine große Anzahl von Dateninstanzen mithilfe eines TensorFlow-Modells
Benutzerdefinierte Container für Onlinevorhersagen
-
Erste Schritte: PyTorch-Vorhersagen mit einem benutzerdefinierten Container bereitstellen
Verwenden Sie einen benutzerdefinierten Container, um ein PyTorch-ML-Modell bereitzustellen, das Onlinevorhersagen ermöglicht.
-
Anforderungen an benutzerdefinierte Container
Mehr erfahren über die Anforderungen zum Erstellen eines benutzerdefinierten Docker-Container-Images für die Verwendung mit AI Platform Prediction
-
Benutzerdefinierte Container verwenden
Konfigurieren Ihrer Modellversion für die Verwendung eines benutzerdefinierten Containers
Integration in Tools und Dienste
-
Python-Clientbibliothek verwenden
Verwenden Sie die Google API-Clientbibliothek für Python, um Anfragen an die AI Platform Training and Prediction API zu senden.
-
Mit Cloud Storage arbeiten
Einrichten von Cloud Storage für AI Platform Prediction
-
What-If-Tool verwenden
Prüfen der bereitgestellten Modelle mit einem interaktiven Dashboard
Monitoring und Sicherheit
-
Modelle überwachen
Überwachen der Leistung und des Verhaltens der bereitgestellten Modelle
-
Audit-Logs ansehen
Beobachten der Administratoraktivität und des Datenzugriffs mit Cloud-Audit-Logs
-
Zugriffssteuerung
Eine Übersicht über die Berechtigungen, die zum Ausführen verschiedener Aktionen in der AI Platform Training and Prediction API erforderlich sind, sowie über die IAM-Rollen, die diese Berechtigungen enthalten
-
Benutzerdefiniertes Dienstkonto verwenden
Konfigurieren einer Modellversion, damit sie ein benutzerdefiniertes Dienstkonto für Vorhersagen verwendet
-
VPC Service Controls verwenden
Konfigurieren von VPC Service Controls, um das Risiko einer Daten-Exfiltration zu minimieren
AI Platform Prediction-Ressourcen
-
Projekte, Modelle, Versionen und Jobs
Ein Überblick über die Ressourcen, die Sie in AI Platform erstellen und mit denen Sie interagieren.
-
Modelle und Jobs verwalten
Verwalten Sie die von Ihnen erstellten AI Platform-Ressourcen.
-
Ressourcen mit Labels versehen
Organisieren von Jobs, Modellen und Modellversionen mit benutzerdefinierten Labels
-
Modelle freigeben
Zulassen, dass andere Nutzer, Gruppen oder Dienstkonten auf Ihre AI Platform Prediction-Ressourcen zugreifen
Tutorials
-
Benutzerdefinierte Vorhersageroutine mit Keras erstellen
Bereitstellen eines Keras-Modells zusammen mit Vorverarbeitungs- und Nachbearbeitungscodes für die Verarbeitung von Anfragen
-
Onlinevorhersagen mit XGBoost
Bereitstellen eines XGBoost-Modells und Anfordern von Vorhersagen
-
Onlinevorhersagen mit scikit-learn
Bereitstellen eines scikit-learn-Modells, das eine Pipeline mit vielen Transformern verwendet
-
Vorhersagen mit scikit-learn-Pipelines
Bereitstellen eines scikit-learn-Modells, das eine Pipeline mit einem Vorverarbeitungsschritt und einem Klassifizierungsschritt verwendet
-
scikit-learn-Pipeline mit benutzerdefinierten Transformern verwenden
Bereitstellen einer scikit-learn-Pipeline mit benutzerdefinierter Vorverarbeitung
-
Benutzerdefinierte Vorhersageroutine mit scikit-learn erstellen
Bereitstellen eines scikit-learn-Modells zusammen mit Vorverarbeitungs- und Nachbearbeitungscodes für die Verarbeitung von Anfragen
-
scikit-learn mit Kaggle und AI Platform Prediction verwenden
Trainieren eines Modells in Kaggle und Bereitstellen des Modells in AI Platform Prediction
Laufzeitversionen
AI Explanations
-
Übersicht über AI Explanations
Einführung in die Verwendung von AI Explanations mit AI Platform Prediction
-
Erste Schritte: AI Explanations
Bereitstellen von TensorFlow-Modellen und Senden von Erläuterungsanfragen
-
Einschränkungen der KI-Erklärungen
Wichtige Aspekte bei der Verwendung von AI Explanations
-
Feature-Attributionen verwenden
Konfigurieren des ML-Modells für AI Explanations und Anfordern von Erläuterungen
-
TensorFlow-Modelle speichern
Speichern Sie die TensorFlow 2- und TensorFlow 1.15-Modelle für AI Explanations richtig.
-
Metadaten vorbereiten
Erstellen der Erläuterungsmetadatendatei, die für AI Explanations erforderlich ist, mit dem Explainable AI SDK
-
Erläuterungen visualisieren
Visualisieren von Erläuterungen mit AI Explanations
-
Ein- und Ausgaben für Erläuterungen verstehen
Suchen Sie nach Eingabe- und Ausgabetensoren, um die Erklärungsmetadatendatei manuell zu erstellen, bevor Sie ein vorhandenes TensorFlow 1.15-Modell für AI Explanations bereitstellen.
Kontinuierliche Evaluierung
-
Übersicht über die kontinuierliche Evaluierung
Eine Einführung in die kontinuierliche Evaluierung.
-
Vor dem Start der kontinuierlichen Evaluierung
Vorbereiten Ihres ML-Modells, damit es mit der kontinuierlichen Evaluierung kompatibel ist
-
Evaluierungsjob erstellen
Konfigurieren, wie Ihre Modellversion evaluiert werden soll
-
Bewertungsmesswerte ansehen
Ansehen von Messwerten für das Modell, die durch die kontinuierliche Evaluierung berechnet wurden
-
Evaluierungsjob aktualisieren, anhalten oder löschen
Aktualisieren eines vorhandenen Jobs zur kontinuierlichen Evaluierung