ML-Workflows umfassen Schritte zum Vorbereiten und Analysieren von Daten, Trainieren und Bewerten von Modellen, Bereitstellen von trainierten Modellen für die Produktion, Erfassen von ML-Artefakten und Verstehen ihrer Abhängigkeiten usw. Das Verwalten dieser Schritte kann schwierig und zeitaufwendig sein.
Im Rahmen von MLOps werden DevOps-Verfahren zur Automatisierung, Verwaltung und Prüfung von ML-Workflows angewendet. AI Platform-Pipelines unterstützen Sie bei der Implementierung von MLOps, indem sie eine Plattform bereitstellen, auf der Sie die Schritte in Ihrem Workflow als Pipeline orchestrieren können. ML-Pipelines sind portable und reproduzierbare Definitionen von ML-Workflows.
AI Platform Pipelines erleichtert Ihnen den Einstieg in MLOps, da Ihnen die Einrichtung von Kubeflow Pipelines mit TensorFlow Extended (TFX) erspart bleibt. Kubeflow Pipelines ist eine Open-Source-Plattform zum Ausführen, Monitoring, Prüfen und Verwalten von ML-Pipelines in Kubernetes. TFX ist ein Open-Source-Projekt zur Erstellung von ML-Pipelines, die End-to-End-ML-Workflows orchestrieren.
Erste Schritte
Anleitungen
-
AI Platform-Pipelines einrichten
Anleitung zum Einrichten von AI Platform Pipelines
-
ML-Pipeline erstellen
Hier erfahren Sie, wie Sie Ihren ML-Prozess als Pipeline orchestrieren.
-
ML-Pipeline ausführen
Hier erfahren Sie, wie Sie auf das Kubeflow Pipelines-Dashboard zugreifen und Pipelines ausführen.
-
Verbindung zu AI Platform Pipelines mithilfe des Kubeflow Pipelines SDK herstellen
Hier erfahren Sie, wie Sie mithilfe des Kubeflow Pipelines SDK eine Verbindung zu Ihrem AI Platform Pipelines-Cluster herstellen.
-
GKE-Cluster konfigurieren
Konfigurieren Sie Ihren Google Kubernetes Engine-Cluster so, dass AI Platform Pipelines über ausreichende Rechenressourcen und Zugriff auf Google Cloud-Ressourcen wie Cloud Storage oder BigQuery verfügt.