ML-Workflows umfassen Schritte zum Vorbereiten und Analysieren von Daten, Trainieren und Bewerten von Modellen, Bereitstellen von trainierten Modellen für die Produktion, Erfassen von ML-Artefakten und Verstehen ihrer Abhängigkeiten usw. Das Verwalten dieser Schritte kann schwierig und zeitaufwendig sein.
Im Rahmen von MLOps werden DevOps-Verfahren zur Automatisierung, Verwaltung und Prüfung von ML-Workflows angewendet. AI Platform-Pipelines unterstützen Sie bei der Implementierung von MLOps, indem sie eine Plattform bereitstellen, auf der Sie die Schritte in Ihrem Workflow als Pipeline orchestrieren können. ML-Pipelines sind portable und reproduzierbare Definitionen von ML-Workflows.
AI Platform Pipelines erleichtert Ihnen den Einstieg in MLOps, da Ihnen die Einrichtung von Kubeflow Pipelines mit TensorFlow Extended (TFX) erspart bleibt. Kubeflow Pipelines ist eine Open-Source-Plattform zum Ausführen, Monitoring, Prüfen und Verwalten von ML-Pipelines in Kubernetes. TFX ist ein Open-Source-Projekt zur Erstellung von ML-Pipelines, die End-to-End-ML-Workflows orchestrieren.
Anleitungen
-
AI Platform-Pipelines einrichten
Informationen zum Einrichten von AI Plattform Pipelines
-
ML-Pipeline erstellen
Informationen zur Orchestrierung Ihres ML-Prozesses als Pipeline
-
ML-Pipeline ausführen
Zugriff auf das Kubeflow Pipelines-Dashboard und Ausführen von Pipelines
-
Mithilfe des Kubeflow Pipelines SDK eine Verbindung zu AI Platform Pipelines herstellen
Herstellen einer Verbindung zu Ihrem AI Platform Pipelines-Cluster mithilfe des Kubeflow Pipelines SDK
-
GKE-Cluster konfigurieren
Konfigurieren Ihres Google Kubernetes Engine-Cluster, um dafür zu sorgen, dass AI Plattform Pipelines über ausreichende Rechenressourcen und Zugriff auf Google Cloud-Ressourcen wie Cloud Storage oder BigQuery verfügt