Auf dieser Seite wird die TensorFlow-Integration von Vertex AI erläutert. Außerdem erfahren Sie, wie Sie TensorFlow in Vertex AI verwenden. Die TensorFlow-Integration von Vertex AI erleichtert das Trainieren, Bereitstellen und Orchestrieren von TensorFlow-Modellen in der Produktion.
Code in Notebooks ausführen
Vertex AI bietet zwei Optionen zum Ausführen Ihres Codes in Notebooks: Colab Enterprise und Vertex AI Workbench. Weitere Informationen zu diesen Optionen finden Sie unter Notebooklösung auswählen.
Vordefinierte Container für das Training
Vertex AI bietet vordefinierte Docker-Container-Images für das Modelltraining. Diese Container sind nach Frameworks für maschinelles Lernen und Framework-Versionen organisiert und enthalten allgemeine Abhängigkeiten, die Sie in Ihrem Trainingscode verwenden können.
Informationen zu den TensorFlow-Versionen mit vordefinierten Trainingscontainern und zum Trainieren von Modellen mit einem vordefinierten Trainingscontainer finden Sie unter Vordefinierte Container für benutzerdefiniertes Training.
Verteiltes Training
Sie können das verteilte Training von TensorFlow-Modellen auf Vertex AI verwenden. Beim Multi-Worker-Training können Sie mit dem Reduzierungsserver die Leistung für kollektive Vorgänge noch weiter optimieren. Weitere Informationen zum verteilten Training in Vertex AI finden Sie unter Verteiltes Training.
Vordefinierte Container für Vorhersagen
Ähnlich wie vordefinierte Container für das Training bietet Vertex AI vordefinierte Container-Images zum Bereitstellen von Vorhersagen und Erläuterungen aus TensorFlow-Modellen, die Sie entweder innerhalb oder außerhalb von Vertex AI erstellt haben. Diese Images stellen HTTP-Vorhersageserver bereit, mit denen Sie Vorhersagen mit minimaler Konfiguration bereitstellen können.
Informationen zu den TensorFlow-Versionen mit vordefinierten Trainingscontainern und zum Trainieren von Modellen mit einem vordefinierten Trainingscontainer finden Sie unter Vordefinierte Container für benutzerdefiniertes Training.
Optimierte TensorFlow-Laufzeit
Die optimierte TensorFlow-Laufzeit verwendet Modelloptimierungen und neue proprietäre Google-Technologien. Dadurch werden die Geschwindigkeit verbessert und die Kosten für Vorhersagen im Vergleich zu den vorkonfigurierten Vertex AI-Standardvorhersagecontainern für TensorFlow gesenkt.
TensorFlow Profiler-Integration
Mit der TensorFlow Profiler-Integration von Vertex AI lassen sich Modelle durch Überwachung und Optimierung der Leistung Ihres Trainingsjobs kostengünstiger und schneller trainieren. TensorFlow Profiler hilft Ihnen, den Ressourcenverbrauch von Trainingsvorgängen zu verstehen, damit Sie Leistungsengpässe identifizieren und beseitigen können.
Weitere Informationen zu Vertex AI TensorFlow Profiler finden Sie unter Leistung des Profilmodelltrainings mit Profiler bestimmen.
Ressourcen für die Verwendung von TensorFlow in Vertex AI
Weitere Informationen, darunter zur Verwendung von TensorFlow in Vertex AI, finden Sie in folgenden Ressourcen.
Vom Prototyp zur Produktion: Eine Videoreihe mit einem End-to-End-Beispiel zur Entwicklung und Bereitstellung eines benutzerdefinierten TensorFlow-Modells in Vertex AI.
Trainingsleistung mit Reduction Server in Vertex AI optimieren: Ein Blogpost zur Optimierung des verteilten Trainings in Vertex AI mit Reduction Server.
Optimierung der Trainingsleistung mit TensorFlow Profiler in Vertex AI: In einem Blogpost erfahren Sie, wie Sie Leistungsengpässe in Ihrem Trainingsjob mithilfe von Vertex AI TensorFlow Profiler ermitteln.
Batchvorhersage für benutzerdefiniertes Modell mit Featurefilterung: Eine Notebook-Anleitung, die Ihnen zeigt, wie Sie das Vertex AI SDK für Python verwenden, um ein benutzerdefiniertes tabellarisches Klassifizierungsmodell zu trainieren und Batchvorhersagen mit Feature-Filterung durchzuführen.
Vertex AI Pipelines: Benutzerdefiniertes Training mit vordefinierten Google Cloud-Pipeline-Komponenten: Eine Notebook-Anleitung, die Ihnen zeigt, wie Sie Vertex AI Pipelines mit vordefinierten Google Cloud Pipeline-Komponenten für benutzerdefiniertes Training verwenden.
TensorFlow-Modelle auf derselben VM für Vorhersagen hosten: Ein Codelab, das zeigt, wie Sie die Funktion für das gemeinsame Hosting von Modellen in Vertex AI verwenden, um mehrere Modelle auf derselben VM für Onlinevorhersagen zu hosten.