Einführung in Vertex AI

Vertex AI bringt AutoML und AI Platform zu einer einheitlichen API, Clientbibliothek und Benutzeroberfläche zusammen. Mit AutoML können Sie Modelle für Bild-, Tabellen-, Text- und Video-Datasets trainieren, ohne Code schreiben zu müssen. Beim Training in AI Platform können Sie jedoch benutzerdefinierten Trainingscode ausführen. Mit Vertex AI sind sowohl AutoML-Training als auch benutzerdefiniertes Training verfügbar. Unabhängig davon, welche Option Sie für das Training nutzen, können Sie mit Vertex AI Modelle speichern, Modelle bereitstellen und Vorhersagen anfordern.

So setzt Vertex AI in den ML-Workflow ein

Sie können Vertex AI zum Verwalten der folgenden Phasen im ML-Workflow verwenden:

  • Dataset erstellen und Daten hochladen.

  • ML-Modell mit Ihren Daten trainieren:

    • Modell trainieren
    • Modellgenauigkeit bewerten
    • Hyperparameter abstimmen (nur benutzerdefiniertes Training)
  • Laden Sie Ihr Modell in Vertex AI hoch und speichern Sie es.

  • Stellen Sie Ihr trainiertes Modell auf einem Endpunkt bereit, um Vorhersagen bereitzustellen.

  • Vorhersageanfragen an den Endpunkt senden.

  • Für den Endpunkt eine Trafficaufteilung für die Vorhersage angeben.

  • Modelle und Endpunkte verwalten.

Komponenten von Vertex AI

In diesem Abschnitt werden die einzelnen Komponenten von Vertex AI und ihr primärer Zweck beschrieben.

Training

Sie können Modelle auf Vertex AI mit AutoML trainieren oder benutzerdefiniertes Training verwenden, wenn Sie eine breitere Palette an Anpassungsoptionen in AI Platform Training benötigen.

Beim benutzerdefinierten Training können Sie viele verschiedene Maschinentypen auswählen, um Ihre Trainingsjobs zu meistern, verteiltes Training zu ermöglichen, die Hyperparameter-Abstimmung zu verwenden und das Training mit GPUs zu beschleunigen.

Modelle für Vorhersagen bereitstellen

Sie können Modelle auf Vertex AI bereitstellen und einen Endpunkt für Vorhersagen über die Vertex AI erhalten.

Sie können Modelle in Vertex AI bereitstellen, unabhängig davon, ob das Modell in Vertex AI trainiert wurde.

Daten-Labeling

Mit Jobs zur Labelerstellung für Daten können Sie eine Labelerstellung durch Menschen für ein Dataset anfordern, das Sie zum Trainieren eines benutzerdefinierten Modells für maschinelles Lernen verwenden möchten. Zur Labelerstellung für Video-, Bild- oder Textdaten senden Sie dann eine entsprechende Anfrage.

Beim Senden einer Anfrage zur Labelerstellung stellen Sie ein repräsentatives Beispiel von Daten bereit, die bereits mit Labels versehen sind, geben alle infrage kommenden Labels für Ihr Dataset an und legen eine Anleitung zum Anwenden dieser Labels fest. Die Personen, die die Labels erstellen, folgen dann dieser Anleitung. Wenn die Anfrage zur Labelerstellung abgeschlossen ist, erhalten Sie ein annotiertes Dataset, mit dem Sie ein Modell für maschinelles Lernen trainieren können.

Feature Store

Feature Store ist ein vollständig verwaltetes Repository, in dem Sie ML-Featurewerte in Ihrer Organisation aufnehmen, bereitstellen und teilen können. Feature Store verwaltet die zugrunde liegende Infrastruktur für Sie. Beispielsweise werden Speicher- und Rechenressourcen für Sie bereitgestellt und können einfach nach Bedarf skaliert werden.

Tools für die Interaktion mit Vertex AI

In diesem Abschnitt werden die Tools beschrieben, die Sie zur Interaktion mit Vertex AI verwenden.

Google Cloud Console

Sie können Modelle in der Cloud bereitstellen und Ihre Datasets, Modelle, Endpunkte und Jobs in der Cloud Console verwalten. Diese Option bietet eine Benutzeroberfläche, in der Sie mit Ihren Ressourcen für maschinelles Lernen arbeiten können. Als Teil von Google Cloud sind Ihre Vertex AI-Ressourcen mit nützlichen Tools wie Cloud Logging und Cloud Monitoring verbunden. Die beste Möglichkeit, die Cloud Console zu verwenden, ist die Dashboard-Seite des Abschnitts "Vertex AI":

Seite "Dashboard" öffnen

Cloud-Clientbibliotheken

Vertex AI stellt Clientbibliotheken für einige Sprachen bereit, die Ihnen beim Aufrufen der Vertex AI API helfen. Die Clientbibliotheken erleichtern Entwicklern die Programmierung, da die natürlichen Konventionen und Stile der jeweils unterstützten Sprache verwendet werden. Weitere Informationen zu den unterstützten Sprachen und zu ihrer Installation finden Sie unter Clientbibliotheken installieren.

Alternativ können Sie mit den Google API-Clientbibliotheken über andere Sprachen wie Dart auf die Vertex AI API zugreifen. Wenn Sie die Google API-Clientbibliotheken verwenden, erstellen Sie Darstellungen der von der API verwendeten Ressourcen und Objekte. Dies ist einfacher und erfordert weniger Code als das direkte Arbeiten mit HTTP-Anfragen.

REST API

Die Vertex AI REST API bietet RESTful-Dienste zum Verwalten von Jobs, Modellen und Endpunkten sowie zum Erstellen von Vorhersagen mit gehosteten Modellen in Google Cloud.

Notebooks

Mit Notebooks können Sie VM-Instanzen erstellen und verwalten, die bereits JupyterLab enthalten.

Notebooks-Instanzen enthalten eine vorinstallierte Suite von Deep-Learning-Paketen mit Unterstützung für TensorFlow- und PyTorch-Frameworks. Sie können je nach Ihren Anforderungen entweder ausschließlich CPU-basierte oder GPU-fähige Instanzen konfigurieren.

Ihre Notebooks-Instanzen sind durch die Authentifizierungs- und Autorisierungsfunktion von Google Cloud geschützt und über eine Notebook-Instanz-URL verfügbar. Notebook-Instanzen sind außerdem in GitHub eingebunden, sodass sich Ihr Notebook problemlos mit einem GitHub-Repository synchronisieren lässt.

Weitere Informationen finden Sie unter Notebooks mit Vertex AI verwenden.

Deep-Learning-VM-Images

Deep Learning VM-Images sind virtuelle Maschinen-Images, die für Aufgaben in den Bereichen Data Science und maschinelles Lernen optimiert sind. Alle Images enthalten vorinstallierte zentrale ML-Frameworks und -Tools. Sie können diese sofort in Instanzen mit GPUs verwenden, um die Datenverarbeitung zu beschleunigen.

Deep Learning VM Images unterstützen viele Framework/Prozessor-Kombinationen. Derzeit gibt es Images, die TensorFlow Enterprise, TensorFlow, PyTorch und generisches Hochleistungs-Computing unterstützen. Einige Versionen unterstützen sowohl ausschließlich CPU-basierte als auch GPU-fähige Workflows.

Eine Liste der verfügbaren Frameworks finden Sie unter Image auswählen.

Weitere Informationen finden Sie unter Deep Learning VM Images und Deep Learning Container mit Vertex AI verwenden.

Deep Learning Container

AI Platform Deep Learning Container sind eine Reihe von Docker-Containern, in denen wichtige Data-Science-Frameworks, -Bibliotheken und -Tools vorinstalliert sind. Diese Container bieten leistungsoptimierte, konsistente Umgebungen, mit denen Sie schnell Prototypen erstellen und Workflows implementieren können.

Weitere Informationen finden Sie unter Deep Learning VM Images und Deep Learning Container mit Vertex AI verwenden.

Nächste Schritte