Einführung in AI Platform

Mit AI Platform können Sie Modelle für maschinelles Lernen in großem Umfang trainieren, trainierte Modelle in der Cloud hosten und Modelle für Vorhersagen zu neuen Daten verwenden.

AI Platform in den ML-Workflow einbinden

Das folgende Diagramm bietet eine Übersicht über die verschiedenen Phasen in einem ML-Workflow. Die blauen Felder zeigen, wo AI Platform verwaltete Dienste und APIs bereitstellt:

ML-Workflow
ML-Workflow

Das Diagramm stellt dar, wie Sie mit AI Platform die folgenden Phasen des ML-Workflows verwalten können:

  • ML-Modell mit Ihren Daten trainieren:

    • Modell trainieren
    • Modellgenauigkeit bewerten
    • Hyperparameter abstimmen
  • Erstellen des trainierten Modells

  • Senden von Vorhersageanfragen an Ihr Modell:

    • Onlinevorhersage
    • Batchvorhersage (nur für TensorFlow)
  • Fortlaufendes Überwachen der Vorhersagen

  • Modelle und Versionen verwalten

Komponenten von AI Platform

In diesem Abschnitt werden die einzelnen Komponenten von AI Platform und ihr jeweiliger Hauptzweck erläutert.

Trainingsdienst

Der AI Platform-Trainingsdienst bietet eine breite Palette unterschiedlicher Optionen, mit denen sich das Training von Modellen anpassen lässt.

Sie können viele verschiedene Maschinentypen auswählen, um Ihre Trainingsaufgaben zu meistern, verteiltes Training zu ermöglichen, die Hyperparameter-Abstimmung zu verwenden und das Training mit GPUs und TPUs zu beschleunigen.

Außerdem stehen Ihnen verschiedene Optionen zum Anpassen Ihrer Trainingsanwendung zur Wahl. Sie können Ihre Eingabedaten an AI Platform senden, um Modelle mit einem integrierten Algorithmus (Beta) zu trainieren. Sollten die integrierten Algorithmen für Ihren Anwendungsfall nicht geeignet sein, können Sie eine eigene Trainingsanwendung zur Ausführung in AI Platform senden. Sie können auch einen benutzerdefinierten Container erstellen, der die Trainingsanwendung und ihre Abhängigkeiten enthält.

Vorhersagedienst

Mit dem AI Platform-Vorhersagedienst können Sie Vorhersagen mithilfe eines trainierten Modells treffen, unabhängig davon, ob das Modell in AI Platform trainiert wurde.

Data Labeling Service

Mit dem AI Platform Data Labeling Service (Beta) können Sie eine Labelerstellung durch Menschen für ein Dataset anfordern, das Sie zum Trainieren eines benutzerdefinierten Modells für maschinelles Lernen verwenden möchten. Zur Labelerstellung für Video-, Bild- oder Textdaten senden Sie dann eine entsprechende Anfrage.

Beim Senden einer Anfrage zur Labelerstellung stellen Sie ein repräsentatives Beispiel von Daten bereit, die bereits mit Labels versehen sind, geben alle infrage kommenden Labels für Ihr Dataset an und legen eine Anleitung zum Anwenden dieser Labels fest. Die Personen, die die Labels erstellen, folgen dann dieser Anleitung. Wenn die Anfrage zur Labelerstellung abgeschlossen ist, erhalten Sie ein annotiertes Dataset, mit dem Sie ein Modell für maschinelles Lernen trainieren können.

Tools zur Interaktion mit AI Platform

In diesem Abschnitt werden die Tools beschrieben, die Sie zur Interaktion mit AI Platform verwenden.

Google Cloud Console

Sie können Modelle in der Cloud bereitstellen und diese sowie Versionen und Jobs in der Google Cloud Console verwalten. Diese Option bietet eine Benutzeroberfläche, in der Sie mit Ihren Ressourcen für maschinelles Lernen arbeiten können. Als Teil von Google Cloud sind Ihre AI Plattform-Ressourcen mit nützlichen Tools wie Cloud Logging und Cloud Monitoring verbunden.

Die Google Cloud CLI

Mit dem gcloud ai-platform-Befehlszeilentool können Sie Ihre Modelle und Versionen verwalten, Jobs senden und andere Aufgaben in AI Plattform über die Befehlszeile ausführen.

Wir empfehlen gcloud-Befehle für die meisten AI Platform-Aufgaben und die REST API (siehe unten) für Onlinevorhersagen.

REST API

Die REST API von AI Platform bietet RESTful-Dienste zum Verwalten von Jobs, Modellen und Versionen sowie zum Erstellen von Vorhersagen mit gehosteten Modellen in Google Cloud.

Sie können die Google API-Clientbibliothek für Python verwenden, um auf die APIs zuzugreifen. Bei der Verwendung der Clientbibliothek verwenden Sie Python-Darstellungen der von der API verwendeten Ressourcen und Objekte. Dies ist einfacher und erfordert weniger Code als das direkte Arbeiten mit HTTP-Anfragen.

Wir empfehlen die REST API vor allem für das Bereitstellen von Onlinevorhersagen.

Vertex AI Workbench: Nutzerverwaltete Notebooks

Mit nutzerverwalteten Vertex AI Workbench-Notebook-Instanzen können Sie Deep Learning-VM-Instanzen erstellen und verwalten, die bereits JupyterLab enthalten.

Nutzerverwaltete Notebookinstanzen enthalten eine vorinstallierte Suite von Deep-Learning-Paketen mit Unterstützung für die TensorFlow- und PyTorch-Frameworks. Sie können entweder ausschließlich CPU-basierte oder GPU-fähige Instanzen konfigurieren.

Ihre nutzerverwalteten Notebookinstanzen werden durch die Authentifizierungs- und Autorisierungsfunktion von Google Cloud geschützt und sind über eine URL für nutzerverwaltete Notebookinstanzen verfügbar. Nutzerverwaltete Notebookinstanzen können auch in GitHub eingebunden und mit einem GitHub-Repository synchronisiert werden.

Weitere Informationen finden Sie in der Dokumentation zu nutzerverwalteten Notebooks.

Deep Learning VM

Deep Learning VM-Images sind virtuelle Maschinen-Images, die für Aufgaben in den Bereichen Data Science und maschinelles Lernen optimiert sind. Alle Images enthalten vorinstallierte zentrale ML-Frameworks und -Tools. Sie können diese sofort in Instanzen mit GPUs verwenden, um die Datenverarbeitung zu beschleunigen.

Deep Learning VM Images unterstützen viele Framework/Prozessor-Kombinationen. Derzeit gibt es Images, die TensorFlow Enterprise, TensorFlow, PyTorch und generisches Hochleistungs-Computing unterstützen. Einige Versionen unterstützen sowohl ausschließlich CPU-basierte als auch GPU-fähige Workflows.

Eine Liste der verfügbaren Frameworks finden Sie unter Image auswählen.

Weitere Informationen finden Sie in der Dokumentation zu Deep Learning VM.

Nächste Schritte