Projekte, Modelle, Versionen und Jobs

Bei vielen Begriffen im Bereich des maschinellen Lernens (ML) ist die Bedeutung vom Kontext abhängig. In diesem Abschnitt werden einige Begriffe definiert, die in der vorliegenden Dokumentation verwendet werden.

Projekte, Modelle, Versionen und Jobs

Projekt
Mit Projekt wird das Google Cloud-Projekt bezeichnet. Es ist der logische Container für Ihre bereitgestellten Modelle und Jobs. Für jedes Projekt, das Sie zum Entwickeln von AI Platform Prediction-Lösungen verwenden, muss AI Platform Prediction aktiviert sein. Ihr Google-Konto kann Zugriff auf mehrere Google Cloud-Projekte haben.
Modell
Beim ML stellt ein model die Lösung für ein Problem dar, an dem Sie arbeiten. Es ist also das Schema für das Vorhersagen eines Werts aus Daten. In AI Platform Prediction ist ein Modell ein logischer Container für einzelne Versionen dieser Lösung. Angenommen, Sie möchten den Verkaufspreis von Häusern anhand von Daten früherer Verkäufe vorhersagen. Dazu erstellen Sie in AI Platform Prediction ein Modell namens housing_prices und testen mehrere Techniken des maschinellen Lernens, mit denen das Problem gelöst werden soll. In jeder Phase können Sie Versionen dieses Modells bereitstellen. Jede Version kann sich komplett von allen anderen unterscheiden, wobei sich aber alle Versionen unter demselben Modell zusammenfassen lassen, wenn dies für Ihren Workflow geeignet ist.
Trainiertes Modell
Ein trainiertes Modell beinhaltet den Status des Berechnungsmodells und seiner Einstellungen nach dem Training.
Gespeichertes Modell
Mit den meisten Frameworks für maschinelles Lernen können Sie die Informationen Ihres trainierten Modells serialisieren und eine Datei als gespeichertes Modell erstellen, das Sie für die Vorhersage in der Cloud bereitstellen können.
Modellversion
Eine Modellversion (oder einfach Version) ist die Instanz einer Lösung für maschinelles Lernen, die im AI Platform Prediction-Modelldienst gespeichert ist. Sie erstellen eine Version durch Übergabe eines serialisierten, trainierten Modells (als gespeichertes Modell) an den Dienst. Mit dem Erstellen einer Version können Sie auch benutzerdefinierten Code (Beta) für die Verarbeitung von Vorhersagen bereitstellen.
Job
Zur Interaktion mit den Diensten von AI Platform Prediction initiieren Sie Anfragen und Jobs. Diese Anfragen sind reguläre Web-API-Anfragen, die so schnell wie möglich eine Antwort zurückgeben. Jobs sind lang andauernde Vorgänge, die asynchron verarbeitet werden. AI Platform Prediction bietet Trainings- und Batchvorhersagejobs. Senden Sie eine Anfrage, um den Job zu starten und eine schnelle Antwort zu erhalten, die den Jobstatus verifiziert. Anschließend können Sie den Status periodisch abfragen, um den Fortschritt Ihres Jobs zu überprüfen.

Modelle verpacken, testen, exportieren und bereitstellen

Sie verschieben Modelle und Daten, insbesondere zwischen Ihrer lokalen Umgebung und Cloud Storage sowie zwischen Cloud Storage und den AI Platform Prediction-Diensten. In dieser Dokumentation werden die folgenden Begriffe verwendet, um bestimmte Vorgänge innerhalb des Prozesses zu bezeichnen.

Paket
Sie erstellen für Ihre Trainingsanwendung ein Paket, damit der AI Platform Prediction-Trainingsdienst diese auf jeder Trainingsinstanz installieren kann. Beim Erstellen eines Anwendungspakets wird daraus ein standardmäßiges Python-Distributionspaket generiert. Wenn Sie benutzerdefinierten Code für die Vorhersage bereitstellen (Beta), wird auch für den Code zur Verarbeitung von Vorhersagen ein Paket erstellt.
Testen
Sie testen Ihr Trainingsanwendungspaket in einem Cloud Storage-Bucket, auf den Ihr Projekt Zugriff hat. Dadurch kann der Trainingsdienst auf das Paket zugreifen und es in alle Trainingsinstanzen kopieren. Sie testen auch ein gespeichertes Modell, das an anderer Stelle in einem Cloud Storage-Bucket trainiert wurde, auf den Ihr Projekt zugreifen kann. Dadurch kann der Onlinevorhersagedienst auf das Modell zugreifen und es bereitstellen. Wenn Sie benutzerdefinierten Code für die Vorhersage bereitstellen (Beta), wird außerdem ein Staging des Pakets mit dem benutzerdefinierten Code in Cloud Storage ausgeführt, damit der Onlinevorhersagedienst während der Bereitstellung darauf zugreifen kann.
Exportieren
In dieser Dokumentation bezeichnet im Zusammenhang mit Modellen für maschinelles Lernen der Begriff Exportieren die Serialisierung Ihres Berechnungsmodells und der Einstellungen in einer Datei. Zum Exportieren verwenden Sie das gespeicherte Modell und Objekte.
Bereitstellen
Das deploy einer Modellversion findet beim Erstellen einer Versionsressource statt. Sie geben ein exportiertes Modell (ein gespeichertes Modellverzeichnis) und eine Modellressource an, der die Version zugewiesen wird, und AI Platform Prediction hostet die Version, sodass Sie Vorhersagen an diese Version senden können. Wenn Sie benutzerdefinierten Code für die Vorhersage (Beta) bereitstellen, wird dabei auch ein Paket mit dem benutzerdefinierten Code zur Verfügung gestellt.

Nächste Schritte