Vorhersagen von einem benutzerdefinierten Modell abrufen

Eine Vorhersage ist die Ausgabe eines trainierten Modells für maschinelles Lernen. Diese Seite bietet einen Überblick über den Workflow zum Abrufen von Vorhersagen aus Ihren Modellen in Vertex AI.

Vertex AI bietet zwei Methoden zum Abrufen von Vorhersagen:

  • Onlinevorhersagen sind synchrone Anfragen an einen Modell-endpoint. Bevor Sie eine Anfrage senden, müssen Sie zuerst die model-Ressource in einem endpoint bereitstellen. Dadurch werden dem Modell Rechenressourcen zugeordnet, sodass es Onlinevorhersagen mit niedriger Latenz bereitstellen kann. Verwenden Sie Onlinevorhersagen, wenn Sie Anfragen als Reaktion auf Anwendungseingaben stellen oder wenn zeitnahe Inferenzen erforderlich sind.

  • Batchvorhersagen sind asynchrone Anfragen. Sie fordern einen batchPredictionsJob direkt von der model-Ressource an, ohne das Modell auf einem Endpunkt bereitstellen zu müssen. Verwenden Sie Batchvorhersagen, wenn Sie nicht sofort eine Antwort benötigen und akkumulierte Daten in einer einzigen Anfrage verarbeiten möchten.

Modell lokal testen

Bevor Sie Vorhersagen abrufen, ist es sinnvoll, Ihr Modell während der Entwicklungs- und Testphase auf einem lokalen Endpunkt bereitzustellen. So können Sie sowohl schneller iterieren als auch Ihr Modell testen, ohne es auf einem Onlineendpunkt bereitstellen und ohne dass Vorhersagekosten anfallen. Die lokale Bereitstellung ist für lokale Entwicklung und Tests vorgesehen, nicht für die Produktionsbereitstellung.

Wenn Sie ein Modell lokal bereitstellen möchten, verwenden Sie das Vertex AI SDK für Python und stellen Sie ein LocalModel auf einem LocalEndpoint bereit. Eine Demonstration finden Sie in diesem Notebook.

Auch wenn Ihr Client nicht in Python geschrieben ist, können Sie das Vertex AI SDK für Python verwenden, um den Container und den Server zu starten, sodass Sie Anfragen von Ihrem Client testen können.

Vorhersagen von benutzerdefinierten trainierten Modellen abrufen

Damit Sie Vorhersagen abrufen können, müssen Sie zuerst das Modell importieren. Nach dem Import wird sie zu einer model-Ressource, die in Vertex AI Model Registry sichtbar ist.

Anschließend erfahren Sie in der folgenden Dokumentation, wie Sie Vorhersagen abrufen:

Nächste Schritte