Vorhersagen mit scikit-learn-Pipelines

In dieser Anleitung trainieren Sie mit dem Iris-Dataset ein einfaches Modell zur Vorhersage von Blumenarten. Nachdem Sie das Modell lokal trainiert und gespeichert haben, stellen Sie es auf AI Platform bereit und senden Anfragen, um Onlinevorhersagen zu erhalten.

Sie können scikit-learn-Pipelines auf AI Platform bereitstellen. Bevor Sie das Training mit einem Estimator beginnen, können Sie mit dem Pipelinemodul in scikit-learn mehrere Datentransformationen anwenden. Dies umfasst mehrere Schritte der Datenverarbeitung und bei jedem Schritt werden dieselben Trainingsdaten verwendet.

Für diese Anleitung ist Python 2.7 erforderlich. Informationen zur Verwendung von Python 3.5 finden Sie unter Onlinevorhersagen mit XGBoost abrufen oder unter Onlinevorhersagen mit scikit-learn abrufen.

Übersicht

Diese einführende Anleitung beschreibt die folgenden Schritte:

  • scikit-learn-Pipeline zum Trainieren eines Modells mit dem Iris-Dataset verwenden
  • Modell lokal speichern
  • Gespeichertes Modell in Cloud Storage hochladen
  • AI Platform-Modellressource und -Modellversion erstellen
  • Onlinevorhersagen für zwei Dateninstanzen abrufen

Vorbereitung

Führen Sie folgende Schritte aus, um ein GCP-Konto einzurichten, die AI Platform API zu aktivieren und das Cloud SDK zu installieren und zu aktivieren.

GCP-Projekt einrichten

  1. Melden Sie sich in Ihrem Google-Konto an.

    Wenn Sie noch kein Konto haben, registrieren Sie sich hier für ein neues Konto.

  2. Wählen Sie ein Google Cloud Platform-Projekt aus oder erstellen Sie eines.

    Zur Seite "Ressourcen verwalten"

  3. Prüfen Sie, ob die Abrechnung für Ihr Google Cloud Platform-Projekt aktiviert ist.

    Informationen zum Aktivieren der Abrechnung

  4. Aktivieren Sie die AI Platform ("Cloud Machine Learning Engine") and Compute Engine erforderlichen APIs.

    Aktivieren Sie die APIs.

  5. Installieren und initialisieren Sie das Cloud SDK.

Umgebung einrichten

Wählen Sie eine der folgenden Optionen aus, um Ihre Umgebung lokal auf macOS oder in einer Remoteumgebung in Cloud Shell einzurichten.

Nutzern von macOS wird empfohlen, ihre Umgebung mit dem Tab MACOS einzurichten. Cloud Shell ist unter macOS, Linux und Windows verfügbar. Die entsprechende Anleitung finden Sie auf dem Tab CLOUD SHELL. Cloud Shell bietet eine schnelle Möglichkeit für den Test von AI Platform, eignet sich jedoch nicht für fortlaufende Entwicklungsarbeiten.

macOS

  1. Python-Installation überprüfen
    Prüfen Sie, ob Python installiert ist, und installieren Sie es gegebenenfalls.

    python -V
  2. pip-Installation überprüfen
    pip ist der Paketmanager von Python, der in aktuellen Versionen von Python enthalten ist. Mit pip --version können Sie prüfen, ob pip bereits installiert ist. Ist dies nicht der Fall, lesen Sie die Anleitung zum Installieren von pip.

    Mit dem folgenden Befehl können Sie ein Upgrade von pip ausführen:

    pip install -U pip

    Weitere Informationen finden Sie in der Dokumentation zu pip.

  3. virtualenv installieren
    virtualenv ist ein Tool, mit dem sich isolierte Python-Umgebungen erstellen lassen. Überprüfen Sie mit virtualenv --version, ob virtualenv bereits installiert ist. Wenn nicht, installieren Sie virtualenv:

    pip install --user --upgrade virtualenv

    Zur Einrichtung einer isolierten Entwicklungsumgebung für diese Anleitung erstellen Sie in virtualenv eine neue virtuelle Umgebung. Mit dem folgenden Befehl wird beispielsweise eine Umgebung mit dem Namen cmle-env aktiviert:

    virtualenv cmle-env
    source cmle-env/bin/activate
  4. Führen Sie für diese Anleitung die übrigen Befehle in Ihrer virtuellen Umgebung aus.

    Hier finden Sie weitere Informationen zur Verwendung von virtualenv. Führen Sie deactivate zum Beenden von virtualenv aus.

Cloud Shell

  1. Öffnen Sie die Google Cloud Platform Console.

    Zur Google Cloud Platform Console

  2. Klicken Sie im oberen Fensterbereich der Console auf Cloud Shell aktivieren.

    Google Cloud Shell aktivieren

    In einem neuen Frame im unteren Teil der Console wird eine Cloud Shell-Sitzung geöffnet und darin eine Eingabeaufforderung angezeigt. Die Initialisierung der Shell-Sitzung kann einige Sekunden dauern.

    Cloud Shell-Sitzung

    Die Cloud Shell-Sitzung kann jetzt verwendet werden.

  3. Konfigurieren Sie das Befehlszeilentool gcloud für die Verwendung Ihres ausgewählten Projekts:

    gcloud config set project [selected-project-id]

    Dabei ist [selected-project-id] die Projekt-ID. Geben Sie diese ohne die Klammern ein.

Google Cloud SDK-Komponenten überprüfen

So prüfen Sie, ob die Google Cloud SDK-Komponenten installiert sind:

  1. Listen Sie Ihre Modelle auf:

    gcloud ai-platform models list
  2. Wenn Sie noch keine Modelle erstellt haben, gibt der Befehl eine leere Liste zurück:

    Listed 0 items.

    Nach dem Erstellen von Modellen können Sie diese mit diesem Befehl auflisten.

  3. Wenn Sie gcloud schon installiert haben, aktualisieren Sie gcloud:

    gcloud components update

Frameworks installieren

macOS

Führen Sie in Ihrer virtuellen Umgebung den folgenden Befehl aus, um die in Laufzeitversion 1.14 von AI Platform verwendeten Versionen von scikit-learn und pandas zu installieren:

(cmle-env)$ pip install scikit-learn==0.20.2 pandas==0.24.0

Durch die Angabe von Versionsnummern im vorherigen Befehl sorgen Sie dafür, dass die Abhängigkeiten in Ihrer virtuellen Umgebung mit den Abhängigkeiten in der Laufzeitversion übereinstimmen. Hierdurch wird unerwartetes Verhalten verhindert, wenn Ihr Code auf AI Platform ausgeführt wird.

Weitere Informationen, Hinweise zu weiteren Installationsoptionen und Informationen zur Fehlerbehebung finden Sie in den Installationsanleitungen für die einzelnen Frameworks:

Cloud Shell

Führen Sie den folgenden Befehl aus, um scikit-learn und pandas zu installieren:

pip install --user scikit-learn pandas

Weitere Informationen, Hinweise zu weiteren Installationsoptionen und Informationen zur Fehlerbehebung finden Sie in den Installationsanleitungen für die einzelnen Frameworks:

Modell trainieren und exportieren

Sie können Pipeline-Objekte mit joblib oder pickle exportieren, ähnlich wie Sie scikit-learn-Estimators exportieren. Im folgenden Beispiel wird eine Pipeline eingerichtet, die einen RandomForestClassifier zum Trainieren eines Modells im Iris-Dataset verwendet.

joblib

Richten Sie die Pipeline ein, trainieren Sie das Modell und verwenden Sie joblib, um das Pipeline-Objekt zu exportieren:

from sklearn import datasets
from sklearn import svm
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
from sklearn.ensemble import RandomForestClassifier
from sklearn.pipeline import Pipeline

from sklearn.externals import joblib

# Load the Iris dataset
iris = datasets.load_iris()

# Set up a pipeline with a feature selection preprocessor that
# selects the top 2 features to use.
# The pipeline then uses a RandomForestClassifier to train the model.

pipeline = Pipeline([
      ('feature_selection', SelectKBest(chi2, k=2)),
      ('classification', RandomForestClassifier())
    ])

pipeline.fit(iris.data, iris.target)

# Export the classifier to a file
joblib.dump(pipeline, 'model.joblib')

pickle

Richten Sie die Pipeline ein, trainieren Sie das Modell und verwenden Sie pickle, um das Pipeline-Objekt zu exportieren:

from sklearn import datasets
from sklearn import svm
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
from sklearn.ensemble import RandomForestClassifier
from sklearn.pipeline import Pipeline

import pickle

# Load the Iris dataset
iris = datasets.load_iris()

# Set up a pipeline with a feature selection preprocessor that
# selects the top 2 features to use.
# The pipeline then uses a RandomForestClassifier to train the model.

pipeline = Pipeline([
      ('feature_selection', SelectKBest(chi2, k=2)),
      ('classification', RandomForestClassifier())
    ])

pipeline.fit(iris.data, iris.target)

# Export the classifier to a file
with open('model.pkl', 'wb') as model_file:
  pickle.dump(pipeline, model_file)

Anforderungen für die Benennung von Modelldateien

Je nach verwendeter Bibliothek ist es notwendig, dass die in Cloud Storage hochgeladene gespeicherte Modelldatei einen der folgenden Namen hat: model.pkl oder model.joblib. Diese Einschränkung gewährleistet, dass AI Platform zur Modellrekonstruktion beim Importieren das gleiche Muster verwendet, das auch beim Exportieren verwendet wurde.

Zum Exportieren des Modells verwendete Bibliothek Korrekter Modellname
pickle model.pkl
joblib model.joblib

Organisieren Sie bei zukünftigen Iterationen Ihres Modells den Cloud Storage-Bucket so, dass jedes neue Modell ein eigenes Verzeichnis hat.

Modell in Cloud Storage speichern

Für diese Anleitung ist es am einfachsten, einen dedizierten Cloud Storage-Bucket in demselben Projekt wie die AI Platform zu verwenden.

Wenn Sie einen Bucket in einem anderen Projekt verwenden, müssen Sie dafür sorgen, dass Ihr AI Platform-Dienstkonto auf das Modell in Cloud Storage zugreifen kann. Ohne die entsprechenden Berechtigungen schlägt die Anfrage zum Erstellen einer AI Platform-Modellversion fehl. Weitere Informationen zum Gewähren von Berechtigungen für Cloud Storage.

Cloud Storage-Bucket einrichten

In diesem Abschnitt erfahren Sie, wie Sie einen neuen Bucket einrichten. Sie können auch einen vorhandenen Bucket verwenden. Wenn er jedoch nicht Teil des zum Ausführen von AI Platform verwendeten Projekts ist, müssen Sie den AI Platform-Dienstkonten explizit Zugriff darauf gewähren.

  1. Geben Sie einen Namen für den neuen Bucket an. Der Name muss sich von allen anderen Bucket-Namen in Cloud Storage unterscheiden:

    BUCKET_NAME="your_bucket_name"

    Verwenden Sie beispielsweise den Projektnamen mit angehängtem -mlengine:

    PROJECT_ID=$(gcloud config list project --format "value(core.project)")
    BUCKET_NAME=${PROJECT_ID}-mlengine
  2. Überprüfen Sie den erstellten Bucket-Namen:

    echo $BUCKET_NAME
  3. Wählen Sie eine Region für den Bucket aus und legen Sie eine Umgebungsvariable REGION fest.

    Beispielsweise wird mit dem folgenden Code die Umgebungsvariable REGION erstellt und dafür als Wert us-central1 festgelegt:

    REGION=us-central1
  4. Erstellen Sie den neuen Bucket:

    gsutil mb -l $REGION gs://$BUCKET_NAME

    Hinweis: Verwenden Sie dieselbe Region, in der die AI Platform-Jobs ausgeführt werden sollen. Im Beispiel ist us-central1 angegeben, da diese Region im Startleitfaden verwendet wird.

Exportierte Modelldatei in Cloud Storage hochladen

Führen Sie den folgenden Befehl aus, um die gespeicherte Pipeline-Datei in den Bucket in Cloud Storage hochzuladen:

gsutil cp ./model.joblib gs://$BUCKET_NAME/model.joblib

Sie können für mehrere Modelldateien denselben Cloud Storage-Bucket verwenden. Jede Modelldatei muss sich aber innerhalb des Buckets in einem eigenen Verzeichnis befinden.

Eingabe für die Vorhersage formatieren

gcloud

Erstellen Sie eine Datei input.json mit jeder Eingabeinstanz in einer separaten Zeile:

[6.8,  2.8,  4.8,  1.4]
[6.0,  3.4,  4.5,  1.6]

Das Format der Eingabeinstanzen muss mit den Erwartungen Ihres Modells übereinstimmen. In diesem Beispiel benötigt das Iris-Modell vier Merkmale. Ihre Eingabe muss also eine Matrix in der Form (num_instances, 4) sein.

REST API

Erstellen Sie eine Datei input.json, die als einfache Liste aus Gleitkommazahlen formatiert ist und in der sich jede Eingabeinstanz in einer separaten Zeile befindet:

{
  "instances": [

    [6.8,  2.8,  4.8,  1.4],
    [6.0,  3.4,  4.5,  1.6]

  ]
}

Das Format der Eingabeinstanzen muss mit den Erwartungen Ihres Modells übereinstimmen. In diesem Beispiel benötigt das Iris-Modell vier Funktionen. Ihre Eingabe muss also eine Matrix in der Form (num_instances, 4) sein.

Weitere Informationen finden Sie unter Eingabe für Onlinevorhersagen formatieren.

Modell mit lokalen Vorhersagen testen

Sie können mit dem Befehl gcloud ai-platform local predict testen, wie Ihr Modell Vorhersagen durchführt, bevor Sie es für AI Platform-Vorhersage bereitstellen. Der Befehl verwendet Abhängigkeiten in Ihrer lokalen Umgebung, um Vorhersagen durchzuführen, und gibt Ergebnisse im selben Format zurück, das gcloud ai-platform predict bei Onlinevorhersagen verwendet. Lokale Vorhersagen können Ihnen dabei helfen, Fehler zu erkennen, bevor Kosten für Onlinevorhersageanfragen entstehen.

Geben Sie für das Argument --model-dir ein Verzeichnis an, das Ihr exportiertes Modell für maschinelles Lernen enthält und das sich entweder auf Ihrem lokalen Computer oder in Cloud Storage befindet. Geben Sie für das Argument --framework tensorflow, scikit-learn oder xgboost an. Sie können den Befehl gcloud ai-platform local predict mit einer benutzerdefinierten Vorhersageroutine verwenden.

Das folgende Beispiel zeigt, wie lokale Vorhersagen durchgeführt werden:

gcloud ai-platform local predict --model-dir local-or-cloud-storage-path-to-model-directory/ \
  --json-instances local-path-to-prediction-input.json \
  --framework name-of-framework

Modelle und Versionen bereitstellen

AI Platform organisiert Ihre trainierten Modelle nach Modell- und Versionsressourcen. Ein AI Platform-Modell ist ein Container für die Versionen Ihres Modells für maschinelles Lernen.

Zum Bereitstellen eines Modells legen Sie eine Modellressource auf AI Platform an, erstellen eine Version dieses Modells und verknüpfen dann die Modellversion mit der in Cloud Storage gespeicherten Modelldatei.

Modellressource erstellen

AI Platform verwendet Modellressourcen, um verschiedene Versionen Ihres Modells zu organisieren.

Console

  1. Öffnen Sie die Seite der AI Platform-Modelle in der GCP Console.

    Zur Seite "Modelle" in der GCP Console

  2. Erstellen Sie gegebenenfalls das Modell, dem Sie eine neue Version hinzufügen möchten:

    1. Klicken Sie oben auf der Seite Modelle auf die Schaltfläche Neues Modell. Dadurch gelangen Sie auf die Seite Modell erstellen.

    2. Geben Sie in das Feld Modellname einen Namen für Ihr Modell ein. Geben Sie optional in das Feld Beschreibung eine Beschreibung für das Modell ein.

    3. Klicken Sie auf Erstellen.

    4. Achten Sie darauf, dass Sie sich wieder auf der Seite Modelle befinden und das neue Modell in der Liste angezeigt wird.

gcloud

Erstellen Sie eine Modellressource für Ihre Modellversionen und geben Sie den gewünschten Namen für das Modell ohne die Klammern ein:

gcloud ai-platform models create "[YOUR-MODEL-NAME]"

REST API

  1. Formatieren Sie die Anfrage, indem Sie das Modellobjekt in den Anfragetext einfügen. Sie müssen mindestens den Namen für das Modell angeben. Geben Sie den gewünschten Namen für das Modell ohne die Klammern ein:

    {"name": "[YOUR-MODEL-NAME]"}
    
  2. Senden Sie den REST API-Aufruf an den folgenden Pfad und ersetzen Sie [VALUES_IN_BRACKETS] dabei durch die entsprechenden Werte:

    POST https://ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models/
    

    Hier sehen Sie ein Beispiel für eine Anfrage mit cURL:

    curl -X POST -H "Content-Type: application/json" \
      -d '{"name": "[YOUR-MODEL-NAME]"}' \
      -H "Authorization: Bearer `gcloud auth print-access-token`" \
      "https://ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models"
    

    Die Ausgabe sollte etwa so aussehen:

    {
      "name": "projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]",
      "regions": [
        "us-central1"
      ]
    }
    

Weitere Informationen finden Sie in der AI Platform Model API.

Modellversionen erstellen

Sie können jetzt mit dem trainierten und zuvor in Cloud Storage hochgeladenen Modell eine Modellversion erstellen. Geben Sie dabei die folgenden Parameter an:

  • name: Muss innerhalb des AI Platform-Modells eindeutig sein.
  • deploymentUri: Der Pfad zu Ihrem Modellverzeichnis in Cloud Storage.

    • Wenn Sie ein TensorFlow-Modell bereitstellen, ist dies ein SavedModel-Verzeichnis.
    • Wenn Sie ein Scikit-Learn- oder XGBoost-Modell bereitstellen, ist dies das Verzeichnis, in dem sich Ihre Datei modle.joblib, model.pkl oder model.bst befindet.
    • Wenn Sie eine benutzerdefinierte Vorhersageroutine bereitstellen, befinden sich alle Modellartefakte in diesem Verzeichnis. Die Gesamtgröße dieses Verzeichnisses darf maximal 250 MB betragen.
  • framework: TENSORFLOW, SCIKIT_LEARN oder XGBOOST.

  • runtimeVersion: Eine Laufzeitversion, die auf den Abhängigkeiten basiert, die Ihr Modell benötigt. Wenn Sie ein scikit-learn-Modell oder ein XGBoost-Modell bereitstellen, muss dies mindestens Version 1.4 sein.

  • pythonVersion: Muss auf "3.5" festgelegt sein, um mit von Python 3 exportierten Modelldateien kompatibel zu sein. Ist nichts festgelegt, wird standardmäßig "2.7" verwendet.

Weitere Informationen zu diesen Parametern finden Sie im AI Platform-Training und unter der Prediction API für eine Versionsressource.

Beachten Sie die kompletten Details für jede Laufzeitversion.

Console

  1. Wählen Sie auf der Seite Modelle den Namen der Modellressource aus, die Sie zur Erstellung der Version verwenden möchten. Dadurch gelangen Sie auf die Seite Modelldetails.

    Zur Seite "Modelle" in der GCP Console

  2. Klicken Sie oben auf der Seite Modelldetails auf die Schaltfläche Neue Version. Dadurch gelangen Sie auf die Seite Version erstellen.

  3. Geben Sie in das Feld Name den Versionsnamen ein. Geben Sie optional in das Feld Beschreibung eine Beschreibung für die Version ein.

  4. Geben Sie die Informationen über das Training des Modells in den entsprechenden Drop-down-Menüs ein:

    • Wählen Sie die zum Training Ihres Modells verwendete Python-Version aus.
    • Wählen Sie das Framework und die Framework-Version aus.
    • Wählen Sie die ML-Laufzeitversion aus. Weitere Informationen zu AI Platform-Laufzeitversionen finden Sie hier.
  5. Wählen Sie optional einen Maschinentyp für die Onlinevorhersage aus. Der Standardwert in diesem Feld ist "Single-Core-CPU".

  6. Geben Sie im Feld Modell-URI den Standort des Cloud Storage-Buckets ein, in den Sie die Modelldatei hochgeladen haben. Mit der Schaltfläche Durchsuchen finden Sie den richtigen Pfad.

    Achten Sie darauf, dass Sie den Pfad zu dem Verzeichnis angeben, das die Datei enthält, und nicht den Pfad zur Modelldatei selbst. Verwenden Sie beispielsweise gs://your_bucket_name/model-dir/ anstelle von gs://your_bucket_name/model-dir/saved_model.pb oder gs://your_bucket_name/model-dir/model.pkl.

  7. Wählen Sie eine Skalierungsoption zum Bereitstellen der Onlinevorhersage aus:

    • Wenn Sie "Automatische Skalierung" auswählen, wird das optionale Feld Mindestanzahl von Knoten angezeigt. Geben Sie hier die Mindestanzahl der Knoten ein, die auch dann jederzeit aktiv bleiben sollen, wenn der Dienst herunterskaliert wurde. Der Standardwert in diesem Feld ist "0".

    • Wenn Sie "Manuelle Skalierung" auswählen, geben Sie die Anzahl der Knoten ein, die ständig ausgeführt werden sollen.

      Weitere Informationen finden Sie unter Vorhersagekosten.

  8. Zum Erstellen Ihrer Modellversion klicken Sie auf Speichern.

gcloud

  1. Legen Sie Umgebungsvariablen für den Pfad zum Cloud Storage-Verzeichnis mit der Modellbinärdatei sowie für den Versionsnamen, den Modellnamen und Ihre Framework-Auswahl fest.

    Wenn Sie eine Version mit dem gcloud-Tool erstellen, können Sie den Framework-Namen in Großbuchstaben mit Unterstrichen (z. B. SCIKIT_LEARN) oder in Kleinbuchstaben mit Bindestrichen (z. B. scikit-learn) bereitstellen. Beide Optionen führen zu identischem Verhalten.

    Ersetzen Sie [VALUES_IN_BRACKETS] dabei durch die entsprechenden Werte:

    MODEL_DIR="gs://your_bucket_name/"
    VERSION_NAME="[YOUR-VERSION-NAME]"
    MODEL_NAME="[YOUR-MODEL-NAME]"
    FRAMEWORK="[YOUR-FRAMEWORK_NAME]"
    

  2. Erstellen Sie die Version:

    gcloud ai-platform versions create $VERSION_NAME \
      --model $MODEL_NAME \
      --origin $MODEL_DIR \
      --runtime-version=1.14 \
      --framework $FRAMEWORK \
      --python-version=3.5
    

    Das Erstellen der Version dauert einige Minuten. Wenn sie fertig ist, sollten Sie die folgende Ausgabe sehen:

    Creating version (this might take a few minutes)......done.

  3. Rufen Sie Informationen über Ihre neue Version ab:

    gcloud ai-platform versions describe $VERSION_NAME \
      --model $MODEL_NAME
    

    Die Ausgabe sollte etwa so aussehen:

    createTime: '2018-02-28T16:30:45Z'
    deploymentUri: gs://your_bucket_name
    framework: [YOUR-FRAMEWORK-NAME]
    machineType: mls1-highmem-1
    name: projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions/[YOUR-VERSION-NAME]
    pythonVersion: '3.5'
    runtimeVersion: '1.14'
    state: READY

REST API

  1. Formatieren Sie Ihren Anfragetext so, dass das Versionsobjekt enthalten ist. In diesem Beispiel werden name, deploymentUri, runtimeVersion und framework der Version angegeben. Ersetzen Sie [VALUES_IN_BRACKETS] dabei durch die entsprechenden Werte:

      {
        "name": "[YOUR-VERSION-NAME]",
        "deploymentUri": "gs://your_bucket_name/"
        "runtimeVersion": "1.14"
        "framework": "[YOUR_FRAMEWORK_NAME]"
        "pythonVersion": "3.5"
      }
    
  2. Senden Sie den REST API-Aufruf an den folgenden Pfad und ersetzen Sie [VALUES_IN_BRACKETS] dabei durch die entsprechenden Werte:

      POST https://ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions
    

    Hier sehen Sie ein Beispiel für eine Anfrage mit cURL:

        curl -X POST -H "Content-Type: application/json" \
          -d '{"name": "[YOUR-VERSION-NAME]", "deploymentUri": "gs://your_bucket_name/", "runtimeVersion": "1.14", "framework": "[YOUR_FRAMEWORK_NAME]", "pythonVersion": "3.5"}' \
          -H "Authorization: Bearer `gcloud auth print-access-token`" \
          "https://ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions"
    

    Das Erstellen der Version dauert einige Minuten. Wenn sie fertig ist, sollte die Ausgabe in etwa so aussehen:

      {
        "name": "projects/[YOUR-PROJECT-ID]/operations/create_[YOUR-MODEL-NAME]_[YOUR-VERSION-NAME]-[TIMESTAMP]",
        "metadata": {
          "@type": "type.googleapis.com/google.cloud.ml.v1.OperationMetadata",
          "createTime": "2018-07-07T02:51:50Z",
          "operationType": "CREATE_VERSION",
          "modelName": "projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]",
          "version": {
            "name": "projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions/[YOUR-VERSION-NAME]",
            "deploymentUri": "gs://your_bucket_name",
            "createTime": "2018-07-07T02:51:49Z",
            "runtimeVersion": "1.14",
            "framework": "[YOUR_FRAMEWORK_NAME]",
            "machineType": "mls1-highmem-1",
            "pythonVersion": "3.5"
          }
        }
      }
    

Anfrage für Onlinevorhersage senden

Nachdem Sie eine Version erfolgreich erstellt haben, startet AI Platform einen neuen Server, der Vorhersageanfragen ausführen kann.

gcloud

  1. Legen Sie Umgebungsvariablen für Ihren Modellnamen, den Versionsnamen und den Namen Ihrer Eingabedatei fest:

    MODEL_NAME="pipeline"
    VERSION_NAME="v1"
    INPUT_FILE="input.json"
    
  2. Senden Sie die Vorhersageanfrage:

    gcloud ai-platform predict --model $MODEL_NAME --version \
      $VERSION_NAME --json-instances $INPUT_FILE
    

Python

In diesem Beispiel wird angenommen, dass Sie mit der Google Cloud-Clientbibliothek für Python vertraut sind. Wenn dem nicht so ist, erhalten Sie weitere Informationen unter Python-Clientbibliothek verwenden.

import googleapiclient.discovery

def predict_json(project, model, instances, version=None):
    """Send json data to a deployed model for prediction.
    Args:
        project (str): project where the AI Platform Model is deployed.
        model (str): model name.
        instances ([[float]]): List of input instances, where each input
           instance is a list of floats.
        version: str, version of the model to target.
    Returns:
        Mapping[str: any]: dictionary of prediction results defined by the
            model.
    """
    # Create the AI Platform service object.
    # To authenticate set the environment variable
    # GOOGLE_APPLICATION_CREDENTIALS=<path_to_service_account_file>
    service = googleapiclient.discovery.build('ml', 'v1')
    name = 'projects/{}/models/{}'.format(project, model)

    if version is not None:
        name += '/versions/{}'.format(version)

    response = service.projects().predict(
        name=name,
        body={'instances': instances}
    ).execute()

    if 'error' in response:
        raise RuntimeError(response['error'])

    return response['predictions']

Weitere Informationen zu den Parametern für die Vorhersageeingabe finden Sie unter AI Platform API für die Vorhersageeingabe.

Weitere Informationen

Hat Ihnen diese Seite weitergeholfen? Teilen Sie uns Ihr Feedback mit:

Feedback geben zu...