Modelle bereitstellen

Auf dieser Seite wird beschrieben, wie Sie Ihr Modell in AI Platform bereitstellen, um Vorhersagen zu erhalten.

So stellen Sie Ihr trainiertes Modell in AI Platform bereit:

  • Laden Sie das gespeicherte Modell in einen Cloud Storage-Bucket hoch.
  • Erstellen Sie eine AI Platform-Modellressource.
  • Erstellen Sie eine AI Platform-Versionsressource und geben Sie den Cloud Storage-Pfad zu Ihrem gespeicherten Modell an.

Vorbereitung

Trainieren Sie Ihr Modell für maschinelles Lernen und folgen Sie dem Leitfaden zum Exportieren von Modellen für Vorhersagen, um Modellartefakte zu erstellen, die für AI Platform Prediction bereitgestellt werden können.

Modell in Cloud Storage speichern

In der Regel ist es am einfachsten, einen eigenen Cloud Storage-Bucket in dem Projekt zu verwenden, das Sie für AI Platform nutzen.

Wenn Sie einen Bucket in einem anderen Projekt verwenden, müssen Sie dafür sorgen, dass Ihr AI Platform-Dienstkonto auf das Modell in Cloud Storage zugreifen kann. Ohne die entsprechenden Berechtigungen schlägt die Anfrage zum Erstellen einer AI Platform-Modellversion fehl. Weitere Informationen zum Gewähren von Berechtigungen für Cloud Storage.

Cloud Storage-Bucket einrichten

In diesem Abschnitt erfahren Sie, wie Sie einen neuen Bucket erstellen. Sie können auch einen vorhandenen Bucket verwenden. Dieser muss sich aber in der Region befinden, in der Sie AI Platform-Jobs ausführen. Hinzu kommt: Wenn der Bucket nicht in dem Projekt ist, das Sie für die Ausführung von AI Platform verwenden, müssen Sie den AI Platform-Dienstkonten explizit Zugriff gewähren.

  1. Geben Sie einen Namen für den neuen Bucket an. Der Name muss sich von allen anderen Bucket-Namen in Cloud Storage unterscheiden:

    BUCKET_NAME="your_bucket_name"

    Verwenden Sie beispielsweise den Projektnamen mit angehängtem -mlengine:

    PROJECT_ID=$(gcloud config list project --format "value(core.project)")
    BUCKET_NAME=${PROJECT_ID}-mlengine
  2. Prüfen Sie den erstellten Bucket-Namen.

    echo $BUCKET_NAME
  3. Wählen Sie eine Region für den Bucket aus und legen Sie eine Umgebungsvariable REGION fest.

    Verwenden Sie die Region, in der Sie AI Platform-Jobs ausführen möchten. Hier finden Sie die Regionen, in denen AI Platform-Dienste verfügbar sind.

    Beispielsweise wird mit dem folgenden Code die Umgebungsvariable REGION erstellt und dafür als Wert us-central1 festgelegt:

    REGION=us-central1
  4. Erstellen Sie den neuen Bucket:

    gsutil mb -l $REGION gs://$BUCKET_NAME

Exportiertes Modell in Cloud Storage hochladen

Die folgenden Beispiele zeigen, wie Sie verschiedene Arten von Modellartefakten in ein Modellverzeichnis in Cloud Storage hochladen:

TensorFlow SavedModel

SAVED_MODEL_DIR=$(ls ./your-export-dir-base | tail -1)
gsutil cp -r $SAVED_MODEL_DIR gs://your-bucket

Wenn Sie ein SavedModel aus tf.keras oder einem TensorFlow-Estimator exportieren, wird es mit einem mit Zeitstempel versehenen Unterverzeichnis eines von Ihnen ausgewählten Basis-Exportverzeichnisses wie z. B. your-export-dir-base/1487877383942 gespeichert. In diesem Beispiel wird gezeigt, wie Sie das Verzeichnis mit dem neuesten Zeitstempel hochladen. Wenn Sie das SavedModel auf andere Weise erstellt haben, befindet es sich in Ihrem lokalen Dateisystem möglicherweise an einem anderen Speicherort.

scikit-learn- oder XGBoost-Modelldatei

Je nachdem, wie Sie das trainierte Modell exportiert haben, laden Sie die Datei model.joblib, model.pkl oder model.bst hoch.

Das folgende Beispiel zeigt, wie Sie eine Datei hochladen, die von sklearn.externals.joblib exportiert wurde:

gsutil cp ./model.joblib gs://your-bucket/model.joblib

Das folgende Beispiel zeigt, wie Sie eine Datei hochladen, die mit dem Python-Modul pickle exportiert wurde:

gsutil cp ./model.pkl gs://your-bucket/model.pkl

Das folgende Beispiel zeigt, wie Sie eine Datei hochladen, die mit der Methode save_model von xgboost.Booster exportiert wurde:

gsutil cp ./model.bst gs://your-bucket/model.bst

Wenn Sie eine benutzerdefinierte Vorhersageroutine (Beta) bereitstellen, laden Sie auch alle Modellartefakte in das Modellverzeichnis hoch.

Die Gesamtdateigröße der Dateien Ihres Modellverzeichnisses darf höchstens 500 MB betragen, wenn Sie einen Legacy-Maschinentyp (MLS1) verwenden, bzw. höchstens 2 GB, wenn Sie einen Compute Engine-Maschinentyp (N1) (Beta) nutzen. Weitere Informationen über Maschinentypen für die Onlinevorhersage erhalten Sie unter Maschinentypen für die Onlinevorhersage auswählen.

Wenn Sie weitere Versionen Ihres Modells erstellen, müssen diese jeweils in einem eigenen Verzeichnis in Ihrem Cloud Storage-Bucket gespeichert werden.

Benutzerdefinierten Code hochladen

Wenn Sie eine scikit-learn-Pipeline mit benutzerdefiniertem Code oder eine benutzerdefinierte Vorhersageroutine bereitstellen, müssen Sie auch das Quelldistributionspaket mit Ihrem benutzerdefinierten Code hochladen. Beispiel:

gsutil cp dist/my_custom_code-0.1.tar.gz gs://your-bucket/my_custom_code-0.1.tar.gz

Sie können dieses Tarball-Paket in dasselbe Verzeichnis in Cloud Storage hochladen wie Ihre Modelldatei, müssen dies jedoch nicht. Sie erhalten eine bessere Organisation, wenn Sie beide getrennt halten, besonders wenn Sie viele Versionen Ihres Modells und Codes bereitstellen.

Modell mit lokalen Vorhersagen testen

Mit dem Befehl gcloud ai-platform local predict können Sie testen, wie das Modell Vorhersagen durchführt, bevor Sie es für AI Platform Prediction bereitstellen. Der Befehl verwendet für Vorhersagen Abhängigkeiten in Ihrer lokalen Umgebung und gibt Ergebnisse im gleichen Format zurück, das gcloud ai-platform predict für Onlinevorhersagen verwendet. Wenn Sie Vorhersagen in Ihrer lokalen Umgebung testen, können Sie Fehler ermitteln und somit Kosten in Verbindung mit Anfragen für Onlinevorhersagen vermeiden.

Geben Sie für das Argument --model-dir ein Verzeichnis an, das Ihr exportiertes Modell für maschinelles Lernen enthält und sich entweder auf Ihrem lokalen Computer oder in Cloud Storage befindet. Geben Sie tensorflow, scikit-learn oder xgboost für das Argument --framework an. Sie können den Befehl gcloud ai-platform local predict nicht mit einer benutzerdefinierten Vorhersageroutine verwenden.

Das folgende Beispiel zeigt, wie lokale Vorhersagen durchgeführt werden:

gcloud ai-platform local predict --model-dir local-or-cloud-storage-path-to-model-directory/ \
  --json-instances local-path-to-prediction-input.json \
  --framework name-of-framework

Modelle und Versionen bereitstellen

AI Platform organisiert Ihre trainierten Modelle nach Modell- und Versionsressourcen. Ein AI Platform-Modell ist ein Container für die Versionen Ihres Modells für maschinelles Lernen.

Zum Bereitstellen eines Modells legen Sie eine Modellressource auf AI Platform an, erstellen eine Version dieses Modells und verknüpfen dann die Modellversion mit der in Cloud Storage gespeicherten Modelldatei.

Modellressource erstellen

AI Platform verwendet Modellressourcen, um verschiedene Versionen Ihres Modells zu organisieren.

Console

  1. Öffnen Sie die Seite der AI Platform-Modelle in der GCP Console.

    Modelle in der GCP Console öffnen

  2. Erstellen Sie gegebenenfalls das Modell, dem Sie eine neue Version hinzufügen möchten:

    1. Klicken Sie oben auf der Seite Modelle auf die Schaltfläche Neues Modell. Dadurch wird die Seite Modell erstellen aufgerufen.

    2. Geben Sie in das Feld Modellname einen eindeutigen Namen für Ihr Modell ein. Geben Sie optional in das Feld Beschreibung eine Beschreibung für das Modell ein.

    3. Klicken Sie auf Erstellen.

    4. Achten Sie darauf, dass Sie sich wieder auf der Seite Modelle befinden und das neue Modell in der Liste angezeigt wird.

gcloud

Erstellen Sie eine Modellressource für Ihre Modellversionen und geben Sie den gewünschten Namen für das Modell ohne die Klammern ein:

gcloud ai-platform models create "[YOUR-MODEL-NAME]"

REST API

  1. Wenn Sie die Anfrage formatieren möchten, fügen Sie das Modellobjekt in den Anfragetext ein. Sie müssen mindestens den Namen für das Modell angeben. Geben Sie den gewünschten Namen für das Modell ohne die Klammern ein:

    {"name": "[YOUR-MODEL-NAME]"}
    
  2. Senden Sie den REST API-Aufruf an den folgenden Pfad und ersetzen Sie [VALUES_IN_BRACKETS] dabei durch die entsprechenden Werte:

    POST https://ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models/
    

    Sie können beispielsweise die folgende Anfrage mit cURL stellen:

    curl -X POST -H "Content-Type: application/json" \
      -d '{"name": "[YOUR-MODEL-NAME]"}' \
      -H "Authorization: Bearer `gcloud auth print-access-token`" \
      "https://ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models"
    

    Die Ausgabe sollte in etwa so aussehen:

    {
      "name": "projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]",
      "regions": [
        "us-central1"
      ]
    }
    

Weitere Informationen finden Sie in der AI Platform Model API.

Modellversionen erstellen

Sie können jetzt mit dem trainierten und zuvor in Cloud Storage hochgeladenen Modell eine Modellversion erstellen. Geben Sie dabei die folgenden Parameter an:

  • name: Muss innerhalb des AI Platform-Modells einmalig sein.
  • deploymentUri: Der Pfad zu Ihrem Modellverzeichnis in Cloud Storage.

    • Wenn Sie ein TensorFlow-Modell bereitstellen, ist dies ein SavedModel-Verzeichnis.
    • Wenn Sie ein scikit-learn- oder XGBoost-Modell bereitstellen, ist dies das Verzeichnis, in dem sich die Datei model.joblib, model.pkl oder model.bst befindet.
    • Wenn Sie eine benutzerdefinierte Vorhersageroutine bereitstellen, ist dies das Verzeichnis, in dem sich alle Modellartefakte befinden. Die Gesamtgröße dieses Verzeichnisses darf maximal 500 MB betragen.
  • framework: TENSORFLOW, SCIKIT_LEARN oder XGBOOST. Lassen Sie diesen Parameter weg, wenn Sie eine benutzerdefinierte Vorhersageroutine bereitstellen.

  • runtimeVersion: Eine Laufzeitversion basierend auf den Abhängigkeiten, die Ihr Modell benötigt. Wenn Sie ein scikit-learn-Modell, ein XGBoost-Modell oder eine benutzerdefinierte Vorhersageroutine bereitstellen, muss mindestens Version 1.4 verwendet werden.

  • packageUris (optional): Eine Liste der Pfade zu Ihren benutzerdefinierten Code-Distributionspaketen (.tar.gz-Dateien) in Cloud Storage. Geben Sie diesen Parameter nur an, wenn Sie eine scikit-learn-Pipeline mit benutzerdefiniertem Code (Beta) oder eine benutzerdefinierte Vorhersageroutine (Beta) bereitstellen.

  • predictionClass (optional): Der Name der Predictor-Klasse im Format module_name.class_name. Geben Sie diesen Parameter nur an, wenn Sie eine benutzerdefinierte Vorhersageroutine (Beta) bereitstellen.

  • serviceAccount (optional): Sie können ein Dienstkonto für Ihre Modellversion angeben, das beim Zugreifen auf GCP-Ressourcen für Vorhersagen verwendet werden soll. Weitere Informationen finden Sie unter Dienstkonto für Modellversion angeben. Geben Sie diesen Parameter nur an, wenn Sie eine benutzerdefinierte Vorhersageroutine (Beta) bereitstellen.

  • pythonVersion: Muss auf "3.5" festgelegt sein, um mit von Python 3 exportierten Modelldateien kompatibel zu sein. Ist nichts festgelegt, wird standardmäßig "2.7" verwendet.

  • machineType (optional): Der Typ der virtuellen Maschine, den AI Platform Prediction für die Knoten verwendet, die Vorhersagen bereitstellen. Weitere Informationen zu Maschinentypen. Verwendet standardmäßig mls1-c1-m2, wenn nichts anderes festgelegt wird.

Weitere Informationen zu diesen Parametern finden Sie im AI Platform-Training und unter der Prediction API für eine Versionsressource.

Beachten Sie die kompletten Details für jede Laufzeitversion.

Console

  1. Wählen Sie auf der Seite Modelle den Namen der Modellressource aus, die Sie zur Erstellung der Version verwenden möchten. Damit wird die Seite Modelldetails aufgerufen.

    Modelle in der GCP Console öffnen

  2. Klicken Sie oben auf der Seite Modelldetails auf die Schaltfläche Neue Version. Dadurch wird die Seite Version erstellen aufgerufen.

  3. Geben Sie in das Feld Name den Versionsnamen ein. Geben Sie optional in das Feld Beschreibung eine Beschreibung für die Version ein.

  4. Geben Sie die Informationen über das Training des Modells in den entsprechenden Drop-down-Menüs ein:

    • Wählen Sie die zum Training Ihres Modells verwendete Python-Version aus.
    • Wählen Sie das Framework und die Framework-Version aus. Wenn Sie eine benutzerdefinierte Vorhersageroutine (Beta) bereitstellen, wählen Sie für das Framework "Benutzerdefinierte Vorhersageroutine (BETA)" aus.
    • Wählen Sie die ML-Laufzeitversion aus. Weitere Informationen zu AI Platform-Laufzeitversionen finden Sie unter Laufzeitversionsliste.
  5. Wählen Sie optional einen Maschinentyp für die Onlinevorhersage aus. Der Standardwert in diesem Feld ist "Single-Core-CPU".

  6. Geben Sie im Feld Modell-URI den Standort des Cloud Storage-Buckets ein, in den Sie die Modelldatei hochgeladen haben. Mit der Schaltfläche Durchsuchen können Sie nach dem richtigen Pfad suchen.

    Achten Sie darauf, dass Sie den Pfad zu dem Verzeichnis angeben, das die Datei enthält, und nicht den Pfad zur Modelldatei selbst. Verwenden Sie z. B. gs://your_bucket_name/model-dir/ statt gs://your_bucket_name/model-dir/saved_model.pb oder gs://your_bucket_name/model-dir/model.pkl.

  7. Wenn Sie eine scikit-learn-Pipeline mit benutzerdefiniertem Code (Beta) oder eine benutzerdefinierte Vorhersageroutine (Beta) bereitstellen, geben Sie unter Benutzerdefinierte Codes und Abhängigkeiten den Cloud Storage-Pfad für benutzerdefinierte Codepakete (.tar.gz) an. Wenn Sie eine benutzerdefinierte Vorhersageroutine bereitstellen, geben Sie im Feld Vorhersageklasse den Namen der Predictor-Klasse ein.

  8. Wählen Sie zum Bereitstellen der Onlinevorhersage eine Skalierungsoption aus:

    • Wenn Sie "Automatische Skalierung" auswählen, wird das optionale Feld Mindestanzahl von Knoten angezeigt. Geben Sie hier die Mindestanzahl der Knoten ein, die auch dann jederzeit aktiv bleiben sollen, wenn der Dienst herunterskaliert wurde. Der Standardwert in diesem Feld ist "0".

    • Wenn Sie "Manuelle Skalierung" auswählen, geben Sie die Anzahl der Knoten ein, die ständig ausgeführt werden sollen.

      Weitere Informationen finden Sie unter Vorhersagekosten.

  9. Zum Erstellen Ihrer Modellversion klicken Sie auf Speichern.

gcloud

  1. Legen Sie Umgebungsvariablen für den Pfad zum Cloud Storage-Verzeichnis mit der Modellbinärdatei sowie für den Versionsnamen, den Modellnamen und Ihre Framework-Auswahl fest.

    Wenn Sie eine Version mit dem gcloud-Tool erstellen, geben Sie den Framework-Namen in Großbuchstaben mit Unterstrichen (z. B. SCIKIT_LEARN) oder in Kleinbuchstaben mit Bindestrichen (z. B. scikit-learn) an. Beide Optionen führen zu identischem Verhalten.

    Ersetzen Sie [VALUES_IN_BRACKETS] dabei durch die entsprechenden Werte:

    MODEL_DIR="gs://your_bucket_name/"
    VERSION_NAME="[YOUR-VERSION-NAME]"
    MODEL_NAME="[YOUR-MODEL-NAME]"
    FRAMEWORK="[YOUR-FRAMEWORK_NAME]"
    

    Für eine scikit-learn-Pipeline mit benutzerdefiniertem Code (Beta) legen Sie eine zusätzliche Variable mit dem Pfad zu Ihrem benutzerdefinierten Code-Tarball fest:

    MODEL_DIR="gs://your_bucket_name/"
    VERSION_NAME="[YOUR-VERSION-NAME]"
    MODEL_NAME="[YOUR-MODEL-NAME]"
    FRAMEWORK="scikit-learn"
    CUSTOM_CODE_PATH="gs://your_bucket_name/my_custom_code-0.1.tar.gz"
    

    Für eine benutzerdefinierte Vorhersageroutine (Beta) lassen Sie die Variable FRAMEWORK weg und legen zusätzliche Variablen mit dem Pfad zu Ihrem benutzerdefinierten Code-Tarball und mit dem Namen Ihrer Predictor-Klasse fest:

    MODEL_DIR="gs://your_bucket_name/"
    VERSION_NAME="[YOUR-VERSION-NAME]"
    MODEL_NAME="[YOUR-MODEL-NAME]"
    CUSTOM_CODE_PATH="gs://your_bucket_name/my_custom_code-0.1.tar.gz"
    PREDICTOR_CLASS="[MODULE_NAME].[CLASS_NAME]"
    
  2. Erstellen Sie die Version:

    gcloud ai-platform versions create $VERSION_NAME \
      --model $MODEL_NAME \
      --origin $MODEL_DIR \
      --runtime-version=1.14 \
      --framework $FRAMEWORK \
      --python-version=3.5
    

    Für eine scikit-learn-Pipeline mit benutzerdefiniertem Code (Beta) verwenden Sie die Komponente gcloud beta und legen das Flag --package-uris fest:

    gcloud components install beta
    
    gcloud beta ai-platform versions create $VERSION_NAME \
      --model $MODEL_NAME \
      --origin $MODEL_DIR \
      --runtime-version=1.14 \
      --framework $FRAMEWORK \
      --python-version=3.5
      --package-uris=$CUSTOM_CODE_PATH
    

    Für eine benutzerdefinierte Vorhersageroutine (Beta) verwenden Sie die Komponente gcloud beta, lassen das Flag --framework weg und legen die Flags --package-uris und --prediction-class fest:

    gcloud components install beta
    
    gcloud beta ai-platform versions create $VERSION_NAME \
      --model $MODEL_NAME \
      --origin $MODEL_DIR \
      --runtime-version=1.14 \
      --python-version=3.5
      --package-uris=$CUSTOM_CODE_PATH
      --prediction-class=$PREDICTOR_CLASS
    

    Das Erstellen der Version dauert einige Minuten. Wenn sie fertig ist, sollten Sie die folgende Ausgabe sehen:

    Creating version (this might take a few minutes)......done.

  3. Rufen Sie Informationen über Ihre neue Version ab:

    gcloud ai-platform versions describe $VERSION_NAME \
      --model $MODEL_NAME
    

    Die Ausgabe sollte in etwa so aussehen:

    createTime: '2018-02-28T16:30:45Z'
    deploymentUri: gs://your_bucket_name
    framework: [YOUR-FRAMEWORK-NAME]
    machineType: mls1-c1-m2
    name: projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions/[YOUR-VERSION-NAME]
    pythonVersion: '3.5'
    runtimeVersion: '1.14'
    state: READY

REST API

  1. Formatieren Sie Ihren Anfragetext so, dass das Versionsobjekt enthalten ist. In diesem Beispiel werden name, deploymentUri, runtimeVersion und framework der Version angegeben. Ersetzen Sie [VALUES_IN_BRACKETS] dabei durch die entsprechenden Werte:

      {
        "name": "[YOUR-VERSION-NAME]",
        "deploymentUri": "gs://your_bucket_name/"
        "runtimeVersion": "1.14"
        "framework": "[YOUR_FRAMEWORK_NAME]"
        "pythonVersion": "3.5"
      }
    
  2. Senden Sie den REST API-Aufruf an den folgenden Pfad und ersetzen Sie [VALUES_IN_BRACKETS] dabei durch die entsprechenden Werte:

      POST https://ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions
    

    Sie können beispielsweise die folgende Anfrage mit cURL stellen:

        curl -X POST -H "Content-Type: application/json" \
          -d '{"name": "[YOUR-VERSION-NAME]", "deploymentUri": "gs://your_bucket_name/", "runtimeVersion": "1.14", "framework": "[YOUR_FRAMEWORK_NAME]", "pythonVersion": "3.5"}' \
          -H "Authorization: Bearer `gcloud auth print-access-token`" \
          "https://ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions"
    

    Das Erstellen der Version dauert einige Minuten. Wenn sie fertig ist, sollte die Ausgabe in etwa so aussehen:

      {
        "name": "projects/[YOUR-PROJECT-ID]/operations/create_[YOUR-MODEL-NAME]_[YOUR-VERSION-NAME]-[TIMESTAMP]",
        "metadata": {
          "@type": "type.googleapis.com/google.cloud.ml.v1.OperationMetadata",
          "createTime": "2018-07-07T02:51:50Z",
          "operationType": "CREATE_VERSION",
          "modelName": "projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]",
          "version": {
            "name": "projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions/[YOUR-VERSION-NAME]",
            "deploymentUri": "gs://your_bucket_name",
            "createTime": "2018-07-07T02:51:49Z",
            "runtimeVersion": "1.14",
            "framework": "[YOUR_FRAMEWORK_NAME]",
            "machineType": "mls1-c1-m2",
            "pythonVersion": "3.5"
          }
        }
      }
    

Dienstkonto für Modellversion angeben

Wenn Sie eine Modellversion bereitstellen, hat diese standardmäßig die Berechtigungen eines von Google verwalteten Dienstkontos mit der IAM-Rolle Cloud ML-Dienst-Agent. Dieses Standarddienstkonto ist für die meisten Anwendungsfälle ausreichend. Beispielsweise kann es aus Cloud Storage-Buckets im selben Google Cloud Platform-Projekt lesen.

Wenn Sie jedoch eine benutzerdefinierte Vorhersageroutine bereitstellen und andere Berechtigungen für die Modellversion benötigen, können Sie ein anderes Dienstkonto angeben. Wenn Ihre Modellversion beispielsweise während der Vorhersage von einem anderen GCP-Projekt aus auf einen Cloud Storage-Bucket zugreifen muss, geben Sie ein Dienstkonto an, das zum Lesen aus diesem Bucket berechtigt ist.

  1. Erstellen oder wählen Sie ein Dienstkonto für Ihre Modellversion aus. Als Nutzer, der die Modellversion bereitstellt, benötigen Sie für das Dienstkonto die Rolle Dienstkonto-Tokenersteller.

  2. Geben Sie im Feld serviceAccount den Namen des Dienstkontos an, wenn Sie die Modellversion erstellen. Wenn Sie das Modell mit dem gcloud-Tool bereitstellen, können Sie das Flag --service-account wie im folgenden Beispiel verwenden:

    gcloud components install beta
    
    gcloud beta ai-platform versions create your-version-name \
      --service-account your-service-account-name@your-project-id.iam.gserviceaccount.com
      ...
    

Nächste Schritte