AutoML Edge-Modelle exportieren

Auf dieser Seite wird beschrieben, wie Sie mit Vertex AI Ihre Bild- und Video-AutoML Edge-Modelle nach Cloud Storage exportieren.

Informationen zum Exportieren eines Tabellenmodells finden Sie unter Tabellarische AutoML-Modelle exportieren.

Einführung

Nachdem Sie ein AutoML Edge-Modell trainiert haben, können Sie das Modell in einigen Fällen in verschiedenen Formaten exportieren, je nachdem, wie Sie es verwenden möchten. Die exportierten Modelldateien werden in einem Cloud Storage-Bucket gespeichert und können für Vorhersagen in der Umgebung Ihrer Wahl verwendet werden.

Sie können in Vertex AI kein Edge-Modell für die Bereitstellung von Vorhersagen verwenden. Sie müssen das Edge-Modell auf einem externen Gerät bereitstellen, um Vorhersagen zu erhalten.

Modell exportieren

Mit den folgenden Codebeispielen können Sie ein AutoML Edge-Modell ermitteln, einen Speicherort für die Ausgabedatei angeben und dann die Exportanfrage senden.

Bild

Wählen Sie unten den Tab für Ihr Ziel aus:

Klassifizierung

Trainierte AutoML Edge-Bildklassifizierungsmodelle können in den folgenden Formaten exportiert werden:

  • TF Lite – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
  • Edge TPU TF Lite – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge TPU-Geräten auszuführen.
  • Container – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
  • Core ML – Exportieren Sie eine .mlmodel-Datei, um Ihr Modell auf iOS- und macOS-Geräten auszuführen.
  • Tensorflow.js – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.

Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:

Console

  1. Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.

    Zur Seite „Modelle“

  2. Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
  3. Klicken Sie auf Exportieren.
  4. Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
  5. Klicken Sie auf Exportieren.
  6. Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.

REST

Ersetzen Sie dabei folgende Werte für die Anfragedaten:

  • LOCATION: Der Standort Ihres Projekts
  • PROJECT: Ihre Projekt-ID.
  • MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
  • EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für dieses Ziel sind folgende Optionen verfügbar:
    • tflite (TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
    • edgetpu-tflite (Edge TPU TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge TPU-Geräten auszuführen.
    • tf-saved-model (Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
    • core-ml (Core ML) – Exportieren Sie eine .mlmodel-Datei, um Ihr Modell auf iOS- und macOS-Geräten auszuführen.
    • tf-js (Tensorflow.js) – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.
  • OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
  • HTTP-Methode und URL:

    POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export

    JSON-Text der Anfrage:

    {
      "outputConfig": {
        "exportFormatId": "EXPORT_FORMAT",
        "artifactDestination": {
          "outputUriPrefix": "gs://OUTPUT_BUCKET/"
        }
      }
    }
    

    Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:

    curl

    Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -d @request.json \
    "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"

    PowerShell

    Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

    $cred = gcloud auth print-access-token
    $headers = @{ "Authorization" = "Bearer $cred" }

    Invoke-WebRequest `
    -Method POST `
    -Headers $headers `
    -ContentType: "application/json; charset=utf-8" `
    -InFile request.json `
    -Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

    Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.

    Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.

Java

Bevor Sie dieses Beispiel anwenden, folgen Sie den Java Schritten zur Einrichtung in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.

Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.


import com.google.api.gax.longrunning.OperationFuture;
import com.google.cloud.aiplatform.v1.ExportModelOperationMetadata;
import com.google.cloud.aiplatform.v1.ExportModelRequest;
import com.google.cloud.aiplatform.v1.ExportModelResponse;
import com.google.cloud.aiplatform.v1.GcsDestination;
import com.google.cloud.aiplatform.v1.ModelName;
import com.google.cloud.aiplatform.v1.ModelServiceClient;
import com.google.cloud.aiplatform.v1.ModelServiceSettings;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class ExportModelSample {

  public static void main(String[] args)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    String project = "YOUR_PROJECT_ID";
    String modelId = "YOUR_MODEL_ID";
    String gcsDestinationOutputUriPrefix = "gs://YOUR_GCS_SOURCE_BUCKET/path_to_your_destination/";
    String exportFormat = "YOUR_EXPORT_FORMAT";
    exportModelSample(project, modelId, gcsDestinationOutputUriPrefix, exportFormat);
  }

  static void exportModelSample(
      String project, String modelId, String gcsDestinationOutputUriPrefix, String exportFormat)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    ModelServiceSettings modelServiceSettings =
        ModelServiceSettings.newBuilder()
            .setEndpoint("us-central1-aiplatform.googleapis.com:443")
            .build();

    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the "close" method on the client to safely clean up any remaining background resources.
    try (ModelServiceClient modelServiceClient = ModelServiceClient.create(modelServiceSettings)) {
      String location = "us-central1";
      GcsDestination.Builder gcsDestination = GcsDestination.newBuilder();
      gcsDestination.setOutputUriPrefix(gcsDestinationOutputUriPrefix);

      ModelName modelName = ModelName.of(project, location, modelId);
      ExportModelRequest.OutputConfig outputConfig =
          ExportModelRequest.OutputConfig.newBuilder()
              .setExportFormatId(exportFormat)
              .setArtifactDestination(gcsDestination)
              .build();

      OperationFuture<ExportModelResponse, ExportModelOperationMetadata> exportModelResponseFuture =
          modelServiceClient.exportModelAsync(modelName, outputConfig);
      System.out.format(
          "Operation name: %s\n", exportModelResponseFuture.getInitialFuture().get().getName());
      System.out.println("Waiting for operation to finish...");
      ExportModelResponse exportModelResponse =
          exportModelResponseFuture.get(300, TimeUnit.SECONDS);

      System.out.format("Export Model Response: %s\n", exportModelResponse);
    }
  }
}

Node.js

Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.

Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

/**
 * TODO(developer): Uncomment these variables before running the sample.\
   (Not necessary if passing values as arguments)
 */

// const modelId = 'YOUR_MODEL_ID';
// const gcsDestinationOutputUriPrefix ='YOUR_GCS_DEST_OUTPUT_URI_PREFIX';
//    eg. "gs://<your-gcs-bucket>/destination_path"
// const exportFormat = 'YOUR_EXPORT_FORMAT';
// const project = 'YOUR_PROJECT_ID';
// const location = 'YOUR_PROJECT_LOCATION';

// Imports the Google Cloud Model Service Client library
const {ModelServiceClient} = require('@google-cloud/aiplatform');

// Specifies the location of the api endpoint
const clientOptions = {
  apiEndpoint: 'us-central1-aiplatform.googleapis.com',
};

// Instantiates a client
const modelServiceClient = new ModelServiceClient(clientOptions);

async function exportModel() {
  // Configure the name resources
  const name = `projects/${project}/locations/${location}/models/${modelId}`;
  // Configure the outputConfig resources
  const outputConfig = {
    exportFormatId: exportFormat,
    gcsDestination: {
      outputUriPrefix: gcsDestinationOutputUriPrefix,
    },
  };
  const request = {
    name,
    outputConfig,
  };

  // Export Model request
  const [response] = await modelServiceClient.exportModel(request);
  console.log(`Long running operation : ${response.name}`);

  // Wait for operation to complete
  await response.promise();
  const result = response.result;

  console.log(`Export model response : ${JSON.stringify(result)}`);
}
exportModel();

Python

Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.

from google.cloud import aiplatform


def export_model_sample(
    project: str,
    model_id: str,
    gcs_destination_output_uri_prefix: str,
    location: str = "us-central1",
    api_endpoint: str = "us-central1-aiplatform.googleapis.com",
    timeout: int = 300,
):
    # The AI Platform services require regional API endpoints.
    client_options = {"api_endpoint": api_endpoint}
    # Initialize client that will be used to create and send requests.
    # This client only needs to be created once, and can be reused for multiple requests.
    client = aiplatform.gapic.ModelServiceClient(client_options=client_options)
    output_config = {
        "artifact_destination": {
            "output_uri_prefix": gcs_destination_output_uri_prefix
        },
        # For information about export formats: https://cloud.google.com/ai-platform-unified/docs/export/export-edge-model#aiplatform_export_model_sample-drest
        "export_format_id": "tf-saved-model",
    }
    name = client.model_path(project=project, location=location, model=model_id)
    response = client.export_model(name=name, output_config=output_config)
    print("Long running operation:", response.operation.name)
    print("output_info:", response.metadata.output_info)
    export_model_response = response.result(timeout=timeout)
    print("export_model_response:", export_model_response)

Klassifizierung

Trainierte AutoML Edge-Bildklassifizierungsmodelle können in den folgenden Formaten exportiert werden:

  • TF Lite – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
  • Edge TPU TF Lite – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge TPU-Geräten auszuführen.
  • Container – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
  • Core ML – Exportieren Sie eine .mlmodel-Datei, um Ihr Modell auf iOS- und macOS-Geräten auszuführen.
  • Tensorflow.js – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.

Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:

Console

  1. Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.

    Zur Seite „Modelle“

  2. Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
  3. Klicken Sie auf Exportieren.
  4. Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
  5. Klicken Sie auf Exportieren.
  6. Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.

REST

Ersetzen Sie dabei folgende Werte für die Anfragedaten:

  • LOCATION: Der Standort Ihres Projekts
  • PROJECT: Ihre Projekt-ID.
  • MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
  • EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für dieses Ziel sind folgende Optionen verfügbar:
    • tflite (TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
    • edgetpu-tflite (Edge TPU TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge TPU-Geräten auszuführen.
    • tf-saved-model (Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
    • core-ml (Core ML) – Exportieren Sie eine .mlmodel-Datei, um Ihr Modell auf iOS- und macOS-Geräten auszuführen.
    • tf-js (Tensorflow.js) – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.
  • OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
  • HTTP-Methode und URL:

    POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export

    JSON-Text der Anfrage:

    {
      "outputConfig": {
        "exportFormatId": "EXPORT_FORMAT",
        "artifactDestination": {
          "outputUriPrefix": "gs://OUTPUT_BUCKET/"
        }
      }
    }
    

    Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:

    curl

    Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -d @request.json \
    "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"

    PowerShell

    Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

    $cred = gcloud auth print-access-token
    $headers = @{ "Authorization" = "Bearer $cred" }

    Invoke-WebRequest `
    -Method POST `
    -Headers $headers `
    -ContentType: "application/json; charset=utf-8" `
    -InFile request.json `
    -Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

    Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.

    Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.

Java

Bevor Sie dieses Beispiel anwenden, folgen Sie den Java Schritten zur Einrichtung in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.

Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.


import com.google.api.gax.longrunning.OperationFuture;
import com.google.cloud.aiplatform.v1.ExportModelOperationMetadata;
import com.google.cloud.aiplatform.v1.ExportModelRequest;
import com.google.cloud.aiplatform.v1.ExportModelResponse;
import com.google.cloud.aiplatform.v1.GcsDestination;
import com.google.cloud.aiplatform.v1.ModelName;
import com.google.cloud.aiplatform.v1.ModelServiceClient;
import com.google.cloud.aiplatform.v1.ModelServiceSettings;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class ExportModelSample {

  public static void main(String[] args)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    String project = "YOUR_PROJECT_ID";
    String modelId = "YOUR_MODEL_ID";
    String gcsDestinationOutputUriPrefix = "gs://YOUR_GCS_SOURCE_BUCKET/path_to_your_destination/";
    String exportFormat = "YOUR_EXPORT_FORMAT";
    exportModelSample(project, modelId, gcsDestinationOutputUriPrefix, exportFormat);
  }

  static void exportModelSample(
      String project, String modelId, String gcsDestinationOutputUriPrefix, String exportFormat)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    ModelServiceSettings modelServiceSettings =
        ModelServiceSettings.newBuilder()
            .setEndpoint("us-central1-aiplatform.googleapis.com:443")
            .build();

    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the "close" method on the client to safely clean up any remaining background resources.
    try (ModelServiceClient modelServiceClient = ModelServiceClient.create(modelServiceSettings)) {
      String location = "us-central1";
      GcsDestination.Builder gcsDestination = GcsDestination.newBuilder();
      gcsDestination.setOutputUriPrefix(gcsDestinationOutputUriPrefix);

      ModelName modelName = ModelName.of(project, location, modelId);
      ExportModelRequest.OutputConfig outputConfig =
          ExportModelRequest.OutputConfig.newBuilder()
              .setExportFormatId(exportFormat)
              .setArtifactDestination(gcsDestination)
              .build();

      OperationFuture<ExportModelResponse, ExportModelOperationMetadata> exportModelResponseFuture =
          modelServiceClient.exportModelAsync(modelName, outputConfig);
      System.out.format(
          "Operation name: %s\n", exportModelResponseFuture.getInitialFuture().get().getName());
      System.out.println("Waiting for operation to finish...");
      ExportModelResponse exportModelResponse =
          exportModelResponseFuture.get(300, TimeUnit.SECONDS);

      System.out.format("Export Model Response: %s\n", exportModelResponse);
    }
  }
}

Node.js

Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.

Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

/**
 * TODO(developer): Uncomment these variables before running the sample.\
   (Not necessary if passing values as arguments)
 */

// const modelId = 'YOUR_MODEL_ID';
// const gcsDestinationOutputUriPrefix ='YOUR_GCS_DEST_OUTPUT_URI_PREFIX';
//    eg. "gs://<your-gcs-bucket>/destination_path"
// const exportFormat = 'YOUR_EXPORT_FORMAT';
// const project = 'YOUR_PROJECT_ID';
// const location = 'YOUR_PROJECT_LOCATION';

// Imports the Google Cloud Model Service Client library
const {ModelServiceClient} = require('@google-cloud/aiplatform');

// Specifies the location of the api endpoint
const clientOptions = {
  apiEndpoint: 'us-central1-aiplatform.googleapis.com',
};

// Instantiates a client
const modelServiceClient = new ModelServiceClient(clientOptions);

async function exportModel() {
  // Configure the name resources
  const name = `projects/${project}/locations/${location}/models/${modelId}`;
  // Configure the outputConfig resources
  const outputConfig = {
    exportFormatId: exportFormat,
    gcsDestination: {
      outputUriPrefix: gcsDestinationOutputUriPrefix,
    },
  };
  const request = {
    name,
    outputConfig,
  };

  // Export Model request
  const [response] = await modelServiceClient.exportModel(request);
  console.log(`Long running operation : ${response.name}`);

  // Wait for operation to complete
  await response.promise();
  const result = response.result;

  console.log(`Export model response : ${JSON.stringify(result)}`);
}
exportModel();

Python

Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.

from google.cloud import aiplatform


def export_model_sample(
    project: str,
    model_id: str,
    gcs_destination_output_uri_prefix: str,
    location: str = "us-central1",
    api_endpoint: str = "us-central1-aiplatform.googleapis.com",
    timeout: int = 300,
):
    # The AI Platform services require regional API endpoints.
    client_options = {"api_endpoint": api_endpoint}
    # Initialize client that will be used to create and send requests.
    # This client only needs to be created once, and can be reused for multiple requests.
    client = aiplatform.gapic.ModelServiceClient(client_options=client_options)
    output_config = {
        "artifact_destination": {
            "output_uri_prefix": gcs_destination_output_uri_prefix
        },
        # For information about export formats: https://cloud.google.com/ai-platform-unified/docs/export/export-edge-model#aiplatform_export_model_sample-drest
        "export_format_id": "tf-saved-model",
    }
    name = client.model_path(project=project, location=location, model=model_id)
    response = client.export_model(name=name, output_config=output_config)
    print("Long running operation:", response.operation.name)
    print("output_info:", response.metadata.output_info)
    export_model_response = response.result(timeout=timeout)
    print("export_model_response:", export_model_response)

Objekterkennung

Trainierte AutoML Edge-Bildobjekterkennungsmodelle können in den folgenden Formaten exportiert werden:

  • TF Lite – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
  • Container – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
  • Tensorflow.js – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.

Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:

Console

  1. Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.

    Zur Seite „Modelle“

  2. Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
  3. Wählen Sie den Tab Bereitstellen & Testen aus, um die verfügbaren Exportformate aufzurufen.
  4. Wählen Sie im Abschnitt Edge-optimiertes Modell verwenden das gewünschte Format des Exportmodells aus.
  5. Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
  6. Klicken Sie auf Exportieren.
  7. Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.

REST

Ersetzen Sie dabei folgende Werte für die Anfragedaten:

  • LOCATION: Der Standort Ihres Projekts
  • PROJECT: Ihre Projekt-ID.
  • MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
  • EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für dieses Ziel sind folgende Optionen verfügbar:
    • tflite (TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
    • tf-saved-model (Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
    • tf-js (Tensorflow.js) – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.
  • OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
  • HTTP-Methode und URL:

    POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export

    JSON-Text der Anfrage:

    {
      "outputConfig": {
        "exportFormatId": "EXPORT_FORMAT",
        "artifactDestination": {
          "outputUriPrefix": "gs://OUTPUT_BUCKET/"
        }
      }
    }
    

    Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:

    curl

    Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -d @request.json \
    "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"

    PowerShell

    Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

    $cred = gcloud auth print-access-token
    $headers = @{ "Authorization" = "Bearer $cred" }

    Invoke-WebRequest `
    -Method POST `
    -Headers $headers `
    -ContentType: "application/json; charset=utf-8" `
    -InFile request.json `
    -Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

    Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.

    Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.

Java

Bevor Sie dieses Beispiel anwenden, folgen Sie den Java Schritten zur Einrichtung in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.

Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.


import com.google.api.gax.longrunning.OperationFuture;
import com.google.cloud.aiplatform.v1.ExportModelOperationMetadata;
import com.google.cloud.aiplatform.v1.ExportModelRequest;
import com.google.cloud.aiplatform.v1.ExportModelResponse;
import com.google.cloud.aiplatform.v1.GcsDestination;
import com.google.cloud.aiplatform.v1.ModelName;
import com.google.cloud.aiplatform.v1.ModelServiceClient;
import com.google.cloud.aiplatform.v1.ModelServiceSettings;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class ExportModelSample {

  public static void main(String[] args)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    String project = "YOUR_PROJECT_ID";
    String modelId = "YOUR_MODEL_ID";
    String gcsDestinationOutputUriPrefix = "gs://YOUR_GCS_SOURCE_BUCKET/path_to_your_destination/";
    String exportFormat = "YOUR_EXPORT_FORMAT";
    exportModelSample(project, modelId, gcsDestinationOutputUriPrefix, exportFormat);
  }

  static void exportModelSample(
      String project, String modelId, String gcsDestinationOutputUriPrefix, String exportFormat)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    ModelServiceSettings modelServiceSettings =
        ModelServiceSettings.newBuilder()
            .setEndpoint("us-central1-aiplatform.googleapis.com:443")
            .build();

    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the "close" method on the client to safely clean up any remaining background resources.
    try (ModelServiceClient modelServiceClient = ModelServiceClient.create(modelServiceSettings)) {
      String location = "us-central1";
      GcsDestination.Builder gcsDestination = GcsDestination.newBuilder();
      gcsDestination.setOutputUriPrefix(gcsDestinationOutputUriPrefix);

      ModelName modelName = ModelName.of(project, location, modelId);
      ExportModelRequest.OutputConfig outputConfig =
          ExportModelRequest.OutputConfig.newBuilder()
              .setExportFormatId(exportFormat)
              .setArtifactDestination(gcsDestination)
              .build();

      OperationFuture<ExportModelResponse, ExportModelOperationMetadata> exportModelResponseFuture =
          modelServiceClient.exportModelAsync(modelName, outputConfig);
      System.out.format(
          "Operation name: %s\n", exportModelResponseFuture.getInitialFuture().get().getName());
      System.out.println("Waiting for operation to finish...");
      ExportModelResponse exportModelResponse =
          exportModelResponseFuture.get(300, TimeUnit.SECONDS);

      System.out.format("Export Model Response: %s\n", exportModelResponse);
    }
  }
}

Node.js

Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.

Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

/**
 * TODO(developer): Uncomment these variables before running the sample.\
   (Not necessary if passing values as arguments)
 */

// const modelId = 'YOUR_MODEL_ID';
// const gcsDestinationOutputUriPrefix ='YOUR_GCS_DEST_OUTPUT_URI_PREFIX';
//    eg. "gs://<your-gcs-bucket>/destination_path"
// const exportFormat = 'YOUR_EXPORT_FORMAT';
// const project = 'YOUR_PROJECT_ID';
// const location = 'YOUR_PROJECT_LOCATION';

// Imports the Google Cloud Model Service Client library
const {ModelServiceClient} = require('@google-cloud/aiplatform');

// Specifies the location of the api endpoint
const clientOptions = {
  apiEndpoint: 'us-central1-aiplatform.googleapis.com',
};

// Instantiates a client
const modelServiceClient = new ModelServiceClient(clientOptions);

async function exportModel() {
  // Configure the name resources
  const name = `projects/${project}/locations/${location}/models/${modelId}`;
  // Configure the outputConfig resources
  const outputConfig = {
    exportFormatId: exportFormat,
    gcsDestination: {
      outputUriPrefix: gcsDestinationOutputUriPrefix,
    },
  };
  const request = {
    name,
    outputConfig,
  };

  // Export Model request
  const [response] = await modelServiceClient.exportModel(request);
  console.log(`Long running operation : ${response.name}`);

  // Wait for operation to complete
  await response.promise();
  const result = response.result;

  console.log(`Export model response : ${JSON.stringify(result)}`);
}
exportModel();

Python

Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.

from google.cloud import aiplatform


def export_model_sample(
    project: str,
    model_id: str,
    gcs_destination_output_uri_prefix: str,
    location: str = "us-central1",
    api_endpoint: str = "us-central1-aiplatform.googleapis.com",
    timeout: int = 300,
):
    # The AI Platform services require regional API endpoints.
    client_options = {"api_endpoint": api_endpoint}
    # Initialize client that will be used to create and send requests.
    # This client only needs to be created once, and can be reused for multiple requests.
    client = aiplatform.gapic.ModelServiceClient(client_options=client_options)
    output_config = {
        "artifact_destination": {
            "output_uri_prefix": gcs_destination_output_uri_prefix
        },
        # For information about export formats: https://cloud.google.com/ai-platform-unified/docs/export/export-edge-model#aiplatform_export_model_sample-drest
        "export_format_id": "tf-saved-model",
    }
    name = client.model_path(project=project, location=location, model=model_id)
    response = client.export_model(name=name, output_config=output_config)
    print("Long running operation:", response.operation.name)
    print("output_info:", response.metadata.output_info)
    export_model_response = response.result(timeout=timeout)
    print("export_model_response:", export_model_response)

Video

Wählen Sie unten den Tab für Ihr Ziel aus:

Aktionserkennung

Trainierte AutoML Edge-Videoaktionserkennungsmodelle können im gespeicherten Modellformat exportiert werden.

Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:

Console

  1. Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.

    Zur Seite „Modelle“

  2. Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
  3. Klicken Sie auf Exportieren.
  4. Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
  5. Klicken Sie auf Exportieren.
  6. Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.

REST

Ersetzen Sie dabei folgende Werte für die Anfragedaten:

  • LOCATION: Region, in der das Modell gespeichert ist. Beispiel: us-central1.
  • MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
  • EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für die Erkennung von Videoaktionen lautet die Modelloption:
    • tf-saved-model (Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
  • OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
  • PROJECT_NUMBER: Die automatisch generierte Projektnummer Ihres Projekts.

HTTP-Methode und URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export

JSON-Text der Anfrage:

{
  "outputConfig": {
    "exportFormatId": "EXPORT_FORMAT",
    "artifactDestination": {
    "outputUriPrefix": "gs://OUTPUT_BUCKET/"
    }
  }
}

Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:

curl

Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"

PowerShell

Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.

Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.

Java

Bevor Sie dieses Beispiel anwenden, folgen Sie den Java Schritten zur Einrichtung in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.

Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

import com.google.api.gax.longrunning.OperationFuture;
import com.google.cloud.aiplatform.v1.ExportModelOperationMetadata;
import com.google.cloud.aiplatform.v1.ExportModelRequest;
import com.google.cloud.aiplatform.v1.ExportModelResponse;
import com.google.cloud.aiplatform.v1.GcsDestination;
import com.google.cloud.aiplatform.v1.ModelName;
import com.google.cloud.aiplatform.v1.ModelServiceClient;
import com.google.cloud.aiplatform.v1.ModelServiceSettings;
import java.io.IOException;
import java.util.concurrent.ExecutionException;

public class ExportModelVideoActionRecognitionSample {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException {
    // TODO(developer): Replace these variables before running the sample.
    String project = "PROJECT";
    String modelId = "MODEL_ID";
    String gcsDestinationOutputUriPrefix = "GCS_DESTINATION_OUTPUT_URI_PREFIX";
    String exportFormat = "EXPORT_FORMAT";
    exportModelVideoActionRecognitionSample(
        project, modelId, gcsDestinationOutputUriPrefix, exportFormat);
  }

  static void exportModelVideoActionRecognitionSample(
      String project, String modelId, String gcsDestinationOutputUriPrefix, String exportFormat)
      throws IOException, ExecutionException, InterruptedException {
    ModelServiceSettings settings =
        ModelServiceSettings.newBuilder()
            .setEndpoint("us-central1-aiplatform.googleapis.com:443")
            .build();
    String location = "us-central1";

    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the "close" method on the client to safely clean up any remaining background resources.
    try (ModelServiceClient client = ModelServiceClient.create(settings)) {
      GcsDestination gcsDestination =
          GcsDestination.newBuilder().setOutputUriPrefix(gcsDestinationOutputUriPrefix).build();
      ExportModelRequest.OutputConfig outputConfig =
          ExportModelRequest.OutputConfig.newBuilder()
              .setArtifactDestination(gcsDestination)
              .setExportFormatId(exportFormat)
              .build();
      ModelName name = ModelName.of(project, location, modelId);
      OperationFuture<ExportModelResponse, ExportModelOperationMetadata> response =
          client.exportModelAsync(name, outputConfig);

      // You can use OperationFuture.getInitialFuture to get a future representing the initial
      // response to the request, which contains information while the operation is in progress.
      System.out.format("Operation name: %s\n", response.getInitialFuture().get().getName());

      // OperationFuture.get() will block until the operation is finished.
      ExportModelResponse exportModelResponse = response.get();
      System.out.format("exportModelResponse: %s\n", exportModelResponse);
    }
  }
}

Python

Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.

from google.cloud import aiplatform


def export_model_video_action_recognition_sample(
    project: str,
    model_id: str,
    gcs_destination_output_uri_prefix: str,
    export_format: str,
    location: str = "us-central1",
    api_endpoint: str = "us-central1-aiplatform.googleapis.com",
    timeout: int = 300,
):
    # The AI Platform services require regional API endpoints.
    client_options = {"api_endpoint": api_endpoint}
    # Initialize client that will be used to create and send requests.
    # This client only needs to be created once, and can be reused for multiple requests.
    client = aiplatform.gapic.ModelServiceClient(client_options=client_options)
    gcs_destination = {"output_uri_prefix": gcs_destination_output_uri_prefix}
    output_config = {
        "artifact_destination": gcs_destination,
        "export_format_id": export_format,
    }
    name = client.model_path(project=project, location=location, model=model_id)
    response = client.export_model(name=name, output_config=output_config)
    print("Long running operation:", response.operation.name)
    print("output_info:", response.metadata.output_info)
    export_model_response = response.result(timeout=timeout)
    print("export_model_response:", export_model_response)

Klassifizierung

Trainierte AutoML Edge-Videoklassifizierungsmodelle können nur im gespeicherten Modellformat exportiert werden.

Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:

Console

  1. Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.

    Zur Seite „Modelle“

  2. Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
  3. Klicken Sie auf Exportieren.
  4. Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
  5. Klicken Sie auf Exportieren.
  6. Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.

REST

Ersetzen Sie dabei folgende Werte für die Anfragedaten:

  • LOCATION: Region, in der das Modell gespeichert ist. Beispiel: us-central1.
  • MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
  • EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für die Videoklassifizierung gilt folgende Modelloption:
    • tf-saved-model (Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
  • OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
  • PROJECT_NUMBER: Die automatisch generierte Projektnummer Ihres Projekts.

HTTP-Methode und URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export

JSON-Text der Anfrage:

{
  "outputConfig": {
    "exportFormatId": "EXPORT_FORMAT",
    "artifactDestination": {
    "outputUriPrefix": "gs://OUTPUT_BUCKET/"
    }
  }
}

Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:

curl

Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"

PowerShell

Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.

{
  "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID",
  "metadata": {
    "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata",
    "genericMetadata": {
      "createTime": "2020-10-12T20:53:40.130785Z",
      "updateTime": "2020-10-12T20:53:40.130785Z"
    },
    "outputInfo": {
      "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ"
    }
  }
}

Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.

Objekt-Tracking

Trainierte AutoML Edge-Videoobjekt-Tracking-Modelle können in den folgenden Formaten exportiert werden:

  • TF Lite – Exportieren Sie Ihr Modell als TensorFlow Lite-Paket,, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
  • Container – Exportieren Sie Ihr Modell als gespeichertes TensorFlow-Modell, das in einem Docker-Container ausgeführt wird.

Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:

Console

  1. Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.

    Zur Seite „Modelle“

  2. Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
  3. Klicken Sie auf Exportieren.
  4. Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
  5. Klicken Sie auf Exportieren.
  6. Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.

REST

Ersetzen Sie dabei folgende Werte für die Anfragedaten:

  • LOCATION: Region, in der das Modell gespeichert ist. Beispiel: us-central1.
  • MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
  • EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für Videoobjekt-Tracking-Modelle stehen folgende Optionen zur Verfügung:
    • tflite (TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
    • edgetpu-tflite (Edge TPU TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge TPU-Geräten auszuführen.
    • tf-saved-model (Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
  • OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
  • PROJECT_NUMBER: Die automatisch generierte Projektnummer Ihres Projekts.

HTTP-Methode und URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export

JSON-Text der Anfrage:

{
  "outputConfig": {
    "exportFormatId": "EXPORT_FORMAT",
    "artifactDestination": {
    "outputUriPrefix": "gs://OUTPUT_BUCKET/"
    }
  }
}

Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:

curl

Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"

PowerShell

Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json und führen Sie den folgenden Befehl aus:

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.

{
  "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID",
  "metadata": {
    "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata",
    "genericMetadata": {
      "createTime": "2020-10-12T20:53:40.130785Z",
      "updateTime": "2020-10-12T20:53:40.130785Z"
    },
    "outputInfo": {
      "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ"
    }
  }
}

Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.

Status des Vorgangs abrufen

Bild

Verwenden Sie den folgenden Code, um den Status des Exportvorgangs abzurufen. Dieser Code ist für alle Ziele gleich:

REST

Ersetzen Sie dabei folgende Werte für die Anfragedaten:

  • LOCATION: Der Standort Ihres Projekts
  • PROJECT: Ihre Projekt-ID.
  • OPERATION_ID: Die ID des Zielvorgangs. Diese ID ist in der Regel in der Antwort auf die ursprüngliche Anfrage enthalten.

HTTP-Methode und URL:

GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID

Senden Sie die Anfrage mithilfe einer der folgenden Optionen:

curl

Führen Sie folgenden Befehl aus:

curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"

PowerShell

Führen Sie folgenden Befehl aus:

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
Die Ausgabe für einen abgeschlossenen Vorgang sollte in etwa so aussehen:
{
  "name": "projects/PROJECT/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID",
  "metadata": {
    "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata",
    "genericMetadata": {
      "createTime": "2020-10-12T20:53:40.130785Z",
      "updateTime": "2020-10-12T20:53:40.793983Z"
    },
    "outputInfo": {
      "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ"
    }
  },
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelResponse"
  }
}

Video

REST

Ersetzen Sie diese Werte in den folgenden Anfragedaten:

  • PROJECT_NUMBER: Die automatisch generierte Projektnummer Ihres Projekts.
  • LOCATION: Region, in der das Modell gespeichert ist. Beispiel: us-central1.
  • OPERATION_ID: ID Ihrer Vorgänge.

HTTP-Methode und URL:

GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID

Senden Sie die Anfrage mithilfe einer der folgenden Optionen:

curl

Führen Sie folgenden Befehl aus:

curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"

PowerShell

Führen Sie folgenden Befehl aus:

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content

Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:

Ausgabedateien

Bild

Wählen Sie den Tab unten für Ihr Modellformat aus:

TF Lite

Mit dem in der Anfrage angegebenen OUTPUT_BUCKET wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:

  • gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/

Dateien:

  1. model.tflite: Eine Datei mit einer Version des Modells, die mit TensorFlow Lite verwendet werden kann.

Edge TPU

Mit dem in der Anfrage angegebenen OUTPUT_BUCKET wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:

  • gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/

Dateien:

  1. edgetpu_model.tflite: Eine Datei mit einer Version des Modells für TensorFlow Lite, die durch den Edge TPU-Compiler übergeben wird, um mit der Edge TPU kompatibel zu sein.

Container

Mit dem in der Anfrage angegebenen OUTPUT_BUCKET wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:

  • gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/

Dateien:

  1. saved_model.pb: Eine Protokollzwischenspeicherdatei mit der Grafikdefinition und den Gewichtungen des Modells.

Core ML

Mit dem in der Anfrage angegebenen OUTPUT_BUCKET wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:

  • gs://OUTPUT_BUCKET/model-MODEL_ID/core-ml/YYYY-MM-DDThh:mm:ss.sssZ/

Dateien:

  1. dict.txt: Eine Labeldatei. Jede Zeile in der Labeldatei dict.txt stellt ein Label der vom Modell zurückgegebenen Vorhersagen in derselben Reihenfolge dar, in der sie angefordert wurden.

    Beispiel dict.txt

    roses
    daisy
    tulips
    dandelion
    sunflowers
    
  2. model.mlmodel: Eine Datei, die ein Core ML-Modell angibt.

Tensorflow.js

Mit dem in der Anfrage angegebenen OUTPUT_BUCKET wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:

  • gs://OUTPUT_BUCKET/model-MODEL_ID/tf-js/YYYY-MM-DDThh:mm:ss.sssZ/

Dateien:

  1. dict.txt: Eine Labeldatei. Jede Zeile in der Labeldatei dict.txt stellt ein Label der vom Modell zurückgegebenen Vorhersagen in derselben Reihenfolge dar, in der sie angefordert wurden.

    Beispiel dict.txt

    roses
    daisy
    tulips
    dandelion
    sunflowers
    
  2. group1-shard1of3.bin: Eine Binärdatei.
  3. group1-shard2of3.bin: Eine Binärdatei.
  4. group1-shard3of3.bin: Eine Binärdatei.
  5. model.json: Eine JSON-Dateidarstellung eines Modells.

    Beispiel model.json (zur Verdeutlichung gekürzt)

    {
      "format": "graph-model",
      "generatedBy": "2.4.0",
      "convertedBy": "TensorFlow.js Converter v1.7.0",
      "userDefinedMetadata": {
        "signature": {
          "inputs": {
            "image:0": {
              "name": "image:0",
              "dtype": "DT_FLOAT",
              "tensorShape": {
                "dim": [
                  {
                    "size": "1"
                  },
                  {
                    "size": "224"
                  },
                  {
                    "size": "224"
                  },
                  {
                    "size": "3"
                  }
                ]
              }
            }
          },
          "outputs": {
            "scores:0": {
              "name": "scores:0",
              "dtype": "DT_FLOAT",
              "tensorShape": {
                "dim": [
                  {
                    "size": "1"
                  },
                  {
                    "size": "5"
                  }
                ]
              }
            }
          }
        }
      },
      "modelTopology": {
        "node": [
          {
            "name": "image",
            "op": "Placeholder",
            "attr": {
              "dtype": {
                "type": "DT_FLOAT"
              },
              "shape": {
                "shape": {
                  "dim": [
                    {
                      "size": "1"
                    },
                    {
                      "size": "224"
                    },
                    {
                      "size": "224"
                    },
                    {
                      "size": "3"
                    }
                  ]
                }
              }
            }
          },
          {
            "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices",
            "op": "Const",
            "attr": {
              "value": {
                "tensor": {
                  "dtype": "DT_INT32",
                  "tensorShape": {
                    "dim": [
                      {
                        "size": "2"
                      }
                    ]
                  }
                }
              },
              "dtype": {
                "type": "DT_INT32"
              }
            }
          },
          ...
          {
            "name": "scores",
            "op": "Identity",
            "input": [
              "Softmax"
            ],
            "attr": {
              "T": {
                "type": "DT_FLOAT"
              }
            }
          }
        ],
        "library": {},
        "versions": {}
      },
      "weightsManifest": [
        {
          "paths": [
            "group1-shard1of3.bin",
            "group1-shard2of3.bin",
            "group1-shard3of3.bin"
          ],
          "weights": [
            {
              "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices",
              "shape": [
                2
              ],
              "dtype": "int32"
            },
            {
              "name": "mnas_v4_a/output/fc/tf_layer/kernel",
              "shape": [
                1280,
                5
              ],
              "dtype": "float32"
            },
            ...
            {
              "name": "mnas_v4_a_1/feature_network/lead_cell_17/op_0/conv2d_0/Conv2D_weights",
              "shape": [
                1,
                1,
                320,
                1280
              ],
              "dtype": "float32"
            },
            {
              "name": "mnas_v4_a_1/feature_network/cell_14/op_0/expand_0/Conv2D_bn_offset",
              "shape": [
                1152
              ],
              "dtype": "float32"
            }
          ]
        }
      ]
    }

Video

Wählen Sie den Tab unten für Ihr Modellformat aus:

TF Lite

Mit dem in der Anfrage angegebenen OUTPUT_BUCKET wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:

  • gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/

Dateien:

  1. model.tflite: Eine Datei mit einer Version des Modells, die mit TensorFlow Lite verwendet werden kann.
  2. frozen_inference_graph.pb: Eine serialisierte Protokollzwischenspeicherdatei mit der Grafikdefinition und den Gewichtungen des Modells.
  3. label_map.pbtxt : Eine Label-Zuordnungsdatei, die jedes der verwendeten Labels einem ganzzahligen Wert zuordnet.

Edge TPU

Mit dem in der Anfrage angegebenen OUTPUT_BUCKET wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:

  • gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/

Dateien:

  1. edgetpu_model.tflite: Eine Datei mit einer Version des Modells für TensorFlow Lite, die durch den Edge TPU-Compiler übergeben wird, um mit der Edge TPU kompatibel zu sein.
  2. label_map.pbtxt: Eine Label-Zuordnungsdatei, die jedes der verwendeten Labels einem ganzzahligen Wert zuordnet.

Container

Mit dem in der Anfrage angegebenen OUTPUT_BUCKET wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:

  • gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/

Dateien:

  1. frozen_inference_graph.pb: Eine serialisierte Protokollzwischenspeicherdatei mit der Grafikdefinition und den Gewichtungen des Modells.
  2. label_map.pbtxt: Eine Label-Zuordnungsdatei, die jedes der verwendeten Labels einem ganzzahligen Wert zuordnet.
  3. saved_model/saved_model.pb: Die Datei speichert das eigentliche TensorFlow-Programm oder das tatsächliche Modell sowie einen Satz benannter Signaturen, die jeweils eine Funktion identifizieren, die Tensor-Eingaben akzeptiert und Tensor-Ausgaben erzeugt.
  4. saved_model/variables/: Das Variablenverzeichnis enthält einen Standardprüfpunkt für das Training.