Exporter des modèles AutoML Edge

Cette page explique comment utiliser Vertex AI pour exporter vos modèles AutoML Edge d'images et de vidéos vers Cloud Storage.

Pour plus d'informations sur l'exportation de modèles tabulaires, consultez la page Exporter un modèle tabulaire AutoML.

Présentation

Après avoir entraîné un modèle AutoML Edge, vous pouvez, dans certains cas, exporter le modèle dans différents formats, en fonction de la manière dont vous souhaitez l'utiliser. Les fichiers de modèle exportés sont enregistrés dans un bucket Cloud Storage et peuvent être utilisés pour les prédictions dans l'environnement de votre choix.

Vous ne pouvez pas utiliser un modèle Edge dans Vertex AI pour diffuser des prédictions. Vous devez déployer le modèle Edge sur un appareil externe pour obtenir des prédictions.

Exporter un modèle

Utilisez les exemples de code suivants pour identifier un modèle AutoML Edge, spécifier un emplacement de stockage pour un fichier de sortie, puis envoyer la requête d'exportation de modèle.

Image

Sélectionnez l'onglet correspondant à votre objectif :

Classification

Les modèles de classification d'images AutoML Edge entraînés peuvent être exportés dans les formats suivants :

  • TF Lite : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
  • Edge TPU TF Lite : exportez votre modèle en tant que package TF Lite pour l'exécuter sur les appareils Edge TPU.
  • Conteneur : Exportez votre modèle en tant que SavedModel TensorFlow pour l'exécuter sur un conteneur Docker.
  • Core ML : exportez un fichier .mlmodel pour exécuter votre modèle sur des appareils iOS et macOS.
  • Tensorflow.js : Exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans votre navigateur et dans Node.js.

Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :

Console

  1. Dans la section Vertex AI de la console Google Cloud, accédez à la page Modèles.

    Accéder à la page des modèles

  2. Cliquez sur le numéro de version du modèle AutoML Edge que vous souhaitez exporter pour ouvrir sa page d'informations.
  3. Cliquez sur Exporter.
  4. Dans la fenêtre latérale Exporter le modèle, spécifiez l'emplacement dans Cloud Storage pour stocker le résultat de l'exportation du modèle Edge.
  5. Cliquez sur Exporter.
  6. Cliquez sur Terminé pour fermer la fenêtre latérale Exporter le modèle.

REST

Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :

  • LOCATION : emplacement de votre projet.
  • PROJECT : l'ID de votre projet.
  • MODEL_ID : numéro ID du modèle AutoML Edge entraîné que vous exportez.
  • EXPORT_FORMAT : type de modèle Edge que vous exportez. Pour cet objectif, les options sont les suivantes :
    • tflite (TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
    • edgetpu-tflite (Edge TPU TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur les appareils Edge TPU.
    • tf-saved-model (Conteneur) : Exportez votre modèle en tant que SavedModel TF pour l'exécuter sur un conteneur Docker.
    • core-ml (Core ML) : exportez un fichier .mlmodel pour exécuter votre modèle sur des appareils iOS et macOS.
    • tf-js (Tensorflow.js) : Exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans votre navigateur et dans Node.js.
  • OUTPUT_BUCKET : chemin d'accès au répertoire de bucket Cloud Storage où vous souhaitez stocker les fichiers de modèle Edge.
  • Méthode HTTP et URL :

    POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export

    Corps JSON de la requête :

    {
      "outputConfig": {
        "exportFormatId": "EXPORT_FORMAT",
        "artifactDestination": {
          "outputUriPrefix": "gs://OUTPUT_BUCKET/"
        }
      }
    }
    

    Pour envoyer votre requête, choisissez l'une des options suivantes :

    curl

    Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -d @request.json \
    "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"

    PowerShell

    Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

    $cred = gcloud auth print-access-token
    $headers = @{ "Authorization" = "Bearer $cred" }

    Invoke-WebRequest `
    -Method POST `
    -Headers $headers `
    -ContentType: "application/json; charset=utf-8" `
    -InFile request.json `
    -Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

    La réponse contient des informations sur les spécifications, ainsi que sur OPERATION_ID.

    Vous pouvez obtenir l'état de l'opération d'exportation pour voir quand elle est terminée.

Java

Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.

Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.


import com.google.api.gax.longrunning.OperationFuture;
import com.google.cloud.aiplatform.v1.ExportModelOperationMetadata;
import com.google.cloud.aiplatform.v1.ExportModelRequest;
import com.google.cloud.aiplatform.v1.ExportModelResponse;
import com.google.cloud.aiplatform.v1.GcsDestination;
import com.google.cloud.aiplatform.v1.ModelName;
import com.google.cloud.aiplatform.v1.ModelServiceClient;
import com.google.cloud.aiplatform.v1.ModelServiceSettings;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class ExportModelSample {

  public static void main(String[] args)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    String project = "YOUR_PROJECT_ID";
    String modelId = "YOUR_MODEL_ID";
    String gcsDestinationOutputUriPrefix = "gs://YOUR_GCS_SOURCE_BUCKET/path_to_your_destination/";
    String exportFormat = "YOUR_EXPORT_FORMAT";
    exportModelSample(project, modelId, gcsDestinationOutputUriPrefix, exportFormat);
  }

  static void exportModelSample(
      String project, String modelId, String gcsDestinationOutputUriPrefix, String exportFormat)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    ModelServiceSettings modelServiceSettings =
        ModelServiceSettings.newBuilder()
            .setEndpoint("us-central1-aiplatform.googleapis.com:443")
            .build();

    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the "close" method on the client to safely clean up any remaining background resources.
    try (ModelServiceClient modelServiceClient = ModelServiceClient.create(modelServiceSettings)) {
      String location = "us-central1";
      GcsDestination.Builder gcsDestination = GcsDestination.newBuilder();
      gcsDestination.setOutputUriPrefix(gcsDestinationOutputUriPrefix);

      ModelName modelName = ModelName.of(project, location, modelId);
      ExportModelRequest.OutputConfig outputConfig =
          ExportModelRequest.OutputConfig.newBuilder()
              .setExportFormatId(exportFormat)
              .setArtifactDestination(gcsDestination)
              .build();

      OperationFuture<ExportModelResponse, ExportModelOperationMetadata> exportModelResponseFuture =
          modelServiceClient.exportModelAsync(modelName, outputConfig);
      System.out.format(
          "Operation name: %s\n", exportModelResponseFuture.getInitialFuture().get().getName());
      System.out.println("Waiting for operation to finish...");
      ExportModelResponse exportModelResponse =
          exportModelResponseFuture.get(300, TimeUnit.SECONDS);

      System.out.format("Export Model Response: %s\n", exportModelResponse);
    }
  }
}

Node.js

Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.

Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.

/**
 * TODO(developer): Uncomment these variables before running the sample.\
   (Not necessary if passing values as arguments)
 */

// const modelId = 'YOUR_MODEL_ID';
// const gcsDestinationOutputUriPrefix ='YOUR_GCS_DEST_OUTPUT_URI_PREFIX';
//    eg. "gs://<your-gcs-bucket>/destination_path"
// const exportFormat = 'YOUR_EXPORT_FORMAT';
// const project = 'YOUR_PROJECT_ID';
// const location = 'YOUR_PROJECT_LOCATION';

// Imports the Google Cloud Model Service Client library
const {ModelServiceClient} = require('@google-cloud/aiplatform');

// Specifies the location of the api endpoint
const clientOptions = {
  apiEndpoint: 'us-central1-aiplatform.googleapis.com',
};

// Instantiates a client
const modelServiceClient = new ModelServiceClient(clientOptions);

async function exportModel() {
  // Configure the name resources
  const name = `projects/${project}/locations/${location}/models/${modelId}`;
  // Configure the outputConfig resources
  const outputConfig = {
    exportFormatId: exportFormat,
    gcsDestination: {
      outputUriPrefix: gcsDestinationOutputUriPrefix,
    },
  };
  const request = {
    name,
    outputConfig,
  };

  // Export Model request
  const [response] = await modelServiceClient.exportModel(request);
  console.log(`Long running operation : ${response.name}`);

  // Wait for operation to complete
  await response.promise();
  const result = response.result;

  console.log(`Export model response : ${JSON.stringify(result)}`);
}
exportModel();

Python

Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez la section Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.

from google.cloud import aiplatform


def export_model_sample(
    project: str,
    model_id: str,
    gcs_destination_output_uri_prefix: str,
    location: str = "us-central1",
    api_endpoint: str = "us-central1-aiplatform.googleapis.com",
    timeout: int = 300,
):
    # The AI Platform services require regional API endpoints.
    client_options = {"api_endpoint": api_endpoint}
    # Initialize client that will be used to create and send requests.
    # This client only needs to be created once, and can be reused for multiple requests.
    client = aiplatform.gapic.ModelServiceClient(client_options=client_options)
    output_config = {
        "artifact_destination": {
            "output_uri_prefix": gcs_destination_output_uri_prefix
        },
        # For information about export formats: https://cloud.google.com/ai-platform-unified/docs/export/export-edge-model#aiplatform_export_model_sample-drest
        "export_format_id": "tf-saved-model",
    }
    name = client.model_path(project=project, location=location, model=model_id)
    response = client.export_model(name=name, output_config=output_config)
    print("Long running operation:", response.operation.name)
    print("output_info:", response.metadata.output_info)
    export_model_response = response.result(timeout=timeout)
    print("export_model_response:", export_model_response)

Classification

Les modèles de classification d'images AutoML Edge entraînés peuvent être exportés dans les formats suivants :

  • TF Lite : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
  • Edge TPU TF Lite : exportez votre modèle en tant que package TF Lite pour l'exécuter sur les appareils Edge TPU.
  • Conteneur : Exportez votre modèle en tant que SavedModel TensorFlow pour l'exécuter sur un conteneur Docker.
  • Core ML : exportez un fichier .mlmodel pour exécuter votre modèle sur des appareils iOS et macOS.
  • Tensorflow.js : Exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans votre navigateur et dans Node.js.

Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :

Console

  1. Dans la section Vertex AI de la console Google Cloud, accédez à la page Modèles.

    Accéder à la page des modèles

  2. Cliquez sur le numéro de version du modèle AutoML Edge que vous souhaitez exporter pour ouvrir sa page d'informations.
  3. Cliquez sur Exporter.
  4. Dans la fenêtre latérale Exporter le modèle, spécifiez l'emplacement dans Cloud Storage pour stocker le résultat de l'exportation du modèle Edge.
  5. Cliquez sur Exporter.
  6. Cliquez sur Terminé pour fermer la fenêtre latérale Exporter le modèle.

REST

Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :

  • LOCATION : emplacement de votre projet.
  • PROJECT : l'ID de votre projet.
  • MODEL_ID : numéro ID du modèle AutoML Edge entraîné que vous exportez.
  • EXPORT_FORMAT : type de modèle Edge que vous exportez. Pour cet objectif, les options sont les suivantes :
    • tflite (TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
    • edgetpu-tflite (Edge TPU TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur les appareils Edge TPU.
    • tf-saved-model (Conteneur) : Exportez votre modèle en tant que SavedModel TF pour l'exécuter sur un conteneur Docker.
    • core-ml (Core ML) : exportez un fichier .mlmodel pour exécuter votre modèle sur des appareils iOS et macOS.
    • tf-js (Tensorflow.js) : Exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans votre navigateur et dans Node.js.
  • OUTPUT_BUCKET : chemin d'accès au répertoire de bucket Cloud Storage où vous souhaitez stocker les fichiers de modèle Edge.
  • Méthode HTTP et URL :

    POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export

    Corps JSON de la requête :

    {
      "outputConfig": {
        "exportFormatId": "EXPORT_FORMAT",
        "artifactDestination": {
          "outputUriPrefix": "gs://OUTPUT_BUCKET/"
        }
      }
    }
    

    Pour envoyer votre requête, choisissez l'une des options suivantes :

    curl

    Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -d @request.json \
    "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"

    PowerShell

    Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

    $cred = gcloud auth print-access-token
    $headers = @{ "Authorization" = "Bearer $cred" }

    Invoke-WebRequest `
    -Method POST `
    -Headers $headers `
    -ContentType: "application/json; charset=utf-8" `
    -InFile request.json `
    -Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

    La réponse contient des informations sur les spécifications, ainsi que sur OPERATION_ID.

    Vous pouvez obtenir l'état de l'opération d'exportation pour voir quand elle est terminée.

Java

Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.

Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.


import com.google.api.gax.longrunning.OperationFuture;
import com.google.cloud.aiplatform.v1.ExportModelOperationMetadata;
import com.google.cloud.aiplatform.v1.ExportModelRequest;
import com.google.cloud.aiplatform.v1.ExportModelResponse;
import com.google.cloud.aiplatform.v1.GcsDestination;
import com.google.cloud.aiplatform.v1.ModelName;
import com.google.cloud.aiplatform.v1.ModelServiceClient;
import com.google.cloud.aiplatform.v1.ModelServiceSettings;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class ExportModelSample {

  public static void main(String[] args)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    String project = "YOUR_PROJECT_ID";
    String modelId = "YOUR_MODEL_ID";
    String gcsDestinationOutputUriPrefix = "gs://YOUR_GCS_SOURCE_BUCKET/path_to_your_destination/";
    String exportFormat = "YOUR_EXPORT_FORMAT";
    exportModelSample(project, modelId, gcsDestinationOutputUriPrefix, exportFormat);
  }

  static void exportModelSample(
      String project, String modelId, String gcsDestinationOutputUriPrefix, String exportFormat)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    ModelServiceSettings modelServiceSettings =
        ModelServiceSettings.newBuilder()
            .setEndpoint("us-central1-aiplatform.googleapis.com:443")
            .build();

    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the "close" method on the client to safely clean up any remaining background resources.
    try (ModelServiceClient modelServiceClient = ModelServiceClient.create(modelServiceSettings)) {
      String location = "us-central1";
      GcsDestination.Builder gcsDestination = GcsDestination.newBuilder();
      gcsDestination.setOutputUriPrefix(gcsDestinationOutputUriPrefix);

      ModelName modelName = ModelName.of(project, location, modelId);
      ExportModelRequest.OutputConfig outputConfig =
          ExportModelRequest.OutputConfig.newBuilder()
              .setExportFormatId(exportFormat)
              .setArtifactDestination(gcsDestination)
              .build();

      OperationFuture<ExportModelResponse, ExportModelOperationMetadata> exportModelResponseFuture =
          modelServiceClient.exportModelAsync(modelName, outputConfig);
      System.out.format(
          "Operation name: %s\n", exportModelResponseFuture.getInitialFuture().get().getName());
      System.out.println("Waiting for operation to finish...");
      ExportModelResponse exportModelResponse =
          exportModelResponseFuture.get(300, TimeUnit.SECONDS);

      System.out.format("Export Model Response: %s\n", exportModelResponse);
    }
  }
}

Node.js

Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.

Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.

/**
 * TODO(developer): Uncomment these variables before running the sample.\
   (Not necessary if passing values as arguments)
 */

// const modelId = 'YOUR_MODEL_ID';
// const gcsDestinationOutputUriPrefix ='YOUR_GCS_DEST_OUTPUT_URI_PREFIX';
//    eg. "gs://<your-gcs-bucket>/destination_path"
// const exportFormat = 'YOUR_EXPORT_FORMAT';
// const project = 'YOUR_PROJECT_ID';
// const location = 'YOUR_PROJECT_LOCATION';

// Imports the Google Cloud Model Service Client library
const {ModelServiceClient} = require('@google-cloud/aiplatform');

// Specifies the location of the api endpoint
const clientOptions = {
  apiEndpoint: 'us-central1-aiplatform.googleapis.com',
};

// Instantiates a client
const modelServiceClient = new ModelServiceClient(clientOptions);

async function exportModel() {
  // Configure the name resources
  const name = `projects/${project}/locations/${location}/models/${modelId}`;
  // Configure the outputConfig resources
  const outputConfig = {
    exportFormatId: exportFormat,
    gcsDestination: {
      outputUriPrefix: gcsDestinationOutputUriPrefix,
    },
  };
  const request = {
    name,
    outputConfig,
  };

  // Export Model request
  const [response] = await modelServiceClient.exportModel(request);
  console.log(`Long running operation : ${response.name}`);

  // Wait for operation to complete
  await response.promise();
  const result = response.result;

  console.log(`Export model response : ${JSON.stringify(result)}`);
}
exportModel();

Python

Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez la section Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.

from google.cloud import aiplatform


def export_model_sample(
    project: str,
    model_id: str,
    gcs_destination_output_uri_prefix: str,
    location: str = "us-central1",
    api_endpoint: str = "us-central1-aiplatform.googleapis.com",
    timeout: int = 300,
):
    # The AI Platform services require regional API endpoints.
    client_options = {"api_endpoint": api_endpoint}
    # Initialize client that will be used to create and send requests.
    # This client only needs to be created once, and can be reused for multiple requests.
    client = aiplatform.gapic.ModelServiceClient(client_options=client_options)
    output_config = {
        "artifact_destination": {
            "output_uri_prefix": gcs_destination_output_uri_prefix
        },
        # For information about export formats: https://cloud.google.com/ai-platform-unified/docs/export/export-edge-model#aiplatform_export_model_sample-drest
        "export_format_id": "tf-saved-model",
    }
    name = client.model_path(project=project, location=location, model=model_id)
    response = client.export_model(name=name, output_config=output_config)
    print("Long running operation:", response.operation.name)
    print("output_info:", response.metadata.output_info)
    export_model_response = response.result(timeout=timeout)
    print("export_model_response:", export_model_response)

Détection d'objets

Les modèles de détection d'objets d'image AutoML Edge entraînés peuvent être exportés dans les formats suivants :

  • TF Lite : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
  • Conteneur : Exportez votre modèle en tant que SavedModel TensorFlow pour l'exécuter sur un conteneur Docker.
  • Tensorflow.js : Exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans votre navigateur et dans Node.js.

Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :

Console

  1. Dans la section Vertex AI de la console Google Cloud, accédez à la page Modèles.

    Accéder à la page des modèles

  2. Cliquez sur le numéro de version du modèle AutoML Edge que vous souhaitez exporter pour ouvrir sa page d'informations.
  3. Sélectionnez l'onglet Deploy & Test (Déployer et tester) pour afficher les formats d'exportation disponibles.
  4. Sélectionnez le format d'exportation de modèle souhaité dans la section Utiliser votre modèle optimisé pour edge.
  5. Dans la fenêtre latérale Exporter le modèle, spécifiez l'emplacement dans Cloud Storage pour stocker le résultat de l'exportation du modèle Edge.
  6. Cliquez sur Exporter.
  7. Cliquez sur Terminé pour fermer la fenêtre latérale Exporter le modèle.

REST

Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :

  • LOCATION : emplacement de votre projet.
  • PROJECT : l'ID de votre projet.
  • MODEL_ID : numéro ID du modèle AutoML Edge entraîné que vous exportez.
  • EXPORT_FORMAT : type de modèle Edge que vous exportez. Pour cet objectif, les options sont les suivantes :
    • tflite (TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
    • tf-saved-model (Conteneur) : Exportez votre modèle en tant que SavedModel TF pour l'exécuter sur un conteneur Docker.
    • tf-js (Tensorflow.js) : Exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans votre navigateur et dans Node.js.
  • OUTPUT_BUCKET : chemin d'accès au répertoire de bucket Cloud Storage où vous souhaitez stocker les fichiers de modèle Edge.
  • Méthode HTTP et URL :

    POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export

    Corps JSON de la requête :

    {
      "outputConfig": {
        "exportFormatId": "EXPORT_FORMAT",
        "artifactDestination": {
          "outputUriPrefix": "gs://OUTPUT_BUCKET/"
        }
      }
    }
    

    Pour envoyer votre requête, choisissez l'une des options suivantes :

    curl

    Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -d @request.json \
    "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"

    PowerShell

    Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

    $cred = gcloud auth print-access-token
    $headers = @{ "Authorization" = "Bearer $cred" }

    Invoke-WebRequest `
    -Method POST `
    -Headers $headers `
    -ContentType: "application/json; charset=utf-8" `
    -InFile request.json `
    -Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

    La réponse contient des informations sur les spécifications, ainsi que sur OPERATION_ID.

    Vous pouvez obtenir l'état de l'opération d'exportation pour voir quand elle est terminée.

Java

Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.

Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.


import com.google.api.gax.longrunning.OperationFuture;
import com.google.cloud.aiplatform.v1.ExportModelOperationMetadata;
import com.google.cloud.aiplatform.v1.ExportModelRequest;
import com.google.cloud.aiplatform.v1.ExportModelResponse;
import com.google.cloud.aiplatform.v1.GcsDestination;
import com.google.cloud.aiplatform.v1.ModelName;
import com.google.cloud.aiplatform.v1.ModelServiceClient;
import com.google.cloud.aiplatform.v1.ModelServiceSettings;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class ExportModelSample {

  public static void main(String[] args)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    String project = "YOUR_PROJECT_ID";
    String modelId = "YOUR_MODEL_ID";
    String gcsDestinationOutputUriPrefix = "gs://YOUR_GCS_SOURCE_BUCKET/path_to_your_destination/";
    String exportFormat = "YOUR_EXPORT_FORMAT";
    exportModelSample(project, modelId, gcsDestinationOutputUriPrefix, exportFormat);
  }

  static void exportModelSample(
      String project, String modelId, String gcsDestinationOutputUriPrefix, String exportFormat)
      throws IOException, InterruptedException, ExecutionException, TimeoutException {
    ModelServiceSettings modelServiceSettings =
        ModelServiceSettings.newBuilder()
            .setEndpoint("us-central1-aiplatform.googleapis.com:443")
            .build();

    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the "close" method on the client to safely clean up any remaining background resources.
    try (ModelServiceClient modelServiceClient = ModelServiceClient.create(modelServiceSettings)) {
      String location = "us-central1";
      GcsDestination.Builder gcsDestination = GcsDestination.newBuilder();
      gcsDestination.setOutputUriPrefix(gcsDestinationOutputUriPrefix);

      ModelName modelName = ModelName.of(project, location, modelId);
      ExportModelRequest.OutputConfig outputConfig =
          ExportModelRequest.OutputConfig.newBuilder()
              .setExportFormatId(exportFormat)
              .setArtifactDestination(gcsDestination)
              .build();

      OperationFuture<ExportModelResponse, ExportModelOperationMetadata> exportModelResponseFuture =
          modelServiceClient.exportModelAsync(modelName, outputConfig);
      System.out.format(
          "Operation name: %s\n", exportModelResponseFuture.getInitialFuture().get().getName());
      System.out.println("Waiting for operation to finish...");
      ExportModelResponse exportModelResponse =
          exportModelResponseFuture.get(300, TimeUnit.SECONDS);

      System.out.format("Export Model Response: %s\n", exportModelResponse);
    }
  }
}

Node.js

Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.

Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.

/**
 * TODO(developer): Uncomment these variables before running the sample.\
   (Not necessary if passing values as arguments)
 */

// const modelId = 'YOUR_MODEL_ID';
// const gcsDestinationOutputUriPrefix ='YOUR_GCS_DEST_OUTPUT_URI_PREFIX';
//    eg. "gs://<your-gcs-bucket>/destination_path"
// const exportFormat = 'YOUR_EXPORT_FORMAT';
// const project = 'YOUR_PROJECT_ID';
// const location = 'YOUR_PROJECT_LOCATION';

// Imports the Google Cloud Model Service Client library
const {ModelServiceClient} = require('@google-cloud/aiplatform');

// Specifies the location of the api endpoint
const clientOptions = {
  apiEndpoint: 'us-central1-aiplatform.googleapis.com',
};

// Instantiates a client
const modelServiceClient = new ModelServiceClient(clientOptions);

async function exportModel() {
  // Configure the name resources
  const name = `projects/${project}/locations/${location}/models/${modelId}`;
  // Configure the outputConfig resources
  const outputConfig = {
    exportFormatId: exportFormat,
    gcsDestination: {
      outputUriPrefix: gcsDestinationOutputUriPrefix,
    },
  };
  const request = {
    name,
    outputConfig,
  };

  // Export Model request
  const [response] = await modelServiceClient.exportModel(request);
  console.log(`Long running operation : ${response.name}`);

  // Wait for operation to complete
  await response.promise();
  const result = response.result;

  console.log(`Export model response : ${JSON.stringify(result)}`);
}
exportModel();

Python

Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez la section Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.

from google.cloud import aiplatform


def export_model_sample(
    project: str,
    model_id: str,
    gcs_destination_output_uri_prefix: str,
    location: str = "us-central1",
    api_endpoint: str = "us-central1-aiplatform.googleapis.com",
    timeout: int = 300,
):
    # The AI Platform services require regional API endpoints.
    client_options = {"api_endpoint": api_endpoint}
    # Initialize client that will be used to create and send requests.
    # This client only needs to be created once, and can be reused for multiple requests.
    client = aiplatform.gapic.ModelServiceClient(client_options=client_options)
    output_config = {
        "artifact_destination": {
            "output_uri_prefix": gcs_destination_output_uri_prefix
        },
        # For information about export formats: https://cloud.google.com/ai-platform-unified/docs/export/export-edge-model#aiplatform_export_model_sample-drest
        "export_format_id": "tf-saved-model",
    }
    name = client.model_path(project=project, location=location, model=model_id)
    response = client.export_model(name=name, output_config=output_config)
    print("Long running operation:", response.operation.name)
    print("output_info:", response.metadata.output_info)
    export_model_response = response.result(timeout=timeout)
    print("export_model_response:", export_model_response)

Vidéo

Sélectionnez l'onglet correspondant à votre objectif :

Reconnaissance des actions

Les modèles de reconnaissance des actions vidéo AutoML Edge entraînés peuvent être exportés au format de modèle enregistré.

Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :

Console

  1. Dans la section Vertex AI de la console Google Cloud, accédez à la page Modèles.

    Accéder à la page des modèles

  2. Cliquez sur le numéro de version du modèle AutoML Edge que vous souhaitez exporter pour ouvrir sa page d'informations.
  3. Cliquez sur Exporter.
  4. Dans la fenêtre latérale Exporter le modèle, spécifiez l'emplacement dans Cloud Storage pour stocker le résultat de l'exportation du modèle Edge.
  5. Cliquez sur Exporter.
  6. Cliquez sur Terminé pour fermer la fenêtre latérale Exporter le modèle.

REST

Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :

  • LOCATION : région où le modèle est stocké. Exemple :us-central1
  • MODEL_ID : numéro ID du modèle AutoML Edge entraîné que vous exportez.
  • EXPORT_FORMAT : type de modèle Edge que vous exportez. Pour la reconnaissance des actions sur les vidéos, l'option de modèle est la suivante :
    • tf-saved-model (Conteneur) : Exportez votre modèle en tant que SavedModel TF pour l'exécuter sur un conteneur Docker.
  • OUTPUT_BUCKET : chemin d'accès au répertoire de bucket Cloud Storage où vous souhaitez stocker les fichiers de modèle Edge.
  • PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.

Méthode HTTP et URL :

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export

Corps JSON de la requête :

{
  "outputConfig": {
    "exportFormatId": "EXPORT_FORMAT",
    "artifactDestination": {
    "outputUriPrefix": "gs://OUTPUT_BUCKET/"
    }
  }
}

Pour envoyer votre requête, choisissez l'une des options suivantes :

curl

Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"

PowerShell

Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

La réponse contient des informations sur les spécifications, ainsi que sur OPERATION_ID.

Vous pouvez obtenir l'état de l'opération d'exportation pour voir quand elle est terminée.

Java

Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.

Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.

import com.google.api.gax.longrunning.OperationFuture;
import com.google.cloud.aiplatform.v1.ExportModelOperationMetadata;
import com.google.cloud.aiplatform.v1.ExportModelRequest;
import com.google.cloud.aiplatform.v1.ExportModelResponse;
import com.google.cloud.aiplatform.v1.GcsDestination;
import com.google.cloud.aiplatform.v1.ModelName;
import com.google.cloud.aiplatform.v1.ModelServiceClient;
import com.google.cloud.aiplatform.v1.ModelServiceSettings;
import java.io.IOException;
import java.util.concurrent.ExecutionException;

public class ExportModelVideoActionRecognitionSample {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException {
    // TODO(developer): Replace these variables before running the sample.
    String project = "PROJECT";
    String modelId = "MODEL_ID";
    String gcsDestinationOutputUriPrefix = "GCS_DESTINATION_OUTPUT_URI_PREFIX";
    String exportFormat = "EXPORT_FORMAT";
    exportModelVideoActionRecognitionSample(
        project, modelId, gcsDestinationOutputUriPrefix, exportFormat);
  }

  static void exportModelVideoActionRecognitionSample(
      String project, String modelId, String gcsDestinationOutputUriPrefix, String exportFormat)
      throws IOException, ExecutionException, InterruptedException {
    ModelServiceSettings settings =
        ModelServiceSettings.newBuilder()
            .setEndpoint("us-central1-aiplatform.googleapis.com:443")
            .build();
    String location = "us-central1";

    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the "close" method on the client to safely clean up any remaining background resources.
    try (ModelServiceClient client = ModelServiceClient.create(settings)) {
      GcsDestination gcsDestination =
          GcsDestination.newBuilder().setOutputUriPrefix(gcsDestinationOutputUriPrefix).build();
      ExportModelRequest.OutputConfig outputConfig =
          ExportModelRequest.OutputConfig.newBuilder()
              .setArtifactDestination(gcsDestination)
              .setExportFormatId(exportFormat)
              .build();
      ModelName name = ModelName.of(project, location, modelId);
      OperationFuture<ExportModelResponse, ExportModelOperationMetadata> response =
          client.exportModelAsync(name, outputConfig);

      // You can use OperationFuture.getInitialFuture to get a future representing the initial
      // response to the request, which contains information while the operation is in progress.
      System.out.format("Operation name: %s\n", response.getInitialFuture().get().getName());

      // OperationFuture.get() will block until the operation is finished.
      ExportModelResponse exportModelResponse = response.get();
      System.out.format("exportModelResponse: %s\n", exportModelResponse);
    }
  }
}

Python

Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez la section Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.

from google.cloud import aiplatform


def export_model_video_action_recognition_sample(
    project: str,
    model_id: str,
    gcs_destination_output_uri_prefix: str,
    export_format: str,
    location: str = "us-central1",
    api_endpoint: str = "us-central1-aiplatform.googleapis.com",
    timeout: int = 300,
):
    # The AI Platform services require regional API endpoints.
    client_options = {"api_endpoint": api_endpoint}
    # Initialize client that will be used to create and send requests.
    # This client only needs to be created once, and can be reused for multiple requests.
    client = aiplatform.gapic.ModelServiceClient(client_options=client_options)
    gcs_destination = {"output_uri_prefix": gcs_destination_output_uri_prefix}
    output_config = {
        "artifact_destination": gcs_destination,
        "export_format_id": export_format,
    }
    name = client.model_path(project=project, location=location, model=model_id)
    response = client.export_model(name=name, output_config=output_config)
    print("Long running operation:", response.operation.name)
    print("output_info:", response.metadata.output_info)
    export_model_response = response.result(timeout=timeout)
    print("export_model_response:", export_model_response)

Classification

Les modèles de classification de vidéos AutoML Edge entraînés ne peuvent être exportés qu'au format de modèle enregistré.

Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :

Console

  1. Dans la section Vertex AI de la console Google Cloud, accédez à la page Modèles.

    Accéder à la page des modèles

  2. Cliquez sur le numéro de version du modèle AutoML Edge que vous souhaitez exporter pour ouvrir sa page d'informations.
  3. Cliquez sur Exporter.
  4. Dans la fenêtre latérale Exporter le modèle, spécifiez l'emplacement dans Cloud Storage pour stocker le résultat de l'exportation du modèle Edge.
  5. Cliquez sur Exporter.
  6. Cliquez sur Terminé pour fermer la fenêtre latérale Exporter le modèle.

REST

Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :

  • LOCATION : région où le modèle est stocké. Par exemple, us-central1.
  • MODEL_ID : numéro ID du modèle AutoML Edge entraîné que vous exportez.
  • EXPORT_FORMAT : type de modèle Edge que vous exportez. Pour la classification des vidéos, l'option de modèle est la suivante :
    • tf-saved-model (Conteneur) : Exportez votre modèle en tant que SavedModel TF pour l'exécuter sur un conteneur Docker.
  • OUTPUT_BUCKET : chemin d'accès au répertoire de bucket Cloud Storage où vous souhaitez stocker les fichiers de modèle Edge.
  • PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.

Méthode HTTP et URL :

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export

Corps JSON de la requête :

{
  "outputConfig": {
    "exportFormatId": "EXPORT_FORMAT",
    "artifactDestination": {
    "outputUriPrefix": "gs://OUTPUT_BUCKET/"
    }
  }
}

Pour envoyer votre requête, choisissez l'une des options suivantes :

curl

Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"

PowerShell

Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

La réponse contient des informations sur les spécifications, ainsi que sur OPERATION_ID.

{
  "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID",
  "metadata": {
    "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata",
    "genericMetadata": {
      "createTime": "2020-10-12T20:53:40.130785Z",
      "updateTime": "2020-10-12T20:53:40.130785Z"
    },
    "outputInfo": {
      "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ"
    }
  }
}

Vous pouvez obtenir l'état de l'opération d'exportation pour voir quand elle est terminée.

Suivi des objets

Les modèles de suivi d'objets vidéo AutoML Edge entraînés peuvent être exportés dans les formats suivants :

  • TF Lite : exportez votre modèle en tant que package TensorFlow Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
  • Conteneur : exportez votre modèle en tant que modèle enregistré TensorFlow pour l'exécuter sur un conteneur Docker.

Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :

Console

  1. Dans la section Vertex AI de la console Google Cloud, accédez à la page Modèles.

    Accéder à la page des modèles

  2. Cliquez sur le numéro de version du modèle AutoML Edge que vous souhaitez exporter pour ouvrir sa page d'informations.
  3. Cliquez sur Exporter.
  4. Dans la fenêtre latérale Exporter le modèle, spécifiez l'emplacement dans Cloud Storage pour stocker le résultat de l'exportation du modèle Edge.
  5. Cliquez sur Exporter.
  6. Cliquez sur Terminé pour fermer la fenêtre latérale Exporter le modèle.

REST

Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :

  • LOCATION : région où le modèle est stocké. Par exemple, us-central1.
  • MODEL_ID : numéro ID du modèle AutoML Edge entraîné que vous exportez.
  • EXPORT_FORMAT : type de modèle Edge que vous exportez. Pour les modèles de suivi d'objet vidéo, les options sont les suivantes :
    • tflite (TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
    • edgetpu-tflite (Edge TPU TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur les appareils Edge TPU.
    • tf-saved-model (Conteneur) : Exportez votre modèle en tant que SavedModel TF pour l'exécuter sur un conteneur Docker.
  • OUTPUT_BUCKET : chemin d'accès au répertoire de bucket Cloud Storage où vous souhaitez stocker les fichiers de modèle Edge.
  • PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.

Méthode HTTP et URL :

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export

Corps JSON de la requête :

{
  "outputConfig": {
    "exportFormatId": "EXPORT_FORMAT",
    "artifactDestination": {
    "outputUriPrefix": "gs://OUTPUT_BUCKET/"
    }
  }
}

Pour envoyer votre requête, choisissez l'une des options suivantes :

curl

Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"

PowerShell

Enregistrez le corps de la requête dans un fichier nommé request.json, puis exécutez la commande suivante :

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content

La réponse contient des informations sur les spécifications, ainsi que sur OPERATION_ID.

{
  "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID",
  "metadata": {
    "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata",
    "genericMetadata": {
      "createTime": "2020-10-12T20:53:40.130785Z",
      "updateTime": "2020-10-12T20:53:40.130785Z"
    },
    "outputInfo": {
      "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ"
    }
  }
}

Vous pouvez obtenir l'état de l'opération d'exportation pour voir quand elle est terminée.

Obtenir l'état de l'opération

Image

Utilisez le code suivant pour obtenir l'état de l'opération d'exportation. Ce code est le même pour tous les objectifs :

REST

Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :

  • LOCATION : emplacement de votre projet.
  • PROJECT : l'ID de votre projet.
  • OPERATION_ID :ID de l'opération cible. Cet ID est généralement contenu dans la réponse à la requête d'origine.

Méthode HTTP et URL :

GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID

Pour envoyer votre requête, choisissez l'une des options suivantes :

curl

Exécutez la commande suivante :

curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"

PowerShell

Exécutez la commande suivante :

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
Pour une opération terminée, vous devriez obtenir un résultat semblable à celui-ci :
{
  "name": "projects/PROJECT/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID",
  "metadata": {
    "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata",
    "genericMetadata": {
      "createTime": "2020-10-12T20:53:40.130785Z",
      "updateTime": "2020-10-12T20:53:40.793983Z"
    },
    "outputInfo": {
      "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ"
    }
  },
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelResponse"
  }
}

Vidéo

REST

Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :

  • PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.
  • LOCATION : région où le modèle est stocké. Exemple :us-central1
  • OPERATION_ID : ID de vos opérations.

Méthode HTTP et URL :

GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID

Pour envoyer votre requête, choisissez l'une des options suivantes :

curl

Exécutez la commande suivante :

curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"

PowerShell

Exécutez la commande suivante :

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content

Vous devriez recevoir une réponse JSON de ce type :

Fichiers de sortie

Image

Sélectionnez l'onglet correspondant à votre format de modèle :

TF Lite

Le OUTPUT_BUCKET que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est au format suivant :

  • gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/

Fichiers :

  1. model.tflite : fichier contenant une version du modèle prête à être utilisée avec TensorFlow Lite.

Edge TPU

Le OUTPUT_BUCKET que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est au format suivant :

  • gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/

Fichiers :

  1. edgetpu_model.tflite : fichier contenant une version du modèle pour TensorFlow Lite, transmise via le compilateur Edge TPU pour être compatible avec Edge TPU.

Conteneur

Le OUTPUT_BUCKET que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est au format suivant :

  • gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/

Fichiers :

  1. saved_model.pb : fichier de tampon de protocole contenant la définition du graphe et les pondérations du modèle.

CoreML

Le OUTPUT_BUCKET que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est au format suivant :

  • gs://OUTPUT_BUCKET/model-MODEL_ID/core-ml/YYYY-MM-DDThh:mm:ss.sssZ/

Fichiers :

  1. dict.txt : fichier d'étiquettes. Chaque ligne du fichier d'étiquettes dict.txt représente une étiquette des prédictions renvoyées par le modèle, dans l'ordre dans lequel elles ont été demandées.

    Exemple de dict.txt

    roses
    daisy
    tulips
    dandelion
    sunflowers
    
  2. model.mlmodel : fichier spécifiant un modèle Core ML.

Tensorflow.js

Le OUTPUT_BUCKET que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est au format suivant :

  • gs://OUTPUT_BUCKET/model-MODEL_ID/tf-js/YYYY-MM-DDThh:mm:ss.sssZ/

Fichiers :

  1. dict.txt : fichier d'étiquettes. Chaque ligne du fichier d'étiquettes dict.txt représente une étiquette des prédictions renvoyées par le modèle, dans l'ordre dans lequel elles ont été demandées.

    Exemple de dict.txt

    roses
    daisy
    tulips
    dandelion
    sunflowers
    
  2. group1-shard1of3.bin : fichier binaire.
  3. group1-shard2of3.bin : fichier binaire.
  4. group1-shard3of3.bin : fichier binaire.
  5. model.json : représentation de fichier JSON d'un modèle.

    Exemple model.json (abrégé pour plus de clarté)

    {
      "format": "graph-model",
      "generatedBy": "2.4.0",
      "convertedBy": "TensorFlow.js Converter v1.7.0",
      "userDefinedMetadata": {
        "signature": {
          "inputs": {
            "image:0": {
              "name": "image:0",
              "dtype": "DT_FLOAT",
              "tensorShape": {
                "dim": [
                  {
                    "size": "1"
                  },
                  {
                    "size": "224"
                  },
                  {
                    "size": "224"
                  },
                  {
                    "size": "3"
                  }
                ]
              }
            }
          },
          "outputs": {
            "scores:0": {
              "name": "scores:0",
              "dtype": "DT_FLOAT",
              "tensorShape": {
                "dim": [
                  {
                    "size": "1"
                  },
                  {
                    "size": "5"
                  }
                ]
              }
            }
          }
        }
      },
      "modelTopology": {
        "node": [
          {
            "name": "image",
            "op": "Placeholder",
            "attr": {
              "dtype": {
                "type": "DT_FLOAT"
              },
              "shape": {
                "shape": {
                  "dim": [
                    {
                      "size": "1"
                    },
                    {
                      "size": "224"
                    },
                    {
                      "size": "224"
                    },
                    {
                      "size": "3"
                    }
                  ]
                }
              }
            }
          },
          {
            "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices",
            "op": "Const",
            "attr": {
              "value": {
                "tensor": {
                  "dtype": "DT_INT32",
                  "tensorShape": {
                    "dim": [
                      {
                        "size": "2"
                      }
                    ]
                  }
                }
              },
              "dtype": {
                "type": "DT_INT32"
              }
            }
          },
          ...
          {
            "name": "scores",
            "op": "Identity",
            "input": [
              "Softmax"
            ],
            "attr": {
              "T": {
                "type": "DT_FLOAT"
              }
            }
          }
        ],
        "library": {},
        "versions": {}
      },
      "weightsManifest": [
        {
          "paths": [
            "group1-shard1of3.bin",
            "group1-shard2of3.bin",
            "group1-shard3of3.bin"
          ],
          "weights": [
            {
              "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices",
              "shape": [
                2
              ],
              "dtype": "int32"
            },
            {
              "name": "mnas_v4_a/output/fc/tf_layer/kernel",
              "shape": [
                1280,
                5
              ],
              "dtype": "float32"
            },
            ...
            {
              "name": "mnas_v4_a_1/feature_network/lead_cell_17/op_0/conv2d_0/Conv2D_weights",
              "shape": [
                1,
                1,
                320,
                1280
              ],
              "dtype": "float32"
            },
            {
              "name": "mnas_v4_a_1/feature_network/cell_14/op_0/expand_0/Conv2D_bn_offset",
              "shape": [
                1152
              ],
              "dtype": "float32"
            }
          ]
        }
      ]
    }

Vidéo

Sélectionnez l'onglet correspondant à votre format de modèle :

TF Lite

Le OUTPUT_BUCKET que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est au format suivant :

  • gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/

Fichiers :

  1. model.tflite : fichier contenant une version du modèle prête à être utilisée avec TensorFlow Lite.
  2. frozen_inference_graph.pb : fichier de tampon de protocole sérialisé contenant la définition du graphe et les pondérations du modèle.
  3. label_map.pbtxt : fichier de mappage d'étiquettes qui mappe chacune des étiquettes utilisées avec une valeur entière.

Edge TPU

Le OUTPUT_BUCKET que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est au format suivant :

  • gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/

Fichiers :

  1. edgetpu_model.tflite : fichier contenant une version du modèle pour TensorFlow Lite, transmise via le compilateur Edge TPU pour être compatible avec Edge TPU.
  2. label_map.pbtxt : fichier de mappage d'étiquettes qui mappe chacune des étiquettes utilisées avec une valeur entière.

Conteneur

Le OUTPUT_BUCKET que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est au format suivant :

  • gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/

Fichiers :

  1. frozen_inference_graph.pb : fichier de tampon de protocole sérialisé contenant la définition du graphe et les pondérations du modèle.
  2. label_map.pbtxt : fichier de mappage d'étiquettes qui mappe chacune des étiquettes utilisées avec une valeur entière.
  3. saved_model/saved_model.pb : le fichier stocke le programme ou le modèle TensorFlow réels, ainsi qu'un ensemble de signatures nommées, chacune identifiant une fonction qui accepte les entrées de Tensor et génère des sorties de Tensor.
  4. saved_model/variables/ : le répertoire des variables contient un point de contrôle d'entraînement standard.