Nesta página, você verá como usar a Vertex AI para exportar modelos de imagem e vídeo do AutoML Edge para o Cloud Storage.
Para mais informações sobre como exportar modelos tabulares, consulte Como exportar um modelo tabular do AutoML.
Introdução
Depois de treinar um modelo do AutoML Edge, em alguns casos, exporte o modelo em diferentes formatos, dependendo de como você quer usá-lo. Os arquivos de modelo exportados são salvos em um bucket do Cloud Storage e podem ser usados para previsão no ambiente de sua escolha.
Não é possível usar um modelo do Edge na Vertex AI para exibir previsões. É preciso implantar o modelo do Edge em um dispositivo externo para receber previsões.
Exportar um modelo
Use os exemplos de código a seguir para identificar um modelo do AutoML Edge, especificar um local de armazenamento de arquivos de saída e enviar a solicitação do modelo de exportação.
Imagem
Selecione a guia abaixo para seu objetivo:
Classificação
Os modelos de classificação de imagem do AutoML Edge treinados podem ser exportados nos seguintes formatos:
- TF Lite: exporte o modelo como um pacote TF Lite para execução em dispositivos móveis ou de borda.
- Edge TPU TF Lite: exporte o modelo como um pacote TF Lite para execução em dispositivos Edge TPU.
- Contêiner: exporte o modelo como um modelo salvo do TF para execução em um contêiner do Docker.
- Core ML: exporte um arquivo .mlmodel para executar seu modelo em dispositivos iOS e macOS.
- TensorFlow.js: exporte o modelo como um pacote do TensorFlow.js para execução no navegador e no Node.js.
Selecione a guia abaixo de acordo com seu idioma ou ambiente:
Console
- No console do Google Cloud, na seção da Vertex AI, acesse a página de Modelos.
- Clique no número da versão do modelo do AutoML Edge que você quer exportar para abrir a respectiva página de detalhes.
- Clique em Exportar.
- Na janela lateral Exportar modelo, especifique o local no Cloud Storage para armazenar a saída da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: o local do projeto;
- PROJECT: o ID do projeto.
- MODEL_ID: o número do ID do modelo treinado do AutoML Edge que você está exportando;
- EXPORT_FORMAT: o tipo de modelo do Edge que você está exportando. Para este objetivo, estas
são as opções:
tflite
(TF Lite): exporte o modelo como um pacote TF Lite para execução em dispositivos móveis ou de borda.edgetpu-tflite
(Edge TPU TF Lite): exporte o modelo como um pacote TF Lite para execução em dispositivos Edge TPU.tf-saved-model
(Contêiner): exporte o modelo como um modelo salvo do TF para execução em um contêiner do Docker.core-ml
(Core ML): exporte um arquivo .mlmodel para execução em dispositivos iOS e macOS.tf-js
(TensorFlow.js): exporte o modelo como um pacote do TensorFlow.js para execução no navegador e no Node.js.
- OUTPUT_BUCKET: o caminho para o diretório do bucket do Cloud Storage em que você quer armazenar os arquivos de modelo do Edge.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corpo JSON da solicitação:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre especificações, bem como o OPERATION_ID.
É possível obter o status da operação de exportação para ver quando ela será concluída.
Java
Antes de testar esse exemplo, siga as instruções de configuração para Java no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Java.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Node.js
Antes de testar esse exemplo, siga as instruções de configuração para Node.js no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Node.js.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar o SDK da Vertex AI para Python, consulte Instalar o SDK da Vertex AI para Python. Para mais informações, consulte a documentação de referência da API Python.
Classificação
Os modelos de classificação de imagem do AutoML Edge treinados podem ser exportados nos seguintes formatos:
- TF Lite: exporte o modelo como um pacote TF Lite para execução em dispositivos móveis ou de borda.
- Edge TPU TF Lite: exporte o modelo como um pacote TF Lite para execução em dispositivos Edge TPU.
- Contêiner: exporte o modelo como um modelo salvo do TF para execução em um contêiner do Docker.
- Core ML: exporte um arquivo .mlmodel para executar seu modelo em dispositivos iOS e macOS.
- TensorFlow.js: exporte o modelo como um pacote do TensorFlow.js para execução no navegador e no Node.js.
Selecione a guia abaixo de acordo com seu idioma ou ambiente:
Console
- No console do Google Cloud, na seção da Vertex AI, acesse a página de Modelos.
- Clique no número da versão do modelo do AutoML Edge que você quer exportar para abrir a respectiva página de detalhes.
- Clique em Exportar.
- Na janela lateral Exportar modelo, especifique o local no Cloud Storage para armazenar a saída da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: o local do projeto;
- PROJECT: o ID do projeto.
- MODEL_ID: o número do ID do modelo treinado do AutoML Edge que você está exportando;
- EXPORT_FORMAT: o tipo de modelo do Edge que você está exportando. Para este objetivo, estas
são as opções:
tflite
(TF Lite): exporte o modelo como um pacote TF Lite para execução em dispositivos móveis ou de borda.edgetpu-tflite
(Edge TPU TF Lite): exporte o modelo como um pacote TF Lite para execução em dispositivos Edge TPU.tf-saved-model
(Contêiner): exporte o modelo como um modelo salvo do TF para execução em um contêiner do Docker.core-ml
(Core ML): exporte um arquivo .mlmodel para execução em dispositivos iOS e macOS.tf-js
(TensorFlow.js): exporte o modelo como um pacote do TensorFlow.js para execução no navegador e no Node.js.
- OUTPUT_BUCKET: o caminho para o diretório do bucket do Cloud Storage em que você quer armazenar os arquivos de modelo do Edge.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corpo JSON da solicitação:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre especificações, bem como o OPERATION_ID.
É possível obter o status da operação de exportação para ver quando ela será concluída.
Java
Antes de testar esse exemplo, siga as instruções de configuração para Java no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Java.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Node.js
Antes de testar esse exemplo, siga as instruções de configuração para Node.js no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Node.js.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar o SDK da Vertex AI para Python, consulte Instalar o SDK da Vertex AI para Python. Para mais informações, consulte a documentação de referência da API Python.
Detecção de objetos
Os modelos de detecção de objetos de imagem do AutoML Edge treinados podem ser exportados nos seguintes formatos:
- TF Lite: exporte o modelo como um pacote TF Lite para execução em dispositivos móveis ou de borda.
- Contêiner: exporte o modelo como um modelo salvo do TF para execução em um contêiner do Docker.
- TensorFlow.js: exporte o modelo como um pacote do TensorFlow.js para execução no navegador e no Node.js.
Selecione a guia abaixo de acordo com seu idioma ou ambiente:
Console
- No console do Google Cloud, na seção da Vertex AI, acesse a página de Modelos.
- Clique no número da versão do modelo do AutoML Edge que você quer exportar para abrir a respectiva página de detalhes.
- Selecione a guia Implantar e testar para ver os formatos de exportação disponíveis.
- Selecione o formato de modelo de exportação que você quer na seção Usar modelo otimizado para borda.
- Na janela lateral Exportar modelo, especifique o local no Cloud Storage para armazenar a saída da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: o local do projeto;
- PROJECT: o ID do projeto.
- MODEL_ID: o número do ID do modelo treinado do AutoML Edge que você está exportando;
- EXPORT_FORMAT: o tipo de modelo do Edge que você está exportando. Para este objetivo, estas
são as opções:
tflite
(TF Lite): exporte o modelo como um pacote TF Lite para execução em dispositivos móveis ou de borda.tf-saved-model
(Contêiner): exporte o modelo como um modelo salvo do TF para execução em um contêiner do Docker.tf-js
(TensorFlow.js): exporte o modelo como um pacote do TensorFlow.js para execução no navegador e no Node.js.
- OUTPUT_BUCKET: o caminho para o diretório do bucket do Cloud Storage em que você quer armazenar os arquivos de modelo do Edge.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corpo JSON da solicitação:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre especificações, bem como o OPERATION_ID.
É possível obter o status da operação de exportação para ver quando ela será concluída.
Java
Antes de testar esse exemplo, siga as instruções de configuração para Java no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Java.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Node.js
Antes de testar esse exemplo, siga as instruções de configuração para Node.js no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Node.js.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar o SDK da Vertex AI para Python, consulte Instalar o SDK da Vertex AI para Python. Para mais informações, consulte a documentação de referência da API Python.
Vídeo
Selecione a guia abaixo para seu objetivo:
Reconhecimento de ação
Os modelos de reconhecimento de ação de vídeo do AutoML Edge treinados podem ser exportados no formato de modelo salvo.
Selecione a guia abaixo de acordo com seu idioma ou ambiente:
Console
- No console do Google Cloud, na seção da Vertex AI, acesse a página de Modelos.
- Clique no número da versão do modelo do AutoML Edge que você quer exportar para abrir a respectiva página de detalhes.
- Clique em Exportar.
- Na janela lateral Exportar modelo, especifique o local no Cloud Storage para armazenar a saída da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: região em que o modelo está armazenado. Por exemplo,
us-central1
. - MODEL_ID: o número do ID do modelo treinado do AutoML Edge que você está exportando;
- EXPORT_FORMAT: o tipo de modelo do Edge que você está exportando. Para o reconhecimento
de ação de vídeo, a opção de modelo é:
tf-saved-model
(Contêiner): exporte o modelo como um modelo salvo do TF para execução em um contêiner do Docker.
- OUTPUT_BUCKET: o caminho para o diretório do bucket do Cloud Storage em que você quer armazenar os arquivos de modelo do Edge.
- PROJECT_NUMBER: o número do projeto gerado automaticamente.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
Corpo JSON da solicitação:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre especificações, bem como o OPERATION_ID.
É possível obter o status da operação de exportação para ver quando ela será concluída.
Java
Antes de testar esse exemplo, siga as instruções de configuração para Java no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Java.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar o SDK da Vertex AI para Python, consulte Instalar o SDK da Vertex AI para Python. Para mais informações, consulte a documentação de referência da API Python.
Classificação
Os modelos de classificação de vídeo treinados do AutoML Edge só podem ser exportados no formato de modelo salvo.
Selecione a guia abaixo de acordo com seu idioma ou ambiente:
Console
- No console do Google Cloud, na seção da Vertex AI, acesse a página de Modelos.
- Clique no número da versão do modelo do AutoML Edge que você quer exportar para abrir a respectiva página de detalhes.
- Clique em Exportar.
- Na janela lateral Exportar modelo, especifique o local no Cloud Storage para armazenar a saída da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: região em que o modelo está armazenado. Por exemplo,
us-central1
. - MODEL_ID: o número do ID do modelo treinado do AutoML Edge que você está exportando;
- EXPORT_FORMAT: o tipo de modelo do Edge que você está exportando. Para a classificação de vídeos,
a opção de modelo é:
tf-saved-model
(Contêiner): exporte o modelo como um modelo salvo do TF para execução em um contêiner do Docker.
- OUTPUT_BUCKET: o caminho para o diretório do bucket do Cloud Storage em que você quer armazenar os arquivos de modelo do Edge.
- PROJECT_NUMBER: o número do projeto gerado automaticamente.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
Corpo JSON da solicitação:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre especificações, bem como o OPERATION_ID.
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
É possível obter o status da operação de exportação para ver quando ela será concluída.
Rastreamento de objetos
Os modelos de rastreamento de objeto de vídeo treinados do AutoML Edge podem ser exportados nos seguintes formatos:
- TF Lite: exporte o modelo como um pacote do TensorFlow Lite para execução em dispositivos móveis ou de borda.
- Contêiner: exporte o modelo como um modelo salvo do TensorFlow para execução em um contêiner do Docker.
Selecione a guia abaixo de acordo com seu idioma ou ambiente:
Console
- No console do Google Cloud, na seção da Vertex AI, acesse a página de Modelos.
- Clique no número da versão do modelo do AutoML Edge que você quer exportar para abrir a respectiva página de detalhes.
- Clique em Exportar.
- Na janela lateral Exportar modelo, especifique o local no Cloud Storage para armazenar a saída da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: região em que o modelo está armazenado. Por exemplo,
us-central1
. - MODEL_ID: o número do ID do modelo treinado do AutoML Edge que você está exportando;
- EXPORT_FORMAT: o tipo de modelo do Edge que você está exportando. Para modelos de rastreamento de objetos de vídeo,
as opções são:
tflite
(TF Lite): exporte o modelo como um pacote TF Lite para execução em dispositivos móveis ou de borda.edgetpu-tflite
(Edge TPU TF Lite): exporte o modelo como um pacote TF Lite para execução em dispositivos Edge TPU.tf-saved-model
(Contêiner): exporte o modelo como um modelo salvo do TF para execução em um contêiner do Docker.
- OUTPUT_BUCKET: o caminho para o diretório do bucket do Cloud Storage em que você quer armazenar os arquivos de modelo do Edge.
- PROJECT_NUMBER: o número do projeto gerado automaticamente.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
Corpo JSON da solicitação:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre especificações, bem como o OPERATION_ID.
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
É possível obter o status da operação de exportação para ver quando ela será concluída.
Ver o status da operação
Imagem
Use o código a seguir para ver o status da operação de exportação. Esse código é o mesmo para todos os objetivos:
REST
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: o local do projeto;
- PROJECT: o ID do projeto.
- OPERATION_ID:o ID da operação de destino; Esse ID geralmente está contido na resposta à solicitação original.
Método HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
Para enviar a solicitação, escolha uma destas opções:
curl
execute o seguinte comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
{ "name": "projects/PROJECT/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.793983Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelResponse" } }
Vídeo
REST
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- PROJECT_NUMBER: o número do projeto gerado automaticamente.
- LOCATION: região em que o modelo está armazenado. Por exemplo,
us-central1
. - OPERATION_ID: ID das operações.
Método HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
Para enviar a solicitação, escolha uma destas opções:
curl
execute o seguinte comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante a esta:
Arquivos de saída
Imagem
Selecione a guia abaixo de acordo com o formato do modelo:
TF Lite
O OUTPUT_BUCKET
especificado na solicitação determina onde os arquivos de
saída são armazenados. O formato do diretório em que os arquivos de saída são armazenados segue este formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Arquivos:
model.tflite
: um arquivo que contém uma versão do modelo que está pronta para ser usada com o TensorFlow Lite.
Edge TPU
O OUTPUT_BUCKET
especificado na solicitação determina onde os arquivos de
saída são armazenados. O formato do diretório em que os arquivos de saída são armazenados segue este formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Arquivos:
edgetpu_model.tflite
: um arquivo que contém uma versão do modelo do TensorFlow Lite, transmitido pelo compilador Edge TPU para ser compatível com o Edge TPU.
Contêiner
O OUTPUT_BUCKET
especificado na solicitação determina onde os arquivos de
saída são armazenados. O formato do diretório em que os arquivos de saída são armazenados segue este formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
Arquivos:
saved_model.pb
: um arquivo de buffer de protocolo que contém a definição do gráfico e os pesos do modelo.
Core ML
O OUTPUT_BUCKET
especificado na solicitação determina onde os arquivos de
saída são armazenados. O formato do diretório em que os arquivos de saída são armazenados segue este formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/core-ml/YYYY-MM-DDThh:mm:ss.sssZ/
Arquivos:
dict.txt
: um arquivo de rótulo. Cada linha no arquivo de rótulodict.txt
representa um rótulo das previsões retornadas pelo modelo, na mesma ordem em que foram solicitadas.Amostra
dict.txt
roses daisy tulips dandelion sunflowers
model.mlmodel
: um arquivo que especifica um modelo do Core ML.
Tensorflow.js
O OUTPUT_BUCKET
especificado na solicitação determina onde os arquivos de
saída são armazenados. O formato do diretório em que os arquivos de saída são armazenados segue este formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-js/YYYY-MM-DDThh:mm:ss.sssZ/
Arquivos:
dict.txt
: um arquivo de rótulo. Cada linha no arquivo de rótulodict.txt
representa um rótulo das previsões retornadas pelo modelo, na mesma ordem em que foram solicitadas.Amostra
dict.txt
roses daisy tulips dandelion sunflowers
group1-shard1of3.bin
: um arquivo binário;group1-shard2of3.bin
: um arquivo binário;group1-shard3of3.bin
: um arquivo binário;model.json
: uma representação do arquivo JSON de um modelo.Amostra
model.json
(encurtada para maior clareza){ "format": "graph-model", "generatedBy": "2.4.0", "convertedBy": "TensorFlow.js Converter v1.7.0", "userDefinedMetadata": { "signature": { "inputs": { "image:0": { "name": "image:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } }, "outputs": { "scores:0": { "name": "scores:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "5" } ] } } } } }, "modelTopology": { "node": [ { "name": "image", "op": "Placeholder", "attr": { "dtype": { "type": "DT_FLOAT" }, "shape": { "shape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } } }, { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "op": "Const", "attr": { "value": { "tensor": { "dtype": "DT_INT32", "tensorShape": { "dim": [ { "size": "2" } ] } } }, "dtype": { "type": "DT_INT32" } } }, ... { "name": "scores", "op": "Identity", "input": [ "Softmax" ], "attr": { "T": { "type": "DT_FLOAT" } } } ], "library": {}, "versions": {} }, "weightsManifest": [ { "paths": [ "group1-shard1of3.bin", "group1-shard2of3.bin", "group1-shard3of3.bin" ], "weights": [ { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "shape": [ 2 ], "dtype": "int32" }, { "name": "mnas_v4_a/output/fc/tf_layer/kernel", "shape": [ 1280, 5 ], "dtype": "float32" }, ... { "name": "mnas_v4_a_1/feature_network/lead_cell_17/op_0/conv2d_0/Conv2D_weights", "shape": [ 1, 1, 320, 1280 ], "dtype": "float32" }, { "name": "mnas_v4_a_1/feature_network/cell_14/op_0/expand_0/Conv2D_bn_offset", "shape": [ 1152 ], "dtype": "float32" } ] } ] }
Vídeo
Selecione a guia abaixo de acordo com o formato do modelo:
TF Lite
O OUTPUT_BUCKET
especificado na solicitação determina onde os arquivos de
saída são armazenados. O formato do diretório em que os arquivos de saída são armazenados segue este formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Arquivos:
model.tflite
: um arquivo que contém uma versão do modelo que está pronta para ser usada com o TensorFlow Lite.frozen_inference_graph.pb
: um arquivo de buffer de protocolo serializado com a definição do gráfico e os pesos do modelo.label_map.pbtxt
: um arquivo de mapa de rótulos que associa cada um dos rótulos usados a um valor inteiro.
Edge TPU
O OUTPUT_BUCKET
especificado na solicitação determina onde os arquivos de
saída são armazenados. O formato do diretório em que os arquivos de saída são armazenados segue este formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Arquivos:
edgetpu_model.tflite
: um arquivo que contém uma versão do modelo do TensorFlow Lite, transmitido pelo compilador Edge TPU para ser compatível com o Edge TPU.label_map.pbtxt
: um arquivo de mapa de rótulos que associa cada um dos rótulos usados a um valor inteiro.
Contêiner
O OUTPUT_BUCKET
especificado na solicitação determina onde os arquivos de
saída são armazenados. O formato do diretório em que os arquivos de saída são armazenados segue este formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
Arquivos:
frozen_inference_graph.pb
: um arquivo de buffer de protocolo serializado com a definição do gráfico e os pesos do modelo.label_map.pbtxt
: um arquivo de mapa de rótulos que associa cada um dos rótulos usados a um valor inteiro.saved_model/saved_model.pb
: o arquivo armazena o programa ou modelo real do TensorFlow e um conjunto de assinaturas nomeadas, cada uma identificando uma função que aceita entradas de tensor e produz saídas de tensor.saved_model/variables/
: o diretório de variáveis contém um ponto de verificação de treinamento padrão.