Esta página descreve como usar a Vertex AI para exportar os seus modelos do AutoML Edge para o Cloud Storage.
Para obter informações sobre a exportação de modelos tabulares, consulte o artigo Exportar um modelo tabular do AutoML.
Introdução
Depois de preparar um modelo do AutoML Edge, em alguns casos, pode exportá-lo em diferentes formatos, consoante a forma como o quer usar. Os ficheiros de modelos exportados são guardados num contentor do Cloud Storage e podem ser usados para previsão no ambiente à sua escolha.
Não pode usar um modelo de Edge no Vertex AI para publicar previsões; tem de implementar o modelo de Edge num dispositivo externo para receber previsões.
Exporte um modelo
Use os seguintes exemplos de código para identificar um modelo do AutoML Edge, especificar uma localização de armazenamento de ficheiros de saída e, em seguida, enviar o pedido de modelo de exportação.
Imagem
Selecione o separador abaixo para o seu objetivo:
Classificação
Os modelos de classificação de imagens do AutoML Edge preparados podem ser exportados nos seguintes formatos:
- TF Lite: exporte o seu modelo como um pacote TF Lite para o executar em dispositivos periféricos ou móveis.
- Edge TPU TF Lite: exporte o seu modelo como um pacote TF Lite para executar o modelo em dispositivos Edge TPU.
- Contentor: exporte o modelo como um modelo guardado do TF para ser executado num contentor Docker.
- Core ML: exporte um ficheiro .mlmodel para executar o seu modelo em dispositivos iOS e macOS.
- Tensorflow.js: exporte o seu modelo como um pacote TensorFlow.js para executar o modelo no navegador e no Node.js.
Selecione o separador abaixo para o seu idioma ou ambiente:
Consola
- Na Google Cloud consola, na secção Vertex AI, aceda à página Modelos.
- Clique no número da versão do modelo do AutoML Edge que quer exportar para abrir a respetiva página de detalhes.
- Clique em Exportar.
- Na janela lateral Exportar modelo, especifique a localização no Cloud Storage para armazenar o resultado da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: a localização do seu projeto.
- PROJECT: o seu ID do projeto.
- MODEL_ID: o número de ID do modelo do AutoML Edge preparado que está a exportar.
- EXPORT_FORMAT: o tipo de modelo do Edge que está a exportar. Para este objetivo, as
opções são:
tflite
(TF Lite) – Exporte o seu modelo como um pacote TF Lite para executar o modelo em dispositivos móveis ou de vanguarda.edgetpu-tflite
(Edge TPU TF Lite) – Exporte o seu modelo como um pacote TF Lite para executar o modelo em dispositivos Edge TPU.tf-saved-model
(Contentor) – Exporte o seu modelo como um modelo guardado do TF para execução num contentor Docker.core-ml
(Core ML) – Exporte um ficheiro .mlmodel para executar o seu modelo em dispositivos iOS e macOS.tf-js
(Tensorflow.js): exporte o seu modelo como um pacote TensorFlow.js para executar o modelo no navegador e no Node.js.
- OUTPUT_BUCKET: o caminho para o diretório do contentor do Cloud Storage onde quer armazenar os ficheiros do modelo do Edge.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corpo JSON do pedido:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre as especificações, bem como o OPERATION_ID.
Pode obter o estado da operação de exportação para ver quando termina.
Java
Antes de experimentar este exemplo, siga as Javainstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Java Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Node.js
Antes de experimentar este exemplo, siga as Node.jsinstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Node.js Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar ou atualizar o SDK Vertex AI para Python, consulte o artigo Instale o SDK Vertex AI para Python. Para mais informações, consulte a Python documentação de referência da API.
Classificação
Os modelos de classificação de imagens do AutoML Edge preparados podem ser exportados nos seguintes formatos:
- TF Lite: exporte o seu modelo como um pacote TF Lite para o executar em dispositivos periféricos ou móveis.
- Edge TPU TF Lite: exporte o seu modelo como um pacote TF Lite para executar o modelo em dispositivos Edge TPU.
- Contentor: exporte o modelo como um modelo guardado do TF para ser executado num contentor Docker.
- Core ML: exporte um ficheiro .mlmodel para executar o seu modelo em dispositivos iOS e macOS.
- Tensorflow.js: exporte o seu modelo como um pacote TensorFlow.js para executar o modelo no navegador e no Node.js.
Selecione o separador abaixo para o seu idioma ou ambiente:
Consola
- Na Google Cloud consola, na secção Vertex AI, aceda à página Modelos.
- Clique no número da versão do modelo do AutoML Edge que quer exportar para abrir a respetiva página de detalhes.
- Clique em Exportar.
- Na janela lateral Exportar modelo, especifique a localização no Cloud Storage para armazenar o resultado da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: a localização do seu projeto.
- PROJECT: o seu ID do projeto.
- MODEL_ID: o número de ID do modelo do AutoML Edge preparado que está a exportar.
- EXPORT_FORMAT: o tipo de modelo do Edge que está a exportar. Para este objetivo, as
opções são:
tflite
(TF Lite) – Exporte o seu modelo como um pacote TF Lite para executar o modelo em dispositivos móveis ou de vanguarda.edgetpu-tflite
(Edge TPU TF Lite) – Exporte o seu modelo como um pacote TF Lite para executar o modelo em dispositivos Edge TPU.tf-saved-model
(Contentor) – Exporte o seu modelo como um modelo guardado do TF para execução num contentor Docker.core-ml
(Core ML) – Exporte um ficheiro .mlmodel para executar o seu modelo em dispositivos iOS e macOS.tf-js
(Tensorflow.js): exporte o seu modelo como um pacote TensorFlow.js para executar o modelo no navegador e no Node.js.
- OUTPUT_BUCKET: o caminho para o diretório do contentor do Cloud Storage onde quer armazenar os ficheiros do modelo do Edge.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corpo JSON do pedido:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre as especificações, bem como o OPERATION_ID.
Pode obter o estado da operação de exportação para ver quando termina.
Java
Antes de experimentar este exemplo, siga as Javainstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Java Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Node.js
Antes de experimentar este exemplo, siga as Node.jsinstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Node.js Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar ou atualizar o SDK Vertex AI para Python, consulte o artigo Instale o SDK Vertex AI para Python. Para mais informações, consulte a Python documentação de referência da API.
Deteção de objetos
Os modelos de deteção de objetos de imagem do AutoML Edge preparados podem ser exportados nos seguintes formatos:
- TF Lite: exporte o seu modelo como um pacote TF Lite para o executar em dispositivos periféricos ou móveis.
- Contentor: exporte o modelo como um modelo guardado do TF para ser executado num contentor Docker.
- Tensorflow.js: exporte o seu modelo como um pacote TensorFlow.js para executar o modelo no navegador e no Node.js.
Selecione o separador abaixo para o seu idioma ou ambiente:
Consola
- Na Google Cloud consola, na secção Vertex AI, aceda à página Modelos.
- Clique no número da versão do modelo do AutoML Edge que quer exportar para abrir a respetiva página de detalhes.
- Selecione o separador Implementar e testar para ver os formatos de exportação disponíveis.
- Selecione o formato do modelo de exportação pretendido na secção Use o seu modelo otimizado para a periferia.
- Na janela lateral Exportar modelo, especifique a localização no Cloud Storage para armazenar o resultado da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: a localização do seu projeto.
- PROJECT: .
- MODEL_ID: o número de ID do modelo do AutoML Edge preparado que está a exportar.
- EXPORT_FORMAT: o tipo de modelo do Edge que está a exportar. Para este objetivo, as
opções são:
tflite
(TF Lite) – Exporte o seu modelo como um pacote TF Lite para executar o modelo em dispositivos móveis ou de vanguarda.tf-saved-model
(Contentor) – Exporte o seu modelo como um modelo guardado do TF para execução num contentor Docker.tf-js
(Tensorflow.js): exporte o seu modelo como um pacote TensorFlow.js para executar o modelo no navegador e no Node.js.
- OUTPUT_BUCKET: o caminho para o diretório do contentor do Cloud Storage onde quer armazenar os ficheiros do modelo do Edge.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corpo JSON do pedido:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre as especificações, bem como o OPERATION_ID.
Pode obter o estado da operação de exportação para ver quando termina.
Java
Antes de experimentar este exemplo, siga as Javainstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Java Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Node.js
Antes de experimentar este exemplo, siga as Node.jsinstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Node.js Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar ou atualizar o SDK Vertex AI para Python, consulte o artigo Instale o SDK Vertex AI para Python. Para mais informações, consulte a Python documentação de referência da API.
Vídeo
Selecione o separador abaixo para o seu objetivo:
Reconhecimento de ações
Os modelos de reconhecimento de ações de vídeo do AutoML Edge preparados podem ser exportados no formato de modelo guardado.
Selecione o separador abaixo para o seu idioma ou ambiente:
Consola
- Na Google Cloud consola, na secção Vertex AI, aceda à página Modelos.
- Clique no número da versão do modelo do AutoML Edge que quer exportar para abrir a respetiva página de detalhes.
- Clique em Exportar.
- Na janela lateral Exportar modelo, especifique a localização no Cloud Storage para armazenar o resultado da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: região onde o modelo está armazenado. Por exemplo,
us-central1
. - MODEL_ID: o número de ID do modelo do AutoML Edge preparado que está a exportar.
- EXPORT_FORMAT: o tipo de modelo do Edge que está a exportar. Para o reconhecimento de ações de vídeo, a opção de modelo é:
tf-saved-model
(Contentor) – Exporte o seu modelo como um modelo guardado do TF para execução num contentor Docker.
- OUTPUT_BUCKET: o caminho para o diretório do contentor do Cloud Storage onde quer armazenar os ficheiros do modelo do Edge.
- PROJECT_NUMBER: o número do projeto gerado automaticamente para o seu projeto.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
Corpo JSON do pedido:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre as especificações, bem como o OPERATION_ID.
Pode obter o estado da operação de exportação para ver quando termina.
Java
Antes de experimentar este exemplo, siga as Javainstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Java Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar ou atualizar o SDK Vertex AI para Python, consulte o artigo Instale o SDK Vertex AI para Python. Para mais informações, consulte a Python documentação de referência da API.
Classificação
Os modelos de classificação de vídeo do AutoML Edge preparados só podem ser exportados no formato de modelo guardado.
Selecione o separador abaixo para o seu idioma ou ambiente:
Consola
- Na Google Cloud consola, na secção Vertex AI, aceda à página Modelos.
- Clique no número da versão do modelo do AutoML Edge que quer exportar para abrir a respetiva página de detalhes.
- Clique em Exportar.
- Na janela lateral Exportar modelo, especifique a localização no Cloud Storage para armazenar o resultado da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: região onde o modelo está armazenado. Por exemplo,
us-central1
. - MODEL_ID: o número de ID do modelo do AutoML Edge preparado que está a exportar.
- EXPORT_FORMAT: o tipo de modelo do Edge que está a exportar. Para a classificação de vídeos,
a opção de modelo é:
tf-saved-model
(Contentor) – Exporte o seu modelo como um modelo guardado do TF para execução num contentor Docker.
- OUTPUT_BUCKET: o caminho para o diretório do contentor do Cloud Storage onde quer armazenar os ficheiros do modelo do Edge.
- PROJECT_NUMBER: o número do projeto gerado automaticamente para o seu projeto.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
Corpo JSON do pedido:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre as especificações, bem como o OPERATION_ID.
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
Pode obter o estado da operação de exportação para ver quando termina.
Monitorização de objetos
Os modelos de deteção de objetos de vídeo do AutoML Edge treinados podem ser exportados nos seguintes formatos:
- TF Lite: exporte o seu modelo como um pacote do TensorFlow Lite para o executar em dispositivos móveis ou de borda.
- Contentor: exporte o seu modelo como um modelo guardado do TensorFlow para execução num contentor do Docker.
Selecione o separador abaixo para o seu idioma ou ambiente:
Consola
- Na Google Cloud consola, na secção Vertex AI, aceda à página Modelos.
- Clique no número da versão do modelo do AutoML Edge que quer exportar para abrir a respetiva página de detalhes.
- Clique em Exportar.
- Na janela lateral Exportar modelo, especifique a localização no Cloud Storage para armazenar o resultado da exportação do modelo do Edge.
- Clique em Exportar.
- Clique em Concluído para fechar a janela lateral Exportar modelo.
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: região onde o modelo está armazenado. Por exemplo,
us-central1
. - MODEL_ID: o número de ID do modelo do AutoML Edge preparado que está a exportar.
- EXPORT_FORMAT: o tipo de modelo do Edge que está a exportar. Para modelos de acompanhamento de objetos em vídeo, as opções são:
tflite
(TF Lite) – Exporte o seu modelo como um pacote TF Lite para executar o modelo em dispositivos móveis ou de vanguarda.edgetpu-tflite
(Edge TPU TF Lite) – Exporte o seu modelo como um pacote TF Lite para executar o modelo em dispositivos Edge TPU.tf-saved-model
(Contentor) – Exporte o seu modelo como um modelo guardado do TF para execução num contentor Docker.
- OUTPUT_BUCKET: o caminho para o diretório do contentor do Cloud Storage onde quer armazenar os ficheiros do modelo do Edge.
- PROJECT_NUMBER: o número do projeto gerado automaticamente para o seu projeto.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
Corpo JSON do pedido:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
A resposta contém informações sobre as especificações, bem como o OPERATION_ID.
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
Pode obter o estado da operação de exportação para ver quando termina.
Obtenha o estado da operação
Imagem
Use o seguinte código para obter o estado da operação de exportação. Este código é o mesmo para todos os objetivos:
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: a localização do seu projeto.
- PROJECT: .
- OPERATION_ID:o ID da operação de destino. Normalmente, este ID está contido na resposta ao pedido original.
Método HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
Para enviar o seu pedido, escolha uma destas opções:
curl
Execute o seguinte comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
Execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
{ "name": "projects/PROJECT/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.793983Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelResponse" } }
Vídeo
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- PROJECT_NUMBER: o número do projeto gerado automaticamente para o seu projeto.
- LOCATION: região onde o modelo está armazenado. Por exemplo,
us-central1
. - OPERATION_ID: ID das suas operações.
Método HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
Para enviar o seu pedido, escolha uma destas opções:
curl
Execute o seguinte comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
Execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
Deve receber uma resposta JSON semelhante à seguinte:
Ficheiros de saída
Imagem
Selecione o separador abaixo para o formato do seu modelo:
TF Lite
O OUTPUT_BUCKET
especificado no pedido determina onde os ficheiros de saída são armazenados. O formato do diretório onde os ficheiros de saída são armazenados segue o formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Ficheiros:
model.tflite
: um ficheiro que contém uma versão do modelo que está pronta para ser usada com o TensorFlow Lite.
Edge TPU
O OUTPUT_BUCKET
especificado no pedido determina onde os ficheiros de saída são armazenados. O formato do diretório onde os ficheiros de saída são armazenados segue o formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Ficheiros:
edgetpu_model.tflite
: Um ficheiro que contém uma versão do modelo para TensorFlow Lite, transmitido através do compilador da Edge TPU para ser compatível com a Edge TPU.
Contentor
O OUTPUT_BUCKET
especificado no pedido determina onde os ficheiros de saída são armazenados. O formato do diretório onde os ficheiros de saída são armazenados segue o formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
Ficheiros:
saved_model.pb
: um ficheiro de buffer do protocolo que contém a definição do gráfico e as ponderações do modelo.
Core ML
O OUTPUT_BUCKET
especificado no pedido determina onde os ficheiros de saída são armazenados. O formato do diretório onde os ficheiros de saída são armazenados segue o formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/core-ml/YYYY-MM-DDThh:mm:ss.sssZ/
Ficheiros:
dict.txt
: um ficheiro de etiquetas. Cada linha no ficheiro de etiquetasdict.txt
representa uma etiqueta das previsões devolvidas pelo modelo, na mesma ordem em que foram pedidas.Exemplo
dict.txt
roses daisy tulips dandelion sunflowers
model.mlmodel
: um ficheiro que especifica um modelo Core ML.
Tensorflow.js
O OUTPUT_BUCKET
especificado no pedido determina onde os ficheiros de saída são armazenados. O formato do diretório onde os ficheiros de saída são armazenados segue o formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-js/YYYY-MM-DDThh:mm:ss.sssZ/
Ficheiros:
dict.txt
: um ficheiro de etiquetas. Cada linha no ficheiro de etiquetasdict.txt
representa uma etiqueta das previsões devolvidas pelo modelo, na mesma ordem em que foram pedidas.Exemplo
dict.txt
roses daisy tulips dandelion sunflowers
group1-shard1of3.bin
: um ficheiro binário.group1-shard2of3.bin
: um ficheiro binário.group1-shard3of3.bin
: um ficheiro binário.model.json
: uma representação de um modelo num ficheiro JSON.Exemplo
model.json
(abreviado para maior clareza){ "format": "graph-model", "generatedBy": "2.4.0", "convertedBy": "TensorFlow.js Converter v1.7.0", "userDefinedMetadata": { "signature": { "inputs": { "image:0": { "name": "image:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } }, "outputs": { "scores:0": { "name": "scores:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "5" } ] } } } } }, "modelTopology": { "node": [ { "name": "image", "op": "Placeholder", "attr": { "dtype": { "type": "DT_FLOAT" }, "shape": { "shape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } } }, { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "op": "Const", "attr": { "value": { "tensor": { "dtype": "DT_INT32", "tensorShape": { "dim": [ { "size": "2" } ] } } }, "dtype": { "type": "DT_INT32" } } }, ... { "name": "scores", "op": "Identity", "input": [ "Softmax" ], "attr": { "T": { "type": "DT_FLOAT" } } } ], "library": {}, "versions": {} }, "weightsManifest": [ { "paths": [ "group1-shard1of3.bin", "group1-shard2of3.bin", "group1-shard3of3.bin" ], "weights": [ { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "shape": [ 2 ], "dtype": "int32" }, { "name": "mnas_v4_a/output/fc/tf_layer/kernel", "shape": [ 1280, 5 ], "dtype": "float32" }, ... { "name": "mnas_v4_a_1/feature_network/lead_cell_17/op_0/conv2d_0/Conv2D_weights", "shape": [ 1, 1, 320, 1280 ], "dtype": "float32" }, { "name": "mnas_v4_a_1/feature_network/cell_14/op_0/expand_0/Conv2D_bn_offset", "shape": [ 1152 ], "dtype": "float32" } ] } ] }
Vídeo
Selecione o separador abaixo para o formato do seu modelo:
TF Lite
O OUTPUT_BUCKET
especificado no pedido determina onde os ficheiros de saída são armazenados. O formato do diretório onde os ficheiros de saída são armazenados segue o formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Ficheiros:
model.tflite
: um ficheiro que contém uma versão do modelo que está pronta para ser usada com o TensorFlow Lite.frozen_inference_graph.pb
: um ficheiro de buffer do protocolo serializado que contém a definição do gráfico e as ponderações do modelo.label_map.pbtxt
: um ficheiro de mapa de etiquetas que mapeia cada uma das etiquetas usadas para um valor inteiro.
Edge TPU
O OUTPUT_BUCKET
especificado no pedido determina onde os ficheiros de saída são armazenados. O formato do diretório onde os ficheiros de saída são armazenados segue o formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Ficheiros:
edgetpu_model.tflite
: Um ficheiro que contém uma versão do modelo para TensorFlow Lite, transmitido através do compilador da Edge TPU para ser compatível com a Edge TPU.label_map.pbtxt
: um ficheiro de mapa de etiquetas que mapeia cada uma das etiquetas usadas para um valor inteiro.
Contentor
O OUTPUT_BUCKET
especificado no pedido determina onde os ficheiros de saída são armazenados. O formato do diretório onde os ficheiros de saída são armazenados segue o formato:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
Ficheiros:
frozen_inference_graph.pb
: um ficheiro de buffer do protocolo serializado que contém a definição do gráfico e as ponderações do modelo.label_map.pbtxt
: um ficheiro de mapa de etiquetas que mapeia cada uma das etiquetas usadas para um valor inteiro.saved_model/saved_model.pb
: o ficheiro armazena o programa TensorFlow real ou o modelo e um conjunto de assinaturas com nome, cada uma a identificar uma função que aceita entradas de tensores e produz saídas de tensores.saved_model/variables/
: o diretório de variáveis contém um ponto de verificação de formação padrão.