本页面介绍如何使用 Vertex AI 将 AutoML Edge 模型图片和视频导出到 Cloud Storage。
如需了解如何导出表格模型,请参阅导出 AutoML 表格模型。
简介
训练 AutoML Edge 模型后,在某些情况下,您可以根据所需的使用方式以不同格式导出模型。导出的模型文件保存在 Cloud Storage 存储桶中,并可用于在您选择的环境中进行预测。
您无法在 Vertex AI 中使用 Edge 模型来执行预测;您必须将 Edge 模型部署到外部设备才能进行预测。
导出模型
使用以下代码示例确定 AutoML Edge 模型,指定输出文件存储位置,然后发送导出模型请求。
图片
在下面选择您的目标对应的标签页:
分类
经过训练的 AutoML Edge 图片分类模型可以按以下格式导出:
- TF Lite - 将模型导出为 TF Lite 软件包,以在边缘或移动设备上运行模型。
- Edge TPU TF Lite - 将模型导出为 TF Lite 软件包,以在 Edge TPU 设备上运行模型。
- 容器 - 将模型导出为 TF 保存的模型以在 Docker 容器上运行。
- Core ML - 导出 .mlmodel 文件,以在 iOS 和 macOS 设备上运行模型。
- Tensorflow.js - 将模型导出为 TensorFlow.js 软件包,以在浏览器和 Node.js 中运行模型。
在下面选择您的语言或环境对应的标签页:
控制台
- 在 Google Cloud 控制台的 Vertex AI 部分中,前往模型页面。
- 点击要导出的 AutoML Edge 模型的版本号,以打开其详情页面。
- 点击导出。
- 在导出模型侧边窗口中,指定 Cloud Storage 中存储 Edge 模型导出输出的位置。
- 点击导出。
- 点击完成关闭导出模型侧边窗口。
REST
在使用任何请求数据之前,请先进行以下替换:
- LOCATION:您的项目的位置。
- PROJECT:您的项目 ID。
- MODEL_ID:要导出的经过训练的 AutoML Edge 模型的 ID 编号。
- EXPORT_FORMAT:要导出的 Edge 模型的类型。对于此目标,选项包括:
tflite
(TF Lite) - 将模型导出为 TF Lite 软件包,以在边缘或移动设备上运行模型。edgetpu-tflite
(Edge TPU TF Lite) - 模型导出为 TF Lite 软件包,以在 Edge TPU 设备上运行模型。tf-saved-model
(容器)- 将模型导出为 TF 保存的模型以在 Docker 容器上运行。core-ml
(Core ML) - 导出 .mlmodel 文件,以在 iOS 和 macOS 设备上运行模型。tf-js
(Tensorflow.js) - 将模型导出为 TensorFlow.js 软件包,以在浏览器和 Node.js 中运行模型。
- OUTPUT_BUCKET:要存储 Edge 模型文件的 Cloud Storage 存储桶目录的路径。
HTTP 方法和网址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
请求 JSON 正文:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如需发送请求,请选择以下方式之一:
curl
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
响应包含有关规范的信息以及 OPERATION_ID。
您可以获取导出操作状态,以了解导出操作完成的时间。
Java
在尝试此示例之前,请按照《Vertex AI 快速入门:使用客户端库》中的 Java 设置说明执行操作。如需了解详情,请参阅 Vertex AI Java API 参考文档。
如需向 Vertex AI 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Node.js
在尝试此示例之前,请按照《Vertex AI 快速入门:使用客户端库》中的 Node.js 设置说明执行操作。如需了解详情,请参阅 Vertex AI Node.js API 参考文档。
如需向 Vertex AI 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Python
如需了解如何安装或更新 Python 版 Vertex AI SDK,请参阅安装 Python 版 Vertex AI SDK。如需了解详情,请参阅 Python API 参考文档。
分类
经过训练的 AutoML Edge 图片分类模型可以按以下格式导出:
- TF Lite - 将模型导出为 TF Lite 软件包,以在边缘或移动设备上运行模型。
- Edge TPU TF Lite - 将模型导出为 TF Lite 软件包,以在 Edge TPU 设备上运行模型。
- 容器 - 将模型导出为 TF 保存的模型以在 Docker 容器上运行。
- Core ML - 导出 .mlmodel 文件,以在 iOS 和 macOS 设备上运行模型。
- Tensorflow.js - 将模型导出为 TensorFlow.js 软件包,以在浏览器和 Node.js 中运行模型。
在下面选择您的语言或环境对应的标签页:
控制台
- 在 Google Cloud 控制台的 Vertex AI 部分中,前往模型页面。
- 点击要导出的 AutoML Edge 模型的版本号,以打开其详情页面。
- 点击导出。
- 在导出模型侧边窗口中,指定 Cloud Storage 中存储 Edge 模型导出输出的位置。
- 点击导出。
- 点击完成关闭导出模型侧边窗口。
REST
在使用任何请求数据之前,请先进行以下替换:
- LOCATION:您的项目的位置。
- PROJECT:您的项目 ID。
- MODEL_ID:要导出的经过训练的 AutoML Edge 模型的 ID 编号。
- EXPORT_FORMAT:要导出的 Edge 模型的类型。对于此目标,选项包括:
tflite
(TF Lite) - 将模型导出为 TF Lite 软件包,以在边缘或移动设备上运行模型。edgetpu-tflite
(Edge TPU TF Lite) - 模型导出为 TF Lite 软件包,以在 Edge TPU 设备上运行模型。tf-saved-model
(容器)- 将模型导出为 TF 保存的模型以在 Docker 容器上运行。core-ml
(Core ML) - 导出 .mlmodel 文件,以在 iOS 和 macOS 设备上运行模型。tf-js
(Tensorflow.js) - 将模型导出为 TensorFlow.js 软件包,以在浏览器和 Node.js 中运行模型。
- OUTPUT_BUCKET:要存储 Edge 模型文件的 Cloud Storage 存储桶目录的路径。
HTTP 方法和网址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
请求 JSON 正文:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如需发送请求,请选择以下方式之一:
curl
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
响应包含有关规范的信息以及 OPERATION_ID。
您可以获取导出操作状态,以了解导出操作完成的时间。
Java
在尝试此示例之前,请按照《Vertex AI 快速入门:使用客户端库》中的 Java 设置说明执行操作。如需了解详情,请参阅 Vertex AI Java API 参考文档。
如需向 Vertex AI 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Node.js
在尝试此示例之前,请按照《Vertex AI 快速入门:使用客户端库》中的 Node.js 设置说明执行操作。如需了解详情,请参阅 Vertex AI Node.js API 参考文档。
如需向 Vertex AI 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Python
如需了解如何安装或更新 Python 版 Vertex AI SDK,请参阅安装 Python 版 Vertex AI SDK。如需了解详情,请参阅 Python API 参考文档。
对象检测
经过训练的 AutoML Edge 对象检测模型可以按以下格式导出:
- TF Lite - 将模型导出为 TF Lite 软件包,以在边缘或移动设备上运行模型。
- 容器 - 将模型导出为 TF 保存的模型以在 Docker 容器上运行。
- Tensorflow.js - 将模型导出为 TensorFlow.js 软件包,以在浏览器和 Node.js 中运行模型。
在下面选择您的语言或环境对应的标签页:
控制台
- 在 Google Cloud 控制台的 Vertex AI 部分中,前往模型页面。
- 点击要导出的 AutoML Edge 模型的版本号,以打开其详情页面。
- 选择部署和测试标签页查看可用的导出格式。
- 在 Use your edge-optimized model 部分选择所需的导出模型格式。
- 在导出模型侧边窗口中,指定 Cloud Storage 中存储 Edge 模型导出输出的位置。
- 点击导出。
- 点击完成关闭导出模型侧边窗口。
REST
在使用任何请求数据之前,请先进行以下替换:
- LOCATION:您的项目的位置。
- PROJECT:您的项目 ID。
- MODEL_ID:要导出的经过训练的 AutoML Edge 模型的 ID 编号。
- EXPORT_FORMAT:要导出的 Edge 模型的类型。对于此目标,选项包括:
tflite
(TF Lite) - 将模型导出为 TF Lite 软件包,以在边缘或移动设备上运行模型。tf-saved-model
(容器)- 将模型导出为 TF 保存的模型以在 Docker 容器上运行。tf-js
(Tensorflow.js) - 将模型导出为 TensorFlow.js 软件包,以在浏览器和 Node.js 中运行模型。
- OUTPUT_BUCKET:要存储 Edge 模型文件的 Cloud Storage 存储桶目录的路径。
HTTP 方法和网址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
请求 JSON 正文:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如需发送请求,请选择以下方式之一:
curl
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
响应包含有关规范的信息以及 OPERATION_ID。
您可以获取导出操作状态,以了解导出操作完成的时间。
Java
在尝试此示例之前,请按照《Vertex AI 快速入门:使用客户端库》中的 Java 设置说明执行操作。如需了解详情,请参阅 Vertex AI Java API 参考文档。
如需向 Vertex AI 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Node.js
在尝试此示例之前,请按照《Vertex AI 快速入门:使用客户端库》中的 Node.js 设置说明执行操作。如需了解详情,请参阅 Vertex AI Node.js API 参考文档。
如需向 Vertex AI 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Python
如需了解如何安装或更新 Python 版 Vertex AI SDK,请参阅安装 Python 版 Vertex AI SDK。如需了解详情,请参阅 Python API 参考文档。
视频
在下面选择您的目标对应的标签页:
动作识别
经过训练的 AutoML Edge 动作识别模型可以按保存模型格式导出:
在下面选择您的语言或环境对应的标签页:
控制台
- 在 Google Cloud 控制台的 Vertex AI 部分中,前往模型页面。
- 点击要导出的 AutoML Edge 模型的版本号,以打开其详情页面。
- 点击导出。
- 在导出模型侧边窗口中,指定 Cloud Storage 中存储 Edge 模型导出输出的位置。
- 点击导出。
- 点击完成关闭导出模型侧边窗口。
REST
在使用任何请求数据之前,请先进行以下替换:
- LOCATION:存储模型的区域。例如
us-central1
。 - MODEL_ID:要导出的经过训练的 AutoML Edge 模型的 ID 编号。
- EXPORT_FORMAT:要导出的 Edge 模型的类型。对于视频动作识别,模型选项为:
tf-saved-model
(容器)- 将模型导出为 TF 保存的模型以在 Docker 容器上运行。
- OUTPUT_BUCKET:要存储 Edge 模型文件的 Cloud Storage 存储桶目录的路径。
- PROJECT_NUMBER:自动生成的项目编号。
HTTP 方法和网址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
请求 JSON 正文:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如需发送请求,请选择以下方式之一:
curl
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
响应包含有关规范的信息以及 OPERATION_ID。
您可以获取导出操作状态,以了解导出操作完成的时间。
Java
在尝试此示例之前,请按照《Vertex AI 快速入门:使用客户端库》中的 Java 设置说明执行操作。如需了解详情,请参阅 Vertex AI Java API 参考文档。
如需向 Vertex AI 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Python
如需了解如何安装或更新 Python 版 Vertex AI SDK,请参阅安装 Python 版 Vertex AI SDK。如需了解详情,请参阅 Python API 参考文档。
分类
经过训练的 AutoML Edge 视频分类模型只能以保存模型格式导出。
在下面选择您的语言或环境对应的标签页:
控制台
- 在 Google Cloud 控制台的 Vertex AI 部分中,前往模型页面。
- 点击要导出的 AutoML Edge 模型的版本号,以打开其详情页面。
- 点击导出。
- 在导出模型侧边窗口中,指定 Cloud Storage 中存储 Edge 模型导出输出的位置。
- 点击导出。
- 点击完成关闭导出模型侧边窗口。
REST
在使用任何请求数据之前,请先进行以下替换:
- LOCATION:存储模型的区域。例如
us-central1
。 - MODEL_ID:要导出的经过训练的 AutoML Edge 模型的 ID 编号。
- EXPORT_FORMAT:要导出的 Edge 模型的类型。对于视频分类,模型选项为:
tf-saved-model
(容器)- 将模型导出为 TF 保存的模型以在 Docker 容器上运行。
- OUTPUT_BUCKET:要存储 Edge 模型文件的 Cloud Storage 存储桶目录的路径。
- PROJECT_NUMBER:自动生成的项目编号。
HTTP 方法和网址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
请求 JSON 正文:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如需发送请求,请选择以下方式之一:
curl
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
响应包含有关规范的信息以及 OPERATION_ID。
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
您可以获取导出操作状态,以了解导出操作完成的时间。
对象跟踪
经过训练的 AutoML Edge 视频对象跟踪模型可以按以下格式导出:
- TF Lite - 将模型导出为 TensorFlow Lite 软件包,以在边缘或移动设备上运行模型。
- 容器 - 将模型导出为 TensorFlow 保存模型以在 Docker 容器上运行。
在下面选择您的语言或环境对应的标签页:
控制台
- 在 Google Cloud 控制台的 Vertex AI 部分中,前往模型页面。
- 点击要导出的 AutoML Edge 模型的版本号,以打开其详情页面。
- 点击导出。
- 在导出模型侧边窗口中,指定 Cloud Storage 中存储 Edge 模型导出输出的位置。
- 点击导出。
- 点击完成关闭导出模型侧边窗口。
REST
在使用任何请求数据之前,请先进行以下替换:
- LOCATION:存储模型的区域。例如
us-central1
。 - MODEL_ID:要导出的经过训练的 AutoML Edge 模型的 ID 编号。
- EXPORT_FORMAT:要导出的 Edge 模型的类型。对于视频对象跟踪模型,选项包括:
tflite
(TF Lite) - 将模型导出为 TF Lite 软件包,以在边缘或移动设备上运行模型。edgetpu-tflite
(Edge TPU TF Lite) - 模型导出为 TF Lite 软件包,以在 Edge TPU 设备上运行模型。tf-saved-model
(容器)- 将模型导出为 TF 保存的模型以在 Docker 容器上运行。
- OUTPUT_BUCKET:要存储 Edge 模型文件的 Cloud Storage 存储桶目录的路径。
- PROJECT_NUMBER:自动生成的项目编号。
HTTP 方法和网址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
请求 JSON 正文:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如需发送请求,请选择以下方式之一:
curl
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
响应包含有关规范的信息以及 OPERATION_ID。
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
您可以获取导出操作状态,以了解导出操作完成的时间。
获取操作状态
图片
使用以下代码获取导出操作的状态。此代码对于所有目标均相同:
REST
在使用任何请求数据之前,请先进行以下替换:
- LOCATION:您的项目的位置。
- PROJECT:您的项目 ID。
- OPERATION_ID:目标操作的 ID。此 ID 通常包含在原始请求的响应中。
HTTP 方法和网址:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
如需发送请求,请选择以下方式之一:
curl
执行以下命令:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
执行以下命令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
{ "name": "projects/PROJECT/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.793983Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelResponse" } }
视频
REST
在使用任何请求数据之前,请先进行以下替换:
- PROJECT_NUMBER:自动生成的项目编号。
- LOCATION:存储模型的区域。例如
us-central1
。 - OPERATION_ID:您的操作的 ID。
HTTP 方法和网址:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
如需发送请求,请选择以下方式之一:
curl
执行以下命令:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
执行以下命令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
您应该收到类似以下内容的 JSON 响应:
输出文件
图片
在下面选择您的模型格式对应的标签页:
TF Lite
您在请求中指定的 OUTPUT_BUCKET
决定了输出文件的存储位置。存储输出文件的目录采用以下格式:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
文件:
model.tflite
:包含可立即用于 TensorFlow Lite 的模型版本的文件。
Edge TPU
您在请求中指定的 OUTPUT_BUCKET
决定了输出文件的存储位置。存储输出文件的目录采用以下格式:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
文件:
edgetpu_model.tflite
:包含 TensorFlow Lite 模型版本的文件,通过 Edge TPU 编译器传递,以便与 Edge TPU 兼容。
容器
您在请求中指定的 OUTPUT_BUCKET
决定了输出文件的存储位置。存储输出文件的目录采用以下格式:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
文件:
saved_model.pb
:包含图定义和模型权重的协议缓冲区文件。
Core ML
您在请求中指定的 OUTPUT_BUCKET
决定了输出文件的存储位置。存储输出文件的目录采用以下格式:
- gs://OUTPUT_BUCKET/model-MODEL_ID/core-ml/YYYY-MM-DDThh:mm:ss.sssZ/
文件:
dict.txt
:标签文件。标签文件dict.txt
中的每一行表示模型返回的预测结果的一个标签,与请求的顺序相同。示例
dict.txt
roses daisy tulips dandelion sunflowers
model.mlmodel
:指定 Core ML 模型的文件。
Tensorflow.js
您在请求中指定的 OUTPUT_BUCKET
决定了输出文件的存储位置。存储输出文件的目录采用以下格式:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-js/YYYY-MM-DDThh:mm:ss.sssZ/
文件:
dict.txt
:标签文件。标签文件dict.txt
中的每一行表示模型返回的预测结果的一个标签,与请求的顺序相同。示例
dict.txt
roses daisy tulips dandelion sunflowers
group1-shard1of3.bin
:二进制文件。group1-shard2of3.bin
:二进制文件。group1-shard3of3.bin
:二进制文件。model.json
:模型的 JSON 文件表示法。示例
model.json
(为简洁起见,省略了部分内容){ "format": "graph-model", "generatedBy": "2.4.0", "convertedBy": "TensorFlow.js Converter v1.7.0", "userDefinedMetadata": { "signature": { "inputs": { "image:0": { "name": "image:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } }, "outputs": { "scores:0": { "name": "scores:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "5" } ] } } } } }, "modelTopology": { "node": [ { "name": "image", "op": "Placeholder", "attr": { "dtype": { "type": "DT_FLOAT" }, "shape": { "shape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } } }, { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "op": "Const", "attr": { "value": { "tensor": { "dtype": "DT_INT32", "tensorShape": { "dim": [ { "size": "2" } ] } } }, "dtype": { "type": "DT_INT32" } } }, ... { "name": "scores", "op": "Identity", "input": [ "Softmax" ], "attr": { "T": { "type": "DT_FLOAT" } } } ], "library": {}, "versions": {} }, "weightsManifest": [ { "paths": [ "group1-shard1of3.bin", "group1-shard2of3.bin", "group1-shard3of3.bin" ], "weights": [ { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "shape": [ 2 ], "dtype": "int32" }, { "name": "mnas_v4_a/output/fc/tf_layer/kernel", "shape": [ 1280, 5 ], "dtype": "float32" }, ... { "name": "mnas_v4_a_1/feature_network/lead_cell_17/op_0/conv2d_0/Conv2D_weights", "shape": [ 1, 1, 320, 1280 ], "dtype": "float32" }, { "name": "mnas_v4_a_1/feature_network/cell_14/op_0/expand_0/Conv2D_bn_offset", "shape": [ 1152 ], "dtype": "float32" } ] } ] }
视频
在下面选择您的模型格式对应的标签页:
TF Lite
您在请求中指定的 OUTPUT_BUCKET
决定了输出文件的存储位置。存储输出文件的目录采用以下格式:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
文件:
model.tflite
:包含可立即用于 TensorFlow Lite 的模型版本的文件。frozen_inference_graph.pb
:包含图定义和模型权重的序列化协议缓冲区文件。label_map.pbtxt
:标签映射文件,将每个使用的标签映射到一个整数值。
Edge TPU
您在请求中指定的 OUTPUT_BUCKET
决定了输出文件的存储位置。存储输出文件的目录采用以下格式:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
文件:
edgetpu_model.tflite
:包含 TensorFlow Lite 模型版本的文件,通过 Edge TPU 编译器传递,以便与 Edge TPU 兼容。label_map.pbtxt
:标签映射文件,将每个使用的标签映射到一个整数值。
容器
您在请求中指定的 OUTPUT_BUCKET
决定了输出文件的存储位置。存储输出文件的目录采用以下格式:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
文件:
frozen_inference_graph.pb
:包含图定义和模型权重的序列化协议缓冲区文件。label_map.pbtxt
:标签映射文件,将每个使用的标签映射到一个整数值。saved_model/saved_model.pb
:此文件存储实际的 TensorFlow 程序(或模型)以及一组已命名的签名,每个签名标识一个接受张量输入并生成张量输出的函数。saved_model/variables/
:此变量目录包含标准训练检查点。