本頁說明如何使用 Vertex AI,將圖片和影片 AutoML Edge 模型匯出至 Cloud Storage。
如要瞭解如何匯出表格型模型,請參閱「匯出 AutoML 表格型模型」。
簡介
訓練 AutoML Edge 模型後,有時可以匯出不同格式的模型,具體取決於您想如何使用模型。匯出的模型檔案會儲存在 Cloud Storage 值區中,並可用於所選環境的預測作業。
您無法在 Vertex AI 中使用 Edge 模型提供預測,必須將 Edge 模型部署至外部裝置才能取得預測結果。
匯出模型
使用下列程式碼範例找出 AutoML Edge 模型、指定輸出檔案儲存位置,然後傳送匯出模型要求。
圖片
請選取下方分頁標籤,查看目標的相關說明:
分類
訓練完成的 AutoML Edge 圖片分類模型可以匯出為下列格式:
- TF Lite - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。
- Edge TPU TF Lite - 將模型匯出為 TF Lite 套件,即可在 Edge TPU 裝置上執行模型。
- 容器 - 將模型匯出為 TF Saved Model,以便在 Docker 容器上執行。
- Core ML - 匯出 .mlmodel 檔案,以在 iOS 和 macOS 裝置上執行模型。
- Tensorflow.js - 將模型匯出為 TensorFlow.js 套件,以在瀏覽器或 Node.js 中執行模型。
選取下方分頁,查看適用於您語言或環境的說明:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 按一下 [匯出]。
- 在「匯出模型」側邊視窗中,指定 Cloud Storage 中的位置,以便儲存 Edge 模型匯出輸出內容。
- 按一下 [匯出]。
- 按一下「完成」,關閉「匯出模型」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:專案位置。
- PROJECT:您的專案 ID。
- MODEL_ID:要匯出的已訓練 AutoML Edge 模型 ID 編號。
- EXPORT_FORMAT:要匯出的 Edge 模型類型。這個目標的選項包括:
tflite
(TF Lite) - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。edgetpu-tflite
(Edge TPU TF Lite) - 將模型匯出為 TF Lite 套件,以在 Edge TPU 裝置上執行模型。tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以在 Docker 容器上執行。core-ml
(Core ML) - 匯出 .mlmodel 檔案,以在 iOS 和 macOS 裝置上執行模型。tf-js
(Tensorflow.js) - 將模型匯出為 TensorFlow.js 套件,以在瀏覽器或 Node.js 中執行模型。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage bucket 目錄路徑。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回覆內容會包含規格資訊和 OPERATION_ID。
您可以取得匯出作業的狀態,查看作業何時完成。
Java
在試用這個範例之前,請先按照Java使用用戶端程式庫的 Vertex AI 快速入門中的操作說明進行設定。 詳情請參閱 Vertex AI Java API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。 詳情請參閱「為本機開發環境設定驗證」。
Node.js
在試用這個範例之前,請先按照Node.js使用用戶端程式庫的 Vertex AI 快速入門中的操作說明進行設定。 詳情請參閱 Vertex AI Node.js API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。 詳情請參閱「為本機開發環境設定驗證」。
Python
如要瞭解如何安裝或更新 Python 適用的 Vertex AI SDK,請參閱「安裝 Python 適用的 Vertex AI SDK」。 詳情請參閱 Python API 參考說明文件。
分類
訓練完成的 AutoML Edge 圖片分類模型可以匯出為下列格式:
- TF Lite - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。
- Edge TPU TF Lite - 將模型匯出為 TF Lite 套件,即可在 Edge TPU 裝置上執行模型。
- 容器 - 將模型匯出為 TF Saved Model,以便在 Docker 容器上執行。
- Core ML - 匯出 .mlmodel 檔案,以在 iOS 和 macOS 裝置上執行模型。
- Tensorflow.js - 將模型匯出為 TensorFlow.js 套件,以在瀏覽器或 Node.js 中執行模型。
選取下方分頁,查看適用於您語言或環境的說明:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 按一下 [匯出]。
- 在「匯出模型」側邊視窗中,指定 Cloud Storage 中的位置,以便儲存 Edge 模型匯出輸出內容。
- 按一下 [匯出]。
- 按一下「完成」,關閉「匯出模型」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:專案位置。
- PROJECT:您的專案 ID。
- MODEL_ID:要匯出的已訓練 AutoML Edge 模型 ID 編號。
- EXPORT_FORMAT:要匯出的 Edge 模型類型。這個目標的選項包括:
tflite
(TF Lite) - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。edgetpu-tflite
(Edge TPU TF Lite) - 將模型匯出為 TF Lite 套件,以在 Edge TPU 裝置上執行模型。tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以在 Docker 容器上執行。core-ml
(Core ML) - 匯出 .mlmodel 檔案,以在 iOS 和 macOS 裝置上執行模型。tf-js
(Tensorflow.js) - 將模型匯出為 TensorFlow.js 套件,以在瀏覽器或 Node.js 中執行模型。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage bucket 目錄路徑。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回覆內容會包含規格資訊和 OPERATION_ID。
您可以取得匯出作業的狀態,查看作業何時完成。
Java
在試用這個範例之前,請先按照Java使用用戶端程式庫的 Vertex AI 快速入門中的操作說明進行設定。 詳情請參閱 Vertex AI Java API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。 詳情請參閱「為本機開發環境設定驗證」。
Node.js
在試用這個範例之前,請先按照Node.js使用用戶端程式庫的 Vertex AI 快速入門中的操作說明進行設定。 詳情請參閱 Vertex AI Node.js API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。 詳情請參閱「為本機開發環境設定驗證」。
Python
如要瞭解如何安裝或更新 Python 適用的 Vertex AI SDK,請參閱「安裝 Python 適用的 Vertex AI SDK」。 詳情請參閱 Python API 參考說明文件。
物件偵測
訓練完成的 AutoML Edge 圖片物件偵測模型可以匯出為下列格式:
- TF Lite - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。
- 容器 - 將模型匯出為 TF Saved Model,以便在 Docker 容器上執行。
- Tensorflow.js - 將模型匯出為 TensorFlow.js 套件,以在瀏覽器或 Node.js 中執行模型。
選取下方分頁,查看適用於您語言或環境的說明:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 選取「Deploy & Test」(部署及測試) 分頁標籤,即可查看可用的匯出格式。
- 從「使用邊緣最佳化模型」部分選取所需的匯出模型格式。
- 在「匯出模型」側邊視窗中,指定 Cloud Storage 中的位置,以便儲存 Edge 模型匯出輸出內容。
- 按一下 [匯出]。
- 按一下「完成」,關閉「匯出模型」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:專案位置。
- PROJECT:。
- MODEL_ID:要匯出的已訓練 AutoML Edge 模型 ID 編號。
- EXPORT_FORMAT:要匯出的 Edge 模型類型。這個目標的選項包括:
tflite
(TF Lite) - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以在 Docker 容器上執行。tf-js
(Tensorflow.js) - 將模型匯出為 TensorFlow.js 套件,以在瀏覽器或 Node.js 中執行模型。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage bucket 目錄路徑。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回覆內容會包含規格資訊和 OPERATION_ID。
您可以取得匯出作業的狀態,查看作業何時完成。
Java
在試用這個範例之前,請先按照Java使用用戶端程式庫的 Vertex AI 快速入門中的操作說明進行設定。 詳情請參閱 Vertex AI Java API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。 詳情請參閱「為本機開發環境設定驗證」。
Node.js
在試用這個範例之前,請先按照Node.js使用用戶端程式庫的 Vertex AI 快速入門中的操作說明進行設定。 詳情請參閱 Vertex AI Node.js API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。 詳情請參閱「為本機開發環境設定驗證」。
Python
如要瞭解如何安裝或更新 Python 適用的 Vertex AI SDK,請參閱「安裝 Python 適用的 Vertex AI SDK」。 詳情請參閱 Python API 參考說明文件。
影片
請選取下方分頁標籤,查看目標的相關說明:
動作識別
訓練完成的 AutoML Edge 影片動作辨識模型可以匯出為已儲存模型格式。
選取下方分頁,查看適用於您語言或環境的說明:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 按一下 [匯出]。
- 在「匯出模型」側邊視窗中,指定 Cloud Storage 中的位置,以便儲存 Edge 模型匯出輸出內容。
- 按一下 [匯出]。
- 按一下「完成」,關閉「匯出模型」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:儲存模型的區域。例如:
us-central1
。 - MODEL_ID:要匯出的已訓練 AutoML Edge 模型 ID 編號。
- EXPORT_FORMAT:要匯出的 Edge 模型類型。如為影片動作辨識,模型選項為:
tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以在 Docker 容器上執行。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage bucket 目錄路徑。
- PROJECT_NUMBER:系統自動為專案產生的專案編號。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回覆內容會包含規格資訊和 OPERATION_ID。
您可以取得匯出作業的狀態,查看作業何時完成。
Java
在試用這個範例之前,請先按照Java使用用戶端程式庫的 Vertex AI 快速入門中的操作說明進行設定。 詳情請參閱 Vertex AI Java API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。 詳情請參閱「為本機開發環境設定驗證」。
Python
如要瞭解如何安裝或更新 Python 適用的 Vertex AI SDK,請參閱「安裝 Python 適用的 Vertex AI SDK」。 詳情請參閱 Python API 參考說明文件。
分類
訓練完成的 AutoML Edge 影片分類模型只能以已儲存模型格式匯出。
選取下方分頁,查看適用於您語言或環境的說明:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 按一下 [匯出]。
- 在「匯出模型」側邊視窗中,指定 Cloud Storage 中的位置,以便儲存 Edge 模型匯出輸出內容。
- 按一下 [匯出]。
- 按一下「完成」,關閉「匯出模型」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:儲存模型的區域。例如:
us-central1
。 - MODEL_ID:要匯出的已訓練 AutoML Edge 模型 ID 編號。
- EXPORT_FORMAT:要匯出的 Edge 模型類型。如為影片分類,模型選項為:
tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以在 Docker 容器上執行。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage bucket 目錄路徑。
- PROJECT_NUMBER:系統自動為專案產生的專案編號。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回覆內容會包含規格資訊和 OPERATION_ID。
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
您可以取得匯出作業的狀態,查看作業何時完成。
物件追蹤
訓練完成的 AutoML Edge 影片物件追蹤模型可以匯出為下列格式:
- TF Lite - 將模型匯出為 TensorFlow Lite 套件,即可在邊緣或行動裝置中執行模型。
- 容器 - 將模型匯出為 TensorFlow Saved Model,以便在 Docker 容器上執行。
選取下方分頁,查看適用於您語言或環境的說明:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 按一下 [匯出]。
- 在「匯出模型」側邊視窗中,指定 Cloud Storage 中的位置,以便儲存 Edge 模型匯出輸出內容。
- 按一下 [匯出]。
- 按一下「完成」,關閉「匯出模型」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:儲存模型的區域。例如:
us-central1
。 - MODEL_ID:要匯出的已訓練 AutoML Edge 模型 ID 編號。
- EXPORT_FORMAT:要匯出的 Edge 模型類型。如為影片物件追蹤模型,則選項如下:
tflite
(TF Lite) - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。edgetpu-tflite
(Edge TPU TF Lite) - 將模型匯出為 TF Lite 套件,以在 Edge TPU 裝置上執行模型。tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以在 Docker 容器上執行。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage bucket 目錄路徑。
- PROJECT_NUMBER:系統自動為專案產生的專案編號。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回覆內容會包含規格資訊和 OPERATION_ID。
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
您可以取得匯出作業的狀態,查看作業何時完成。
取得作業狀態
圖片
請使用下列程式碼取得匯出作業的狀態。所有目標的程式碼都相同:
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:專案位置。
- PROJECT:。
- OPERATION_ID:目標作業的 ID。這個 ID 通常會包含在原始要求的 回應中。
HTTP 方法和網址:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
如要傳送要求,請選擇以下其中一個選項:
curl
執行下列指令:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
{ "name": "projects/PROJECT/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.793983Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelResponse" } }
影片
REST
使用任何要求資料之前,請先替換以下項目:
- PROJECT_NUMBER:系統自動為專案產生的專案編號。
- LOCATION:儲存模型的區域。例如:
us-central1
。 - OPERATION_ID:作業 ID。
HTTP 方法和網址:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
如要傳送要求,請選擇以下其中一個選項:
curl
執行下列指令:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
您應該會收到如下的 JSON 回應:
輸出檔案
圖片
選取下方分頁標籤,查看對應的型號格式:
TF Lite
要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
model.tflite
:內含模型版本的檔案,可供 TensorFlow Lite 使用。
Edge TPU
要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
edgetpu_model.tflite
:包含 TensorFlow Lite 模型版本的檔案,已透過 Edge TPU 編譯器處理,可與 Edge TPU 相容。
容器
要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
saved_model.pb
:包含圖表定義和模型權重的通訊協定緩衝區檔案。
Core ML
要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/core-ml/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
dict.txt
:標籤檔案。標籤檔案dict.txt
中的每一行都代表模型傳回的預測標籤,順序與要求時相同。範例
dict.txt
roses daisy tulips dandelion sunflowers
model.mlmodel
:指定 Core ML 模型的檔案。
Tensorflow.js
要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-js/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
dict.txt
:標籤檔案。標籤檔案dict.txt
中的每一行都代表模型傳回的預測標籤,順序與要求時相同。範例
dict.txt
roses daisy tulips dandelion sunflowers
group1-shard1of3.bin
:二進位檔案。group1-shard2of3.bin
:二進位檔案。group1-shard3of3.bin
:二進位檔案。model.json
:模型的 JSON 檔案表示法。範例
model.json
(為求清楚而縮短){ "format": "graph-model", "generatedBy": "2.4.0", "convertedBy": "TensorFlow.js Converter v1.7.0", "userDefinedMetadata": { "signature": { "inputs": { "image:0": { "name": "image:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } }, "outputs": { "scores:0": { "name": "scores:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "5" } ] } } } } }, "modelTopology": { "node": [ { "name": "image", "op": "Placeholder", "attr": { "dtype": { "type": "DT_FLOAT" }, "shape": { "shape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } } }, { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "op": "Const", "attr": { "value": { "tensor": { "dtype": "DT_INT32", "tensorShape": { "dim": [ { "size": "2" } ] } } }, "dtype": { "type": "DT_INT32" } } }, ... { "name": "scores", "op": "Identity", "input": [ "Softmax" ], "attr": { "T": { "type": "DT_FLOAT" } } } ], "library": {}, "versions": {} }, "weightsManifest": [ { "paths": [ "group1-shard1of3.bin", "group1-shard2of3.bin", "group1-shard3of3.bin" ], "weights": [ { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "shape": [ 2 ], "dtype": "int32" }, { "name": "mnas_v4_a/output/fc/tf_layer/kernel", "shape": [ 1280, 5 ], "dtype": "float32" }, ... { "name": "mnas_v4_a_1/feature_network/lead_cell_17/op_0/conv2d_0/Conv2D_weights", "shape": [ 1, 1, 320, 1280 ], "dtype": "float32" }, { "name": "mnas_v4_a_1/feature_network/cell_14/op_0/expand_0/Conv2D_bn_offset", "shape": [ 1152 ], "dtype": "float32" } ] } ] }
影片
選取下方分頁標籤,查看對應的型號格式:
TF Lite
要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
model.tflite
:內含模型版本的檔案,可供 TensorFlow Lite 使用。frozen_inference_graph.pb
:包含圖表定義和模型權重的序列化通訊協定緩衝區檔案。label_map.pbtxt
:標籤對應表檔案,可將每個使用的標籤對應至整數值。
Edge TPU
要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
edgetpu_model.tflite
:包含 TensorFlow Lite 模型版本的檔案,已透過 Edge TPU 編譯器處理,可與 Edge TPU 相容。label_map.pbtxt
:標籤對應表檔案,可將每個使用的標籤對應至整數值。
容器
要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
frozen_inference_graph.pb
:包含圖表定義和模型權重的序列化通訊協定緩衝區檔案。label_map.pbtxt
:標籤對應表檔案,可將每個使用的標籤對應至整數值。saved_model/saved_model.pb
:這個檔案會儲存實際的 TensorFlow 程式或模型,以及一組具名簽章,每個簽章都會識別接受張量輸入並產生張量輸出的函式。saved_model/variables/
:變數目錄包含標準訓練檢查點。