Auf dieser Seite wird beschrieben, wie Sie mit Vertex AI Ihre Bild- und Video-AutoML Edge-Modelle nach Cloud Storage exportieren.
Informationen zum Exportieren eines Tabellenmodells finden Sie unter Tabellarische AutoML-Modelle exportieren.
Einführung
Nachdem Sie ein AutoML Edge-Modell trainiert haben, können Sie das Modell in einigen Fällen in verschiedenen Formaten exportieren, je nachdem, wie Sie es verwenden möchten. Die exportierten Modelldateien werden in einem Cloud Storage-Bucket gespeichert und können für Vorhersagen in der Umgebung Ihrer Wahl verwendet werden.
Sie können in Vertex AI kein Edge-Modell für die Bereitstellung von Vorhersagen verwenden. Sie müssen das Edge-Modell auf einem externen Gerät bereitstellen, um Vorhersagen zu erhalten.
Modell exportieren
Mit den folgenden Codebeispielen können Sie ein AutoML Edge-Modell ermitteln, einen Speicherort für die Ausgabedatei angeben und dann die Exportanfrage senden.
Bild
Wählen Sie unten den Tab für Ihr Ziel aus:
Klassifizierung
Trainierte AutoML Edge-Bildklassifizierungsmodelle können in den folgenden Formaten exportiert werden:
- TF Lite – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
- Edge TPU TF Lite – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge TPU-Geräten auszuführen.
- Container – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
- Core ML – Exportieren Sie eine .mlmodel-Datei, um Ihr Modell auf iOS- und macOS-Geräten auszuführen.
- Tensorflow.js – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
Console
- Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.
- Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
- Klicken Sie auf Exportieren.
- Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
- Klicken Sie auf Exportieren.
- Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.
REST
Ersetzen Sie dabei folgende Werte für die Anfragedaten:
- LOCATION: Der Standort Ihres Projekts
- PROJECT: Ihre Projekt-ID.
- MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
- EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für dieses Ziel sind folgende Optionen verfügbar:
tflite
(TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.edgetpu-tflite
(Edge TPU TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge TPU-Geräten auszuführen.tf-saved-model
(Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.core-ml
(Core ML) – Exportieren Sie eine .mlmodel-Datei, um Ihr Modell auf iOS- und macOS-Geräten auszuführen.tf-js
(Tensorflow.js) – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.
- OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
JSON-Text der Anfrage:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.
Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Java Schritten zur Einrichtung in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.
Klassifizierung
Trainierte AutoML Edge-Bildklassifizierungsmodelle können in den folgenden Formaten exportiert werden:
- TF Lite – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
- Edge TPU TF Lite – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge TPU-Geräten auszuführen.
- Container – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
- Core ML – Exportieren Sie eine .mlmodel-Datei, um Ihr Modell auf iOS- und macOS-Geräten auszuführen.
- Tensorflow.js – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
Console
- Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.
- Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
- Klicken Sie auf Exportieren.
- Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
- Klicken Sie auf Exportieren.
- Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.
REST
Ersetzen Sie dabei folgende Werte für die Anfragedaten:
- LOCATION: Der Standort Ihres Projekts
- PROJECT: Ihre Projekt-ID.
- MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
- EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für dieses Ziel sind folgende Optionen verfügbar:
tflite
(TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.edgetpu-tflite
(Edge TPU TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge TPU-Geräten auszuführen.tf-saved-model
(Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.core-ml
(Core ML) – Exportieren Sie eine .mlmodel-Datei, um Ihr Modell auf iOS- und macOS-Geräten auszuführen.tf-js
(Tensorflow.js) – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.
- OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
JSON-Text der Anfrage:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.
Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Java Schritten zur Einrichtung in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.
Objekterkennung
Trainierte AutoML Edge-Bildobjekterkennungsmodelle können in den folgenden Formaten exportiert werden:
- TF Lite – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
- Container – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
- Tensorflow.js – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
Console
- Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.
- Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
- Wählen Sie den Tab Bereitstellen & Testen aus, um die verfügbaren Exportformate aufzurufen.
- Wählen Sie im Abschnitt Edge-optimiertes Modell verwenden das gewünschte Format des Exportmodells aus.
- Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
- Klicken Sie auf Exportieren.
- Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.
REST
Ersetzen Sie dabei folgende Werte für die Anfragedaten:
- LOCATION: Der Standort Ihres Projekts
- PROJECT: Ihre Projekt-ID.
- MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
- EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für dieses Ziel sind folgende Optionen verfügbar:
tflite
(TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.tf-saved-model
(Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.tf-js
(Tensorflow.js) – Exportieren Sie das Modell als TensorFlow.js-Paket für die Ausführung im Browser und in Node.js.
- OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
JSON-Text der Anfrage:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.
Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Java Schritten zur Einrichtung in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.
Video
Wählen Sie unten den Tab für Ihr Ziel aus:
Aktionserkennung
Trainierte AutoML Edge-Videoaktionserkennungsmodelle können im gespeicherten Modellformat exportiert werden.
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
Console
- Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.
- Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
- Klicken Sie auf Exportieren.
- Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
- Klicken Sie auf Exportieren.
- Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.
REST
Ersetzen Sie dabei folgende Werte für die Anfragedaten:
- LOCATION: Region, in der das Modell gespeichert ist. Beispiel:
us-central1
. - MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
- EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für die Erkennung von Videoaktionen lautet die Modelloption:
tf-saved-model
(Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
- OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
- PROJECT_NUMBER: Die automatisch generierte Projektnummer Ihres Projekts.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
JSON-Text der Anfrage:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.
Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Java Schritten zur Einrichtung in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.
Klassifizierung
Trainierte AutoML Edge-Videoklassifizierungsmodelle können nur im gespeicherten Modellformat exportiert werden.
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
Console
- Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.
- Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
- Klicken Sie auf Exportieren.
- Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
- Klicken Sie auf Exportieren.
- Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.
REST
Ersetzen Sie dabei folgende Werte für die Anfragedaten:
- LOCATION: Region, in der das Modell gespeichert ist. Beispiel:
us-central1
. - MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
- EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für die Videoklassifizierung gilt folgende Modelloption:
tf-saved-model
(Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
- OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
- PROJECT_NUMBER: Die automatisch generierte Projektnummer Ihres Projekts.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
JSON-Text der Anfrage:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.
Objekt-Tracking
Trainierte AutoML Edge-Videoobjekt-Tracking-Modelle können in den folgenden Formaten exportiert werden:
- TF Lite – Exportieren Sie Ihr Modell als TensorFlow Lite-Paket,, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.
- Container – Exportieren Sie Ihr Modell als gespeichertes TensorFlow-Modell, das in einem Docker-Container ausgeführt wird.
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
Console
- Rufen Sie in der Google Cloud Console im Abschnitt "Vertex AI" die Seite Modelle auf.
- Klicken Sie auf die Versionsnummer des AutoML Edge-Modells, das Sie exportieren möchten, um die dazugehörige Detailseite zu öffnen.
- Klicken Sie auf Exportieren.
- Geben Sie im Seitenfenster Modell exportieren den Speicherort in Cloud Storage an, um die Exportausgabe des Edge-Modells zu speichern.
- Klicken Sie auf Exportieren.
- Klicken Sie auf Fertig, um das Seitenfenster Modell exportieren zu schließen.
REST
Ersetzen Sie dabei folgende Werte für die Anfragedaten:
- LOCATION: Region, in der das Modell gespeichert ist. Beispiel:
us-central1
. - MODEL_ID: Die ID des trainierten AutoML Edge-Modells, das Sie exportieren
- EXPORT_FORMAT: Der Typ des Edge-Modells, das Sie exportieren. Für Videoobjekt-Tracking-Modelle stehen folgende Optionen zur Verfügung:
tflite
(TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge- oder Mobilgeräten auszuführen.edgetpu-tflite
(Edge TPU TF Lite) – Exportieren Sie Ihr Modell als TF Lite-Paket, um Ihr Modell auf Edge TPU-Geräten auszuführen.tf-saved-model
(Container) – Exportieren Sie das Modell als TF SavedModel-Paket für die Ausführung in einem Docker-Container.
- OUTPUT_BUCKET: Der Pfad zum Cloud Storage-Bucket-Verzeichnis, in dem Sie Ihre Edge-Modelldateien speichern möchten.
- PROJECT_NUMBER: Die automatisch generierte Projektnummer Ihres Projekts.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
JSON-Text der Anfrage:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
Die Antwort enthält Informationen zu Spezifikationen sowie die OPERATION_ID.
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
Sie können den Status des Exportvorgangs abrufen, um zu sehen, wann er abgeschlossen ist.
Status des Vorgangs abrufen
Bild
Verwenden Sie den folgenden Code, um den Status des Exportvorgangs abzurufen. Dieser Code ist für alle Ziele gleich:
REST
Ersetzen Sie dabei folgende Werte für die Anfragedaten:
- LOCATION: Der Standort Ihres Projekts
- PROJECT: Ihre Projekt-ID.
- OPERATION_ID: Die ID des Zielvorgangs. Diese ID ist in der Regel in der Antwort auf die ursprüngliche Anfrage enthalten.
HTTP-Methode und URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
Senden Sie die Anfrage mithilfe einer der folgenden Optionen:
curl
Führen Sie folgenden Befehl aus:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
Führen Sie folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
{ "name": "projects/PROJECT/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.793983Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelResponse" } }
Video
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER: Die automatisch generierte Projektnummer Ihres Projekts.
- LOCATION: Region, in der das Modell gespeichert ist. Beispiel:
us-central1
. - OPERATION_ID: ID Ihrer Vorgänge.
HTTP-Methode und URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
Senden Sie die Anfrage mithilfe einer der folgenden Optionen:
curl
Führen Sie folgenden Befehl aus:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
Führen Sie folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
Ausgabedateien
Bild
Wählen Sie den Tab unten für Ihr Modellformat aus:
TF Lite
Mit dem in der Anfrage angegebenen OUTPUT_BUCKET
wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Dateien:
model.tflite
: Eine Datei mit einer Version des Modells, die mit TensorFlow Lite verwendet werden kann.
Edge TPU
Mit dem in der Anfrage angegebenen OUTPUT_BUCKET
wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Dateien:
edgetpu_model.tflite
: Eine Datei mit einer Version des Modells für TensorFlow Lite, die durch den Edge TPU-Compiler übergeben wird, um mit der Edge TPU kompatibel zu sein.
Container
Mit dem in der Anfrage angegebenen OUTPUT_BUCKET
wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
Dateien:
saved_model.pb
: Eine Protokollzwischenspeicherdatei mit der Grafikdefinition und den Gewichtungen des Modells.
Core ML
Mit dem in der Anfrage angegebenen OUTPUT_BUCKET
wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:
- gs://OUTPUT_BUCKET/model-MODEL_ID/core-ml/YYYY-MM-DDThh:mm:ss.sssZ/
Dateien:
dict.txt
: Eine Labeldatei. Jede Zeile in der Labeldateidict.txt
stellt ein Label der vom Modell zurückgegebenen Vorhersagen in derselben Reihenfolge dar, in der sie angefordert wurden.Beispiel
dict.txt
roses daisy tulips dandelion sunflowers
model.mlmodel
: Eine Datei, die ein Core ML-Modell angibt.
Tensorflow.js
Mit dem in der Anfrage angegebenen OUTPUT_BUCKET
wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-js/YYYY-MM-DDThh:mm:ss.sssZ/
Dateien:
dict.txt
: Eine Labeldatei. Jede Zeile in der Labeldateidict.txt
stellt ein Label der vom Modell zurückgegebenen Vorhersagen in derselben Reihenfolge dar, in der sie angefordert wurden.Beispiel
dict.txt
roses daisy tulips dandelion sunflowers
group1-shard1of3.bin
: Eine Binärdatei.group1-shard2of3.bin
: Eine Binärdatei.group1-shard3of3.bin
: Eine Binärdatei.model.json
: Eine JSON-Dateidarstellung eines Modells.Beispiel
model.json
(zur Verdeutlichung gekürzt){ "format": "graph-model", "generatedBy": "2.4.0", "convertedBy": "TensorFlow.js Converter v1.7.0", "userDefinedMetadata": { "signature": { "inputs": { "image:0": { "name": "image:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } }, "outputs": { "scores:0": { "name": "scores:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "5" } ] } } } } }, "modelTopology": { "node": [ { "name": "image", "op": "Placeholder", "attr": { "dtype": { "type": "DT_FLOAT" }, "shape": { "shape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } } }, { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "op": "Const", "attr": { "value": { "tensor": { "dtype": "DT_INT32", "tensorShape": { "dim": [ { "size": "2" } ] } } }, "dtype": { "type": "DT_INT32" } } }, ... { "name": "scores", "op": "Identity", "input": [ "Softmax" ], "attr": { "T": { "type": "DT_FLOAT" } } } ], "library": {}, "versions": {} }, "weightsManifest": [ { "paths": [ "group1-shard1of3.bin", "group1-shard2of3.bin", "group1-shard3of3.bin" ], "weights": [ { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "shape": [ 2 ], "dtype": "int32" }, { "name": "mnas_v4_a/output/fc/tf_layer/kernel", "shape": [ 1280, 5 ], "dtype": "float32" }, ... { "name": "mnas_v4_a_1/feature_network/lead_cell_17/op_0/conv2d_0/Conv2D_weights", "shape": [ 1, 1, 320, 1280 ], "dtype": "float32" }, { "name": "mnas_v4_a_1/feature_network/cell_14/op_0/expand_0/Conv2D_bn_offset", "shape": [ 1152 ], "dtype": "float32" } ] } ] }
Video
Wählen Sie den Tab unten für Ihr Modellformat aus:
TF Lite
Mit dem in der Anfrage angegebenen OUTPUT_BUCKET
wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Dateien:
model.tflite
: Eine Datei mit einer Version des Modells, die mit TensorFlow Lite verwendet werden kann.frozen_inference_graph.pb
: Eine serialisierte Protokollzwischenspeicherdatei mit der Grafikdefinition und den Gewichtungen des Modells.label_map.pbtxt
: Eine Label-Zuordnungsdatei, die jedes der verwendeten Labels einem ganzzahligen Wert zuordnet.
Edge TPU
Mit dem in der Anfrage angegebenen OUTPUT_BUCKET
wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Dateien:
edgetpu_model.tflite
: Eine Datei mit einer Version des Modells für TensorFlow Lite, die durch den Edge TPU-Compiler übergeben wird, um mit der Edge TPU kompatibel zu sein.label_map.pbtxt
: Eine Label-Zuordnungsdatei, die jedes der verwendeten Labels einem ganzzahligen Wert zuordnet.
Container
Mit dem in der Anfrage angegebenen OUTPUT_BUCKET
wird festgelegt, wo die Ausgabedateien gespeichert werden. Das Verzeichnisformat, in dem die Ausgabedateien gespeichert werden, hat folgendes Format:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
Dateien:
frozen_inference_graph.pb
: Eine serialisierte Protokollzwischenspeicherdatei mit der Grafikdefinition und den Gewichtungen des Modells.label_map.pbtxt
: Eine Label-Zuordnungsdatei, die jedes der verwendeten Labels einem ganzzahligen Wert zuordnet.saved_model/saved_model.pb
: Die Datei speichert das eigentliche TensorFlow-Programm oder das tatsächliche Modell sowie einen Satz benannter Signaturen, die jeweils eine Funktion identifizieren, die Tensor-Eingaben akzeptiert und Tensor-Ausgaben erzeugt.saved_model/variables/
: Das Variablenverzeichnis enthält einen Standardprüfpunkt für das Training.