Auf dieser Seite wird beschrieben, wie Sie ein AutoML-Modell mit der Vertex AI API trainieren.
Informationen zum Trainieren eines AutoML-Modells mit der Google Cloud Console finden Sie unter AutoML-Modell mit der Google Cloud Console trainieren.
Vorbereitung
Bevor Sie ein Modell trainieren können, müssen Sie Ihre Trainingsdaten vorbereitet und ein Dataset erstellt haben.
AutoML-Modell mit der API trainieren
Wenn Sie ein Modell mit der API trainieren, erstellen Sie ein TrainingPipeline
-Objekt und geben Sie das Dataset an, das Ihre Trainingsdaten enthält.
Wählen Sie unten den Datentyp aus:
Bild
Wählen Sie unten den Tab für Ihr Ziel aus:
Klassifizierung
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
REST UND BEFEHLSZEILE
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Region, in der sich das Dataset befindet und das Modell erstellt wird. Beispiel:
us-central1
. - PROJECT: Ihre Projekt-ID.
- TRAININGPIPELINE_DISPLAYNAME: erforderlich. Ein Anzeigename für die trainingPipeline.
- DATASET_ID: Die ID-Nummer für das Dataset, das für das Training verwendet werden soll.
fractionSplit
: Optional. Eine von mehreren möglichen ML-Aufteilungsoptionen für Ihre Daten. FürfractionSplit
muss die Summe der Werte 1 ergeben. Beispiel:-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: Ein Anzeigename für das von der TrainingPipeline hochgeladene (erstellte) Modell.
- MODEL_DESCRIPTION*: Eine Beschreibung für das Modell.
- modelToUpload.labels*: Beliebiger Satz von Schlüssel/Wert-Paaren, um Ihre Modelle zu organisieren. Beispiel:
- "env": "prod"
- "tier": "backend"
- MODELTYPE†: Der Typ des in der Cloud gehosteten Modells, das trainiert werden soll. Folgende Optionen sind verfügbar:
CLOUD
(Standard)
- NODE_HOUR_BUDGET†: Die tatsächliche Höhe der Trainingskosten kann gleich oder kleiner als dieser Wert sein. Für Cloud-Modelle muss das Budget folgenden Wert betragen: 8.000–800.000 Milli-Knotenstunden (einschließlich). Der Standardwert ist 192.000, was einem Tag in Echtzeit entspricht, wobei 8 Knoten verwendet werden.
- PROJECT_NUMBER: Projektnummer für Ihr Projekt
* | In der Beschreibung der Schemadatei, die Sie in trainingTaskDefinition angeben, wird die Verwendung dieses Felds beschrieben. |
† | In der Schemadatei, die Sie in trainingTaskDefinition angeben, wird dieses Feld deklariert und beschrieben. |
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text der Anfrage:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": "false", "modelType": ["MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
Die Antwort enthält Informationen zu Spezifikationen sowie die TRAININGPIPELINE_ID.
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Node.js API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Klassifizierung
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
REST UND BEFEHLSZEILE
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Region, in der sich das Dataset befindet und das Modell erstellt wird. Beispiel:
us-central1
. - PROJECT: Ihre Projekt-ID.
- TRAININGPIPELINE_DISPLAYNAME: erforderlich. Ein Anzeigename für die trainingPipeline.
- DATASET_ID: Die ID-Nummer für das Dataset, das für das Training verwendet werden soll.
fractionSplit
: Optional. Eine von mehreren möglichen ML-Aufteilungsoptionen für Ihre Daten. FürfractionSplit
muss die Summe der Werte 1 ergeben. Beispiel:-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: Ein Anzeigename für das von der TrainingPipeline hochgeladene (erstellte) Modell.
- MODEL_DESCRIPTION*: Eine Beschreibung für das Modell.
- modelToUpload.labels*: Beliebiger Satz von Schlüssel/Wert-Paaren, um Ihre Modelle zu organisieren. Beispiel:
- "env": "prod"
- "tier": "backend"
- MODELTYPE†: Der Typ des in der Cloud gehosteten Modells, das trainiert werden soll. Folgende Optionen sind verfügbar:
CLOUD
(Standard)
- NODE_HOUR_BUDGET†: Die tatsächliche Höhe der Trainingskosten kann gleich oder kleiner als dieser Wert sein. Für Cloud-Modelle muss das Budget folgenden Wert betragen: 8.000–800.000 Milli-Knotenstunden (einschließlich). Der Standardwert ist 192.000, was einem Tag in Echtzeit entspricht, wobei 8 Knoten verwendet werden.
- PROJECT_NUMBER: Projektnummer für Ihr Projekt
* | In der Beschreibung der Schemadatei, die Sie in trainingTaskDefinition angeben, wird die Verwendung dieses Felds beschrieben. |
† | In der Schemadatei, die Sie in trainingTaskDefinition angeben, wird dieses Feld deklariert und beschrieben. |
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text der Anfrage:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": "true", "modelType": ["MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
Die Antwort enthält Informationen zu Spezifikationen sowie die TRAININGPIPELINE_ID.
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Node.js API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Objekterkennung
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
REST UND BEFEHLSZEILE
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Region, in der sich das Dataset befindet und das Modell erstellt wird. Beispiel:
us-central1
. - PROJECT: Ihre Projekt-ID.
- TRAININGPIPELINE_DISPLAYNAME: erforderlich. Ein Anzeigename für die trainingPipeline.
- DATASET_ID: Die ID-Nummer für das Dataset, das für das Training verwendet werden soll.
fractionSplit
: Optional. Eine von mehreren möglichen ML-Aufteilungsoptionen für Ihre Daten. FürfractionSplit
muss die Summe der Werte 1 ergeben. Beispiel:-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: Ein Anzeigename für das von der TrainingPipeline hochgeladene (erstellte) Modell.
- MODEL_DESCRIPTION*: Eine Beschreibung für das Modell.
- modelToUpload.labels*: Beliebiger Satz von Schlüssel/Wert-Paaren, um Ihre Modelle zu organisieren. Beispiel:
- "env": "prod"
- "tier": "backend"
- MODELTYPE†: Der Typ des in der Cloud gehosteten Modells, das trainiert werden soll. Folgende Optionen sind verfügbar:
CLOUD-HIGH-ACCURACY-1
: Ein Modell, das sich am besten zur Verwendung in Google Cloud eignet und nicht exportiert werden kann. Dieses Modell hat eine höhere Latenz, sollte jedoch auch eine höhere Vorhersagequalität als andere Cloud-Modelle haben.CLOUD-LOW-LATENCY-1
: Ein Modell, das sich am besten für die Verwendung in Google Cloud eignet und nicht exportiert werden kann. Dieses Modell hat eine geringe Latenz, kann jedoch eine niedrigere Vorhersagequalität als andere Cloud-Modelle haben.
- NODE_HOUR_BUDGET†: Die tatsächliche Höhe der Trainingskosten kann gleich oder kleiner als dieser Wert sein. Für Cloud-Modelle muss das Budget folgenden Wert betragen: 20.000 - 900.000 Milli-Knotenstunden (einschließlich). Der Standardwert ist 216.000, was einem Tag in Echtzeit entspricht, wobei 9 Knoten verwendet werden.
- PROJECT_NUMBER: Projektnummer für Ihr Projekt
* | In der Beschreibung der Schemadatei, die Sie in trainingTaskDefinition angeben, wird die Verwendung dieses Felds beschrieben. |
† | In der Schemadatei, die Sie in trainingTaskDefinition angeben, wird dieses Feld deklariert und beschrieben. |
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text der Anfrage:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_object_detection_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
Die Antwort enthält Informationen zu Spezifikationen sowie die TRAININGPIPELINE_ID.
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Node.js API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Tabellarisch
Wählen Sie ein tabellarisches Datentypziel aus.
Klassifizierung
Wählen Sie einen Tab für Ihre Sprache oder Ihre Umgebung aus:
REST UND BEFEHLSZEILE
Sie verwenden den Befehl trainingPipelines.create, um ein Modell zu trainieren.
Modell trainieren
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Ihre Region.
- PROJECT: Ihre Projekt-ID.
- TRAININGPIPELINE_DISPLAY_NAME: Anzeigename für die Trainingspipeline, die für diesen Vorgang erstellt wurde.
- TARGET_COLUMN: Die Spalte (Wert), für die das Modell Vorhersagen treffen soll.
- WEIGHT_COLUMN: (Optional) Die Gewichtungsspalte. Weitere Informationen
- TRAINING_BUDGET: Die maximale Zeit, die das Modell trainiert werden soll, in Milli-Knotenstunden (1.000 Milli-Knotenstunden entsprechen einer Knotenstunde).
- OPTIMIZATION_OBJECTIVE: Nur erforderlich, wenn Sie das standardmäßige Optimierungsziel für Ihren Vorhersagetyp nicht verwenden möchten. Weitere Informationen
- TRANSFORMATION_TYPE: Der Transformationstyp wird für jede Spalte bereitgestellt, die zum Trainieren des Modells verwendet wird. Weitere Informationen
- COLUMN_NAME: Der Name der Spalte mit dem angegebenen Transformationstyp. Jede Spalte, die zum Trainieren des Modells verwendet wird, muss angegeben werden.
- MODEL_DISPLAY_NAME: Anzeigename für das neu trainierte Modell.
- DATASET_ID: ID für das Trainings-Dataset.
-
Sie können ein
Split
-Objekt zur Steuerung Ihrer Datenaufteilung bereitstellen. Weitere Informationen zur Datenaufteilung finden Sie unter Datenaufteilung mit REST steuern. - PROJECT_NUMBER: Projektnummer für Ihr Projekt
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text anfordern:
{ "displayName": "TRAININGPIPELINE_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_tabular_1.0.0.yaml", "trainingTaskInputs": { "targetColumn": "TARGET_COLUMN", "weightColumn": "WEIGHT_COLUMN", "predictionType": "classification", "trainBudgetMilliNodeHours": TRAINING_BUDGET, "optimizationObjective": "OPTIMIZATION_OBJECTIVE", "transformations": [ {"TRANSFORMATION_TYPE_1": {"column_name" : "COLUMN_NAME_1"} }, {"TRANSFORMATION_TYPE_2": {"column_name" : "COLUMN_NAME_2"} }, ... }, "modelToUpload": {"displayName": "MODEL_DISPLAY_NAME"}, "inputDataConfig": { "datasetId": "DATASET_ID", } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/4567", "displayName": "myModelName", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_tabular_1.0.0.yaml", "modelToUpload": { "displayName": "myModelName" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-08-18T01:22:57.479336Z", "updateTime": "2020-08-18T01:22:57.479336Z" }
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Node.js API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Vorhersage
Wählen Sie einen Tab für Ihre Sprache oder Ihre Umgebung aus:
REST UND BEFEHLSZEILE
Sie verwenden den Befehl trainingPipelines.create, um ein Modell zu trainieren.
Modell trainieren
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Ihre Region.
- PROJECT: Ihre Projekt-ID.
- TRAINING_PIPELINE_DISPLAY_NAME: Anzeigename für die Trainingspipeline, die für diesen Vorgang erstellt wurde.
-
TRAINING_TASK_DEFINITION: Die Trainingsmethode des Modells
- AutoML: Eine gute Wahl für eine Vielzahl von Anwendungsfällen.
gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_forecasting_1.0.0.yaml
- Seq2Seq+: Eine gute Wahl für Experimente. Der Algorithmus konvergiert wahrscheinlich schneller als AutoML, da seine Architektur einfacher ist und einen kleineren Suchbereich verwendet. Unsere Experimente haben ergeben, dass Seq2Seq+ mit einem kleinen Budget und Datasets mit einer Größe von weniger als 1 GB gut funktioniert.
gs://google-cloud-aiplatform/schema/trainingjob/definition/seq2seq_plus_time_series_forecasting_1.0.0.yaml
- AutoML: Eine gute Wahl für eine Vielzahl von Anwendungsfällen.
- TARGET_COLUMN: Die Spalte (Wert), für die das Modell Vorhersagen treffen soll.
- Spalte TIME_COLUMNTime (Zeit) Weitere Informationen
- TIME_SERIES_IDENTIFIER_COLUMN: Die Zeitachsenkennzeichnungs-Spalte. Weitere Informationen
- WEIGHT_COLUMN: (Optional) Die Gewichtungsspalte. Weitere Informationen
- TRAINING_BUDGET: Die maximale Zeit, die das Modell trainiert werden soll, in Milli-Knotenstunden (1.000 Milli-Knotenstunden entsprechen einer Knotenstunde).
-
GRANULARITY_UNIT: Die Einheit, die für die Granularität Ihrer Trainingsdaten und den Prognosezeitraum und das Kontextfenster verwendet werden soll. Kann
minute
,hour
,day
,week
,month
oderyear
sein. Wählen Sieday
aus, wenn Sie die Effektmodellierung für Feiertage verwenden möchten. Weitere Informationen - GRANULARITY_QUANTITY: Die Anzahl der Granularitätseinheiten, aus denen das Intervall zwischen Beobachtungen in den Trainingsdaten besteht. Muss für alle Einheiten mit Ausnahme von Minuten eins sein, entweder 1, 5, 10, 15 oder 30. Weitere Informationen
- GROUP_COLUMNS: Spaltennamen in der Trainingseingabetabelle, die die Gruppierung für die Hierarchieebene identifizieren. Die Spalten müssen `time_series_attribute_columns` sein. Weitere Informationen
- GROUP_TOTAL_WEIGHT: Gewichtung der aggregierten Verluste der Gruppe im Verhältnis zum individuellen Verlust. Deaktiviert, wenn "0,0" oder nichts festgelegt ist. Ist die Gruppenspalte nicht festgelegt, werden alle Zeitachsen als Teil derselben Gruppe behandelt und die Aggregierung erfolgt über alle Zeitachsen. Weitere Informationen
- TEMPORAL_TOTAL_WEIGHT: Gewichtung des aggregierten Verlusts über die Zeit relativ zum individuellen Verlust. Deaktiviert, wenn "0,0" oder nichts festgelegt ist. Weitere Informationen
- GROUP_TEMPORAL_TOTAL_WEIGHT: Gewichtung des Gesamtverlusts (Gruppe x Zeit) im Verhältnis zum individuellen Verlust. Deaktiviert, wenn "0,0" oder nichts festgelegt ist. Ist die Gruppenspalte nicht festgelegt, werden alle Zeitachsen als Teil derselben Gruppe behandelt und die Aggregierung erfolgt über alle Zeitachsen. Weitere Informationen
-
HOLIDAY_REGIONS: (Optional) Eine oder mehrere geografische Regionen, auf die die Feiertagseffekte bei der Modellierung angewendet werden. Während des Trainings erstellt Vertex AI innerhalb des Modells kategoriale Features basierend auf dem Datum aus der Zeitspalte und den angegebenen geografischen Regionen. Setzen Sie zur Aktivierung GRANULARITY_UNIT auf
day
und geben Sie eine oder mehrere Regionen im Feld HOLIDAY_REGIONS an. Standardmäßig ist die Effektmodellierung deaktiviert.Zulässige Werte:
GLOBAL
: Erkennt Feiertage für alle Weltregionen.
NA
: Erkennt Feiertage für Nordamerika.JAPAC
: Erkennt Feiertage für Japan und den asiatisch-pazifischen Raum.EMEA
: Erkennt Feiertage für Europa, den Nahen Osten und Afrika.LAC
: Erkennt Feiertage für Lateinamerika und die Karibik.- ISO 3166-1-Ländercodes: Erkennt Feiertage für einzelne Länder.
- FORECAST_HORIZON: Die Größe des Prognosehorizonts in Detaileinheiten. Der Prognosehorizont ist der Zeitraum, für den das Modell Ergebnisse prognostizieren soll. Weitere Informationen
- CONTEXT_WINDOW: Die Anzahl der Granularitätseinheiten, die das Modell zurückspulen soll, um es beim Training zu berücksichtigen. Weitere Informationen
- OPTIMIZATION_OBJECTIVE: Nur erforderlich, wenn Sie das standardmäßige Optimierungsziel für Ihren Vorhersagetyp nicht verwenden möchten. Weitere Informationen
- TIME_SERIES_ATTRIBUTE_COL: Der Name oder die Namen der Spalten, die Zeitachsenattribute sind. Weitere Informationen
- AVAILABLE_AT_FORECAST_COL: Der Name oder die Namen der kovariativen Spalten, deren Wert zum Zeitpunkt der Prognose bekannt ist. Weitere Informationen
- UNAVAILABLE_AT_FORECAST_COL: Der Name oder die Namen der kovariativen Spalten, deren Wert zum Zeitpunkt der Prognose unbekannt ist. Weitere Informationen
- TRANSFORMATION_TYPE: Der Transformationstyp wird für jede Spalte bereitgestellt, die zum Trainieren des Modells verwendet wird. Weitere Informationen
- COLUMN_NAME: Der Name der Spalte mit dem angegebenen Transformationstyp. Jede Spalte, die zum Trainieren des Modells verwendet wird, muss angegeben werden.
- MODEL_DISPLAY_NAME: Anzeigename für das neu trainierte Modell.
- DATASET_ID: ID für das Trainings-Dataset.
-
Sie können ein
Split
-Objekt zur Steuerung Ihrer Datenaufteilung bereitstellen. Weitere Informationen zur Datenaufteilung finden Sie unter Datenaufteilung mit REST steuern. -
Sie können ein
windowConfig
-Objekt angeben, um ein Prognosefenster zu konfigurieren. Weitere Informationen finden Sie unter Prognosefenster mit REST konfigurieren. - PROJECT_NUMBER: Projektnummer für Ihr Projekt
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text anfordern:
{ "displayName": "TRAINING_PIPELINE_DISPLAY_NAME", "trainingTaskDefinition": "TRAINING_TASK_DEFINITION", "trainingTaskInputs": { "targetColumn": "TARGET_COLUMN", "timeColumn": "TIME_COLUMN", "timeSeriesIdentifierColumn": "TIME_SERIES_IDENTIFIER_COLUMN", "weightColumn": "WEIGHT_COLUMN", "trainBudgetMilliNodeHours": TRAINING_BUDGET, "dataGranularity": {"unit": "GRANULARITY_UNIT", "quantity": GRANULARITY_QUANTITY}, "hierarchyConfig": {"groupColumns": GROUP_COLUMNS, "groupTotalWeight": GROUP_TOTAL_WEIGHT, "temporalTotalWeight": TEMPORAL_TOTAL_WEIGHT, "groupTemporalTotalWeight": GROUP_TEMPORAL_TOTAL_WEIGHT} "holidayRegions" : ["HOLIDAY_REGIONS_1", "HOLIDAY_REGIONS_2", ...] "forecast_horizon": FORECAST_HORIZON, "context_window": CONTEXT_WINDOW, "optimizationObjective": "OPTIMIZATION_OBJECTIVE", "time_series_attribute_columns": ["TIME_SERIES_ATTRIBUTE_COL_1", "TIME_SERIES_ATTRIBUTE_COL_2", ...] "available_at_forecast_columns": ["AVAILABLE_AT_FORECAST_COL_1", "AVAILABLE_AT_FORECAST_COL_2", ...] "unavailable_at_forecast_columns": ["UNAVAILABLE_AT_FORECAST_COL_1", "UNAVAILABLE_AT_FORECAST_COL_2", ...] "transformations": [ {"TRANSFORMATION_TYPE_1": {"column_name" : "COLUMN_NAME_1"} }, {"TRANSFORMATION_TYPE_2": {"column_name" : "COLUMN_NAME_2"} }, ... }, "modelToUpload": {"displayName": "MODEL_DISPLAY_NAME"}, "inputDataConfig": { "datasetId": "DATASET_ID", } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/trainingPipelines/TRAINING_PIPELINE_ID", "displayName": "myModelName", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_tabular_1.0.0.yaml", "modelToUpload": { "displayName": "myModelName" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-08-18T01:22:57.479336Z", "updateTime": "2020-08-18T01:22:57.479336Z" }
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Regression
Wählen Sie einen Tab für Ihre Sprache oder Ihre Umgebung aus:
REST UND BEFEHLSZEILE
Sie verwenden den Befehl trainingPipelines.create, um ein Modell zu trainieren.
Modell trainieren
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Ihre Region.
- PROJECT: Ihre Projekt-ID.
- TRAININGPIPELINE_DISPLAY_NAME: Anzeigename für die Trainingspipeline, die für diesen Vorgang erstellt wurde.
- TARGET_COLUMN: Die Spalte (Wert), für die das Modell Vorhersagen treffen soll.
- WEIGHT_COLUMN: (Optional) Die Gewichtungsspalte. Weitere Informationen
- TRAINING_BUDGET: Die maximale Zeit, die das Modell trainiert werden soll, in Milli-Knotenstunden (1.000 Milli-Knotenstunden entsprechen einer Knotenstunde).
- OPTIMIZATION_OBJECTIVE: Nur erforderlich, wenn Sie das standardmäßige Optimierungsziel für Ihren Vorhersagetyp nicht verwenden möchten. Weitere Informationen
- TRANSFORMATION_TYPE: Der Transformationstyp wird für jede Spalte bereitgestellt, die zum Trainieren des Modells verwendet wird. Weitere Informationen
- COLUMN_NAME: Der Name der Spalte mit dem angegebenen Transformationstyp. Jede Spalte, die zum Trainieren des Modells verwendet wird, muss angegeben werden.
- MODEL_DISPLAY_NAME: Anzeigename für das neu trainierte Modell.
- DATASET_ID: ID für das Trainings-Dataset.
-
Sie können ein
Split
-Objekt zur Steuerung Ihrer Datenaufteilung bereitstellen. Weitere Informationen zur Datenaufteilung finden Sie unter Datenaufteilung mit REST steuern. - PROJECT_NUMBER: Projektnummer für Ihr Projekt
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text anfordern:
{ "displayName": "TRAININGPIPELINE_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_tabular_1.0.0.yaml", "trainingTaskInputs": { "targetColumn": "TARGET_COLUMN", "weightColumn": "WEIGHT_COLUMN", "predictionType": "regression", "trainBudgetMilliNodeHours": TRAINING_BUDGET, "optimizationObjective": "OPTIMIZATION_OBJECTIVE", "transformations": [ {"TRANSFORMATION_TYPE_1": {"column_name" : "COLUMN_NAME_1"} }, {"TRANSFORMATION_TYPE_2": {"column_name" : "COLUMN_NAME_2"} }, ... }, "modelToUpload": {"displayName": "MODEL_DISPLAY_NAME"}, "inputDataConfig": { "datasetId": "DATASET_ID", } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/4567", "displayName": "myModelName", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_tabular_1.0.0.yaml", "modelToUpload": { "displayName": "myModelName" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-08-18T01:22:57.479336Z", "updateTime": "2020-08-18T01:22:57.479336Z" }
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Node.js API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Text
Wählen Sie ein Textdatentyp-Ziel aus.
Klassifizierung
Wählen Sie einen Tab für Ihre Sprache oder Ihre Umgebung aus:
REST UND BEFEHLSZEILE
Sie verwenden den Befehl trainingPipelines.create, um ein Modell zu trainieren.
TrainingPipeline
-Objekt zum Trainieren eines Modells erstellen
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Die Region, in der das Modell erstellt wird, z. B.
us-central1
- PROJECT: Ihre Projekt-ID
- MODEL_DISPLAY_NAME: Name des Modells, wie er in der Benutzeroberfläche angezeigt wird
- MULTI-LABEL: Ein boolescher Wert, der angibt, ob Vertex AI ein Modell mit mehreren Labels trainiert. Der Standardwert ist
false
(Single-Label-Modell). - DATASET_ID: Die ID des Datasets
- PROJECT_NUMBER: Projektnummer für Ihr Projekt
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text anfordern:
{ "displayName": "MODEL_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": MULTI-LABEL }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "inputDataConfig": { "datasetId": "DATASET_ID" } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/PIPELINE_ID", "displayName": "MODEL_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID" }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": MULTI-LABEL }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-04-18T01:22:57.479336Z", "updateTime": "2020-04-18T01:22:57.479336Z" }
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Node.js API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Entitätsextraktion
Wählen Sie einen Tab für Ihre Sprache oder Ihre Umgebung aus:
REST UND BEFEHLSZEILE
Sie verwenden den Befehl trainingPipelines.create, um ein Modell zu trainieren.
TrainingPipeline
-Objekt zum Trainieren eines Modells erstellen
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Die Region, in der das Modell erstellt wird, z. B.
us-central1
- PROJECT: Ihre Projekt-ID
- MODEL_DISPLAY_NAME: Name des Modells, wie er in der Benutzeroberfläche angezeigt wird
- DATASET_ID: Die ID des Datasets
- PROJECT_NUMBER: Projektnummer für Ihr Projekt
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text anfordern:
{ "displayName": "MODEL_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_extraction_1.0.0.yaml", "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "inputDataConfig": { "datasetId": "DATASET_ID" } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/PIPELINE_ID", "displayName": "MODEL_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID" }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_extraction_1.0.0.yaml", "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-04-18T01:22:57.479336Z", "updateTime": "2020-04-18T01:22:57.479336Z" }
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Node.js API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Sentimentanalyse
Wählen Sie einen Tab für Ihre Sprache oder Ihre Umgebung aus:
REST UND BEFEHLSZEILE
Sie verwenden den Befehl trainingPipelines.create, um ein Modell zu trainieren.
TrainingPipeline
-Objekt zum Trainieren eines Modells erstellen
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Die Region, in der das Modell erstellt wird, z. B.
us-central1
- PROJECT: Ihre Projekt-ID
- MODEL_DISPLAY_NAME: Name des Modells, wie er in der Benutzeroberfläche angezeigt wird
- SENTIMENT_MAX: Die maximale Sentimentwert in Ihrem Trainings-Dataset
- DATASET_ID: Die ID des Datasets
- PROJECT_NUMBER: Projektnummer für Ihr Projekt
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text anfordern:
{ "displayName": "MODEL_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_sentiment_1.0.0.yaml", "trainingTaskInputs": { "sentimentMax": SENTIMENT_MAX }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "inputDataConfig": { "datasetId": "DATASET_ID" } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/PIPELINE_ID", "displayName": "MODEL_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID" }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_sentiment_1.0.0.yaml", "trainingTaskInputs": { "sentimentMax": SENTIMENT_MAX }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-04-18T01:22:57.479336Z", "updateTime": "2020-04-18T01:22:57.479336Z" }
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Node.js API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Video
Wählen Sie unten den Tab für Ihr Ziel aus:
Aktionserkennung
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
REST UND BEFEHLSZEILE
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT: Ihre Projekt-ID.
- LOCATION: Region, in der sich das Dataset befindet und das Modell erstellt wird. Beispiel:
us-central1
. - TRAINING_PIPELINE_DISPLAY_NAME: erforderlich. Ein Anzeigename für die TrainingPipeline.
- DATASET_ID: ID für das Trainings-Dataset.
-
TRAINING_FRACTION, TEST_FRACTION: Das Objekt
fractionSplit
ist optional. Es dient dazu, die Datenaufteilung zu steuern. Weitere Informationen zur Datenaufteilung finden Sie unter Datenaufteilungen für AutoML-Modelle. Beispiel:{"trainingFraction": "0.8","validationFraction": "0","testFraction": "0.2"}
- MODEL_DISPLAY_NAME: Anzeigename des trainierten Modells.
- MODEL_DESCRIPTION: Eine Beschreibung für das Modell.
- MODEL_LABELS: Beliebiger Satz von Schlüssel/Wert-Paaren zum Organisieren Ihrer Modelle. Beispiel:
- "env": "prod"
- "tier": "backend"
- EDGE_MODEL_TYPE:
MOBILE_VERSATILE_1
: Allgemeine Zwecke
- PROJECT_NUMBER: Projektnummer für Ihr Projekt
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text der Anfrage:
{ "displayName": "TRAINING_PIPELINE_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "TRAINING_FRACTION", "validationFraction": "0", "testFraction": "TEST_FRACTION" } }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["EDGE_MODEL_TYPE"], } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
Die Antwort enthält Informationen zu Spezifikationen sowie die TRAININGPIPELINE_ID.
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Klassifizierung
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
REST UND BEFEHLSZEILE
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Region, in der sich das Dataset befindet und das Modell gespeichert wird. Beispiel:
us-central1
. - PROJECT: Ihre Projekt-ID.
- MODEL_DISPLAY_NAME: Anzeigename für das neu trainierte Modell.
- DATASET_ID: ID für das Trainings-Dataset.
-
Das
filterSplit
-Objekt ist optional. um die Datenaufteilung zu steuern. Weitere Informationen zur Steuerung der Datenaufteilung finden Sie unter Datenaufteilung mit REST steuern. - PROJECT_NUMBER: Projektnummer für Ihr Projekt
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text anfordern:
{ "displayName": "MODE_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_classification_1.0.0.yaml", "trainingTaskInputs": {}, "modelToUpload": {"displayName": "MODE_DISPLAY_NAME"}, "inputDataConfig": { "datasetId": "DATASET_ID", "filterSplit": { "trainingFilter": "labels.ml_use = training", "validationFilter": "labels.ml_use = -", "testFilter": "labels.ml_use = test" } } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/2307109646608891904", "displayName": "myModelName", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_classification_1.0.0.yaml", "modelToUpload": { "displayName": "myModelName" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-04-18T01:22:57.479336Z", "updateTime": "2020-04-18T01:22:57.479336Z" }
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Node.js API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Objekt-Tracking
Wählen Sie unten den Tab für Ihre Sprache oder Umgebung aus:
REST UND BEFEHLSZEILE
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Region, in der sich das Dataset befindet und das Modell gespeichert wird. Beispiel:
us-central1
. - PROJECT: Ihre Projekt-ID.
- MODEL_DISPLAY_NAME: Anzeigename für das neu trainierte Modell.
- DATASET_ID: ID für das Trainings-Dataset.
-
Das
filterSplit
-Objekt ist optional. um die Datenaufteilung zu steuern. Weitere Informationen zur Steuerung der Datenaufteilung finden Sie unter Datenaufteilung mit REST steuern. - PROJECT_NUMBER: Projektnummer für Ihr Projekt
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON-Text anfordern:
{ "displayName": "MODE_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml", "trainingTaskInputs": {}, "modelToUpload": {"displayName": "MODE_DISPLAY_NAME"}, "inputDataConfig": { "datasetId": "DATASET_ID", "filterSplit": { "trainingFilter": "labels.ml_use = training", "validationFilter": "labels.ml_use = -", "testFilter": "labels.ml_use = test" } } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/2307109646608891904", "displayName": "myModelName", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml", "modelToUpload": { "displayName": "myModelName" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-04-18T01:22:57.479336Z", "updateTime": "2020-04-18T01:22:57.479336Z" }
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Java API.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Node.js API.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Vertex AI finden Sie unter Vertex AI-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python Python API.
Datenaufteilung mit REST steuern
Sie können steuern, wie Ihre Trainingsdaten auf die Trainings-, Validierungs- und Test-Datasets aufgeteilt werden. Verwenden Sie bei der Vertex AI API das Objekt Split
, um die Datenaufteilung zu bestimmen. Das Split
-Objekt kann als einer von mehreren Objekttypen in das InputConfig
-Objekt aufgenommen werden. Jedes Objekt bietet eine andere Möglichkeit zur Aufteilung der Trainingsdaten. Sie können nur eine Methode auswählen.
Welche Methoden zum Aufteilen Ihrer Daten verwendet werden können, hängt vom Datentyp ab:
Bild, Text, Video
-
FractionSplit
:- TRAINING_FRACTION: Der Anteil der Trainingsdaten, die für das Trainings-Dataset verwendet werden sollen.
- VALIDATION_FRACTION: Der Anteil der Trainingsdaten, die für das Validierungs-Dataset verwendet werden sollen. Nicht für Videodaten verwendet.
- TEST_FRACTION: Der Anteil der Trainingsdaten, die für das Test-Dataset verwendet werden sollen.
Wenn Bruchzahlen angegeben werden, müssen alle angegeben werden. Die Bruchwerte müssen zusammengenommen 1,0 ergeben. Die Standardwerte für die Brüche variieren je nach Datentyp. Weitere Informationen
"fractionSplit": { "trainingFraction": TRAINING_FRACTION, "validationFraction": VALIDATION_FRACTION, "testFraction": TEST_FRACTION },
-
FilterSplit
:- TRAINING_FILTER: Datenelemente, die diesem Filter entsprechen, werden für das Trainings-Dataset verwendet.
- VALIDATION_FILTER: Datenelemente, die diesem Filter entsprechen, werden für das Validierungs-Dataset verwendet. Muss für Videodaten „-” sein.
- TEST_FILTER: Datenelemente, die diesem Filter entsprechen, werden für das Test-Dataset verwendet.
Diese Filter können mit dem Label
ml_use
oder mit anderen Labels verwendet werden, die Sie auf Ihre Daten anwenden. Weitere Informationen zum Filtern von Daten finden Sie unter Labels für ml-use verwenden und weitere Labels.Das folgende Beispiel zeigt, wie das Objekt
filterSplit
mit dem Labelml_use
verwendet wird, wobei das Validierungs-Dataset enthalten ist:"filterSplit": { "trainingFilter": "labels.aiplatform.googleapis.com/ml_use=training", "validationFilter": "labels.aiplatform.googleapis.com/ml_use=validation", "testFilter": "labels.aiplatform.googleapis.com/ml_use=test" }
Tabellarisch
-
FractionSplit
:- TRAINING_FRACTION: Der Anteil der Trainingsdaten, die für das Trainings-Dataset verwendet werden sollen.
- VALIDATION_FRACTION: Der Anteil der Trainingsdaten, die für das Validierungs-Dataset verwendet werden sollen. Nicht für Videodaten verwendet.
- TEST_FRACTION: Der Anteil der Trainingsdaten, die für das Test-Dataset verwendet werden sollen.
Wenn Bruchzahlen angegeben werden, müssen alle angegeben werden. Die Bruchwerte müssen zusammengenommen 1,0 ergeben. Die Standardwerte für die Brüche variieren je nach Datentyp. Weitere Informationen
"fractionSplit": { "trainingFraction": TRAINING_FRACTION, "validationFraction": VALIDATION_FRACTION, "testFraction": TEST_FRACTION },
Das
fractionSplit
-Objekt wird für Prognosemodelle nicht unterstützt. -
PredefinedSplit
:-
DATA_SPLIT_COLUMN: Die Spalte mit den Datenaufteilungswerten (
TRAIN
,VALIDATION
,TEST
).
Geben Sie die Datenaufteilung für jede Zeile manuell mithilfe einer geteilten Spalte an. Weitere Informationen
"predefinedSplit": { "key": DATA_SPLIT_COLUMN },
-
DATA_SPLIT_COLUMN: Die Spalte mit den Datenaufteilungswerten (
-
TimestampSplit
:- TRAINING_FRACTION: Der Prozentsatz der Trainingsdaten, die für das Trainings-Dataset verwendet werden sollen. Der Standardfaktor ist 0,80.
- VALIDATION_FRACTION: Der Prozentsatz der Trainingsdaten, die für das Validierungs-Dataset verwendet werden sollen. Der Standardwert ist 0,10.
- TEST_FRACTION: Der Prozentsatz der Trainingsdaten, die für das Test-Dataset verwendet werden sollen. Der Standardwert ist 0,10.
- TIME_COLUMN: Die Spalte mit den Zeitstempeln.
Wenn Bruchzahlen angegeben werden, müssen alle angegeben werden. Die Bruchwerte müssen zusammengenommen 1,0 ergeben. Weitere Informationen
Das
TimestampSplit
-Objekt wird für Prognosemodelle nicht unterstützt."timestampSplit": { "trainingFraction": TRAINING_FRACTION, "validationFraction": VALIDATION_FRACTION, "testFraction": TEST_FRACTION "key": TIME_COLUMN }