이 페이지에서는 Vertex AI API를 사용하여 AutoML 모델을 학습시키는 방법을 설명합니다.
Google Cloud 콘솔을 사용하여 AutoML 모델을 학습시키는 방법은 Google Cloud 콘솔을 사용하여 AutoML 모델 학습을 참조하세요.
시작하기 전에
모델을 학습시키려면 먼저 학습 데이터를 준비하고 데이터 세트를 만들어야 합니다.
API를 사용한 AutoML 모델 학습
API를 사용하여 모델을 학습시킬 때 학습 데이터가 포함된 데이터 세트를 지정하여 TrainingPipeline
객체를 만듭니다.
아래와 같은 데이터 유형을 선택하세요.
이미지
아래에서 목표에 대한 탭을 선택합니다.
분류
아래에서 언어 또는 환경에 대한 탭을 선택하세요.
REST 및 명령줄
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 데이터 세트가 있고 모델이 생성된 리전입니다. 예를 들면
us-central1
입니다. - PROJECT: 프로젝트 ID
- TRAININGPIPELINE_DISPLAYNAME: 필수. trainingPipeline의 표시 이름입니다.
- DATASET_ID: 학습에 사용할 데이터 세트의 ID 번호입니다.
fractionSplit
: 선택사항. 가능한 여러 ML 중 하나가 데이터에 분할 옵션을 사용합니다.fractionSplit
의 경우 값은 합계가 1이어야 합니다. 예를 들면 다음과 같습니다.-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: TrainingPipeline에서 업로드(생성)한 모델의 표시 이름입니다.
- MODEL_DESCRIPTION*: 모델에 대한 설명입니다.
- modelToUpload.labels*: 모델을 구성할 모든 키-값 쌍 세트입니다. 예를 들면 다음과 같습니다.
- "env": "prod"
- "tier": "backend"
- MODELTYPE†: 학습시킬 클라우드 호스팅 모델의 유형입니다. 옵션은 다음과 같습니다.
CLOUD
(기본)
- NODE_HOUR_BUDGET†: 실제 학습 비용은 이 값보다 작거나 같습니다. Cloud 모델의 경우 예산은 8,000~800,000밀리 노드 시간이어야 합니다(8,000, 800,000 포함). 기본값은 실제 경과 시간으로 1일을 나타내는 192,000이며, 8개의 노드가 사용되었음을 의미합니다.
- PROJECT_NUMBER: 프로젝트의 프로젝트 번호
* | trainingTaskDefinition 에서 지정한 스키마 파일의 설명은 이 필드의 사용법을 설명합니다. |
† | trainingTaskDefinition 에서 지정한 스키마 파일은 이 필드를 선언하고 설명합니다. |
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": "false", "modelType": ["MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
응답에는 사양 및 TRAININGPIPELINE_ID에 대한 정보가 포함됩니다.
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Node.js
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Node.js API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
분류
아래에서 언어 또는 환경에 대한 탭을 선택하세요.
REST 및 명령줄
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 데이터 세트가 있고 모델이 생성된 리전입니다. 예를 들면
us-central1
입니다. - PROJECT: 프로젝트 ID
- TRAININGPIPELINE_DISPLAYNAME: 필수. trainingPipeline의 표시 이름입니다.
- DATASET_ID: 학습에 사용할 데이터 세트의 ID 번호입니다.
fractionSplit
: 선택사항. 가능한 여러 ML 중 하나가 데이터에 분할 옵션을 사용합니다.fractionSplit
의 경우 값은 합계가 1이어야 합니다. 예를 들면 다음과 같습니다.-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: TrainingPipeline에서 업로드(생성)한 모델의 표시 이름입니다.
- MODEL_DESCRIPTION*: 모델에 대한 설명입니다.
- modelToUpload.labels*: 모델을 구성할 모든 키-값 쌍 세트입니다. 예를 들면 다음과 같습니다.
- "env": "prod"
- "tier": "backend"
- MODELTYPE†: 학습시킬 클라우드 호스팅 모델의 유형입니다. 옵션은 다음과 같습니다.
CLOUD
(기본)
- NODE_HOUR_BUDGET†: 실제 학습 비용은 이 값보다 작거나 같습니다. Cloud 모델의 경우 예산은 8,000~800,000밀리 노드 시간이어야 합니다(8,000, 800,000 포함). 기본값은 실제 경과 시간으로 1일을 나타내는 192,000이며, 8개의 노드가 사용되었음을 의미합니다.
- PROJECT_NUMBER: 프로젝트의 프로젝트 번호
* | trainingTaskDefinition 에서 지정한 스키마 파일의 설명은 이 필드의 사용법을 설명합니다. |
† | trainingTaskDefinition 에서 지정한 스키마 파일은 이 필드를 선언하고 설명합니다. |
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": "true", "modelType": ["MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
응답에는 사양 및 TRAININGPIPELINE_ID에 대한 정보가 포함됩니다.
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Node.js
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Node.js API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
객체 감지
아래에서 언어 또는 환경에 대한 탭을 선택하세요.
REST 및 명령줄
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 데이터 세트가 있고 모델이 생성된 리전입니다. 예를 들면
us-central1
입니다. - PROJECT: 프로젝트 ID
- TRAININGPIPELINE_DISPLAYNAME: 필수. trainingPipeline의 표시 이름입니다.
- DATASET_ID: 학습에 사용할 데이터 세트의 ID 번호입니다.
fractionSplit
: 선택사항. 가능한 여러 ML 중 하나가 데이터에 분할 옵션을 사용합니다.fractionSplit
의 경우 값은 합계가 1이어야 합니다. 예를 들면 다음과 같습니다.-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: TrainingPipeline에서 업로드(생성)한 모델의 표시 이름입니다.
- MODEL_DESCRIPTION*: 모델에 대한 설명입니다.
- modelToUpload.labels*: 모델을 구성할 모든 키-값 쌍 세트입니다. 예를 들면 다음과 같습니다.
- "env": "prod"
- "tier": "backend"
- MODELTYPE†: 학습시킬 클라우드 호스팅 모델의 유형입니다. 옵션은 다음과 같습니다.
CLOUD-HIGH-ACCURACY-1
- Google Cloud 내에서 사용하기에 가장 적합한 모델이며 내보낼 수 없습니다. 이 모델은 지연 시간이 더 길지만 예측 품질도 다른 클라우드 모델보다 높아야 합니다.CLOUD-LOW-LATENCY-1
- Google Cloud 내에서 사용하기에 가장 적합한 모델이며 내보낼 수 없습니다. 이 모델의 지연 시간이 짧지만 예측 품질이 다른 클라우드 모델보다 낮을 수 있습니다.
- NODE_HOUR_BUDGET†: 실제 학습 비용은 이 값보다 작거나 같습니다. Cloud 모델의 경우 예산은 20,000~900,000밀리 노드 시간이어야 합니다(20,000, 900,000 포함). 기본값은 실제 경과 시간으로 1일을 나타내는 216,000이며, 9개의 노드가 사용되었음을 의미합니다.
- PROJECT_NUMBER: 프로젝트의 프로젝트 번호
* | trainingTaskDefinition 에서 지정한 스키마 파일의 설명은 이 필드의 사용법을 설명합니다. |
† | trainingTaskDefinition 에서 지정한 스키마 파일은 이 필드를 선언하고 설명합니다. |
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_object_detection_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
응답에는 사양 및 TRAININGPIPELINE_ID에 대한 정보가 포함됩니다.
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Node.js
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Node.js API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
테이블 형식
테이블 형식 데이터 유형 목표를 선택합니다.
분류
언어 또는 환경에 대한 탭을 선택합니다.
REST 및 명령줄
trainingPipelines.create 명령어를 사용하여 모델을 학습시킵니다.
모델을 학습시킵니다.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 리전입니다.
- PROJECT: 프로젝트 ID
- TRAININGPIPELINE_DISPLAY_NAME: 이 작업에 대해 생성된 학습 파이프라인의 표시 이름입니다.
- TARGET_COLUMN: 이 모델에서 예측할 열(값)입니다.
- WEIGHT_COLUMN: (선택사항) 가중치 열입니다. 자세히 알아보기
- TRAINING_BUDGET: 모델이 학습시키려는 최대 시간(밀리 노드 시간, 1,000밀리 노드 시간은 1노드 시간과 동일).
- OPTIMIZATION_OBJECTIVE: 예측 유형에 기본 최적화 목표를 원하지 않는 경우에만 필요합니다. 자세히 알아보기
- TRANSFORMATION_TYPE: 모델을 학습시키는 데 사용되는 각 열에 변환 유형이 제공됩니다. 자세히 알아보기
- COLUMN_NAME: 지정된 변환 유형이 있는 열의 이름입니다. 모델을 학습시키는 데 사용되는 모든 열을 지정해야 합니다.
- MODEL_DISPLAY_NAME: 새로 학습된 모델의 표시 이름입니다.
- DATASET_ID: 학습 데이터 세트의 ID입니다.
-
Split
객체를 제공하여 데이터 분할을 제어할 수 있습니다. 데이터 분할 제어에 대한 자세한 내용은 REST를 사용하여 데이터 분할 제어를 참조하세요. - PROJECT_NUMBER: 프로젝트의 프로젝트 번호
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "TRAININGPIPELINE_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_tabular_1.0.0.yaml", "trainingTaskInputs": { "targetColumn": "TARGET_COLUMN", "weightColumn": "WEIGHT_COLUMN", "predictionType": "classification", "trainBudgetMilliNodeHours": TRAINING_BUDGET, "optimizationObjective": "OPTIMIZATION_OBJECTIVE", "transformations": [ {"TRANSFORMATION_TYPE_1": {"column_name" : "COLUMN_NAME_1"} }, {"TRANSFORMATION_TYPE_2": {"column_name" : "COLUMN_NAME_2"} }, ... }, "modelToUpload": {"displayName": "MODEL_DISPLAY_NAME"}, "inputDataConfig": { "datasetId": "DATASET_ID", } }
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/4567", "displayName": "myModelName", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_tabular_1.0.0.yaml", "modelToUpload": { "displayName": "myModelName" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-08-18T01:22:57.479336Z", "updateTime": "2020-08-18T01:22:57.479336Z" }
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Node.js
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Node.js API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
예측
언어 또는 환경에 대한 탭을 선택합니다.
REST 및 명령줄
trainingPipelines.create 명령어를 사용하여 모델을 학습시킵니다.
모델을 학습시킵니다.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 리전입니다.
- PROJECT: 프로젝트 ID
- TRAINING_PIPELINE_DISPLAY_NAME: 이 작업에 대해 생성된 학습 파이프라인의 표시 이름입니다.
-
TRAINING_TASK_DEFINITION: 모델 학습 메서드
- AutoML: 다양한 사용 사례에 적합합니다.
gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_forecasting_1.0.0.yaml
- Seq2Seq+: 실험에 적합합니다. 이 알고리즘은 아키텍처가 더 간단하고 사용하는 검색 공간이 더 작으므로 AutoML보다 빠르게 수렴할 가능성이 높습니다. 실험 결과 Seq2Seq+는 짧은 시간 예산과 1GB 미만의 데이터 세트에서 잘 작동합니다.
gs://google-cloud-aiplatform/schema/trainingjob/definition/seq2seq_plus_time_series_forecasting_1.0.0.yaml
- AutoML: 다양한 사용 사례에 적합합니다.
- TARGET_COLUMN: 이 모델에서 예측할 열(값)입니다.
- TIME_COLUMN: 시간 열입니다. 자세히 알아보기
- TIME_SERIES_IDENTIFIER_COLUMN: 시계열 식별자 열입니다. 자세히 알아보기
- WEIGHT_COLUMN: (선택사항) 가중치 열입니다. 자세히 알아보기
- TRAINING_BUDGET: 모델이 학습시키려는 최대 시간(밀리 노드 시간, 1,000밀리 노드 시간은 1노드 시간과 동일).
-
GRANULARITY_UNIT: 학습 데이터, 예측 범위, 컨텍스트 범위의 세부사항에 사용할 단위입니다.
minute
,hour
,day
,week
,month
,year
일 수 있습니다. 휴일 효과 모델링을 사용하려면day
를 선택합니다. 자세히 알아보기 - GRANULARITY_QUANTITY: 학습 데이터에서 관찰 사이의 간격을 구성하는 세분화 단위 수입니다. 분을 제외한 모든 단위에 대해 하나여야 하며 1, 5, 10, 15 또는 30일 수 있습니다. 자세히 알아보기
- GROUP_COLUMNS: 계층 구조 수준의 그룹화를 식별하는 학습 입력 테이블의 열 이름입니다. 열은 `time_series_attribute_columns`여야 합니다. 자세히 알아보기
- GROUP_TOTAL_WEIGHT: 개별 손실을 기준으로 한 그룹 집계 손실의 가중치입니다. `0.0` 으로 설정하거나 설정하지 않으면 사용 중지됩니다. 그룹 열이 설정되지 않으면 모든 시계열이 동일한 그룹의 일부로 취급되며 모든 시계열에서 집계됩니다. 자세히 알아보기
- TEMPORAL_TOTAL_WEIGHT: 개별 손실을 기준으로 한 시간 집계 손실의 가중치입니다. `0.0` 으로 설정하거나 설정하지 않으면 사용 중지됩니다. 자세히 알아보기
- GROUP_TEMPORAL_TOTAL_WEIGHT: 개별 손실을 기준으로 한 총(그룹 x 시간) 집계 손실의 가중치입니다. `0.0` 으로 설정하거나 설정하지 않으면 사용 중지됩니다. 그룹 열이 설정되지 않으면 모든 시계열이 동일한 그룹의 일부로 취급되며 모든 시계열에서 집계됩니다. 자세히 알아보기
-
HOLIDAY_REGIONS: (선택사항) 모델링에 적용되는 휴일 효과를 기준으로 하는 하나 이상의 지리적 리전입니다. 학습 중에 Vertex AI는 시간 열의 날짜와 지정된 지리적 리전을 기준으로 모델 내에 휴일 카테고리 특성을 만듭니다. 사용 설정하려면 GRANULARITY_UNIT을
day
로 설정하고 HOLIDAY_REGIONS 필드에 하나 이상의 리전을 지정합니다. 기본적으로 휴일 효과 모델링은 사용 중지됩니다.허용되는 값은 다음과 같습니다.
GLOBAL
: 모든 전 세계 리전의 휴일을 감지합니다.
NA
: 북미의 휴일을 감지합니다.JAPAC
: 일본 및 아시아 태평양의 휴일을 감지합니다.EMEA
: 유럽, 중동, 아프리카의 휴일을 감지합니다.LAC
: 라틴 아메리카 및 카리브해의 휴일을 감지합니다.- ISO 3166-1 국가 코드: 개별 국가의 휴일을 감지합니다.
- FORECAST_HORIZON: 세분화 단위로 지정된 예측 범위의 크기입니다. 예측 범위는 모델이 결과를 예측해야 하는 기간입니다. 자세히 알아보기
- CONTEXT_WINDOW: 모델이 학습 시 포함하기 위해 뒤돌아봐야 하는 세분화 단위의 수입니다. 자세히 알아보기
- OPTIMIZATION_OBJECTIVE: 예측 유형에 기본 최적화 목표를 원하지 않는 경우에만 필요합니다. 자세히 알아보기
- TIME_SERIES_ATTRIBUTE_COL: 시계열 속성인 열의 이름입니다. 자세히 알아보기
- AVAILABLE_AT_FORECAST_COL: 예측 시 값이 알려진 공변 열의 이름입니다. 자세히 알아보기
- UNAVAILABLE_AT_FORECAST_COL: 예측 시 값을 알 수 없는 공변 열의 이름입니다. 자세히 알아보기
- TRANSFORMATION_TYPE: 모델을 학습시키는 데 사용되는 각 열에 변환 유형이 제공됩니다. 자세히 알아보기
- COLUMN_NAME: 지정된 변환 유형이 있는 열의 이름입니다. 모델을 학습시키는 데 사용되는 모든 열을 지정해야 합니다.
- MODEL_DISPLAY_NAME: 새로 학습된 모델의 표시 이름입니다.
- DATASET_ID: 학습 데이터 세트의 ID입니다.
-
Split
객체를 제공하여 데이터 분할을 제어할 수 있습니다. 데이터 분할 제어에 대한 자세한 내용은 REST를 사용하여 데이터 분할 제어를 참조하세요. -
windowConfig
객체를 제공하여 예측 구간을 구성할 수 있습니다. 자세한 내용은 REST를 사용하여 예측 구간 구성을 참조하세요. - PROJECT_NUMBER: 프로젝트의 프로젝트 번호
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "TRAINING_PIPELINE_DISPLAY_NAME", "trainingTaskDefinition": "TRAINING_TASK_DEFINITION", "trainingTaskInputs": { "targetColumn": "TARGET_COLUMN", "timeColumn": "TIME_COLUMN", "timeSeriesIdentifierColumn": "TIME_SERIES_IDENTIFIER_COLUMN", "weightColumn": "WEIGHT_COLUMN", "trainBudgetMilliNodeHours": TRAINING_BUDGET, "dataGranularity": {"unit": "GRANULARITY_UNIT", "quantity": GRANULARITY_QUANTITY}, "hierarchyConfig": {"groupColumns": GROUP_COLUMNS, "groupTotalWeight": GROUP_TOTAL_WEIGHT, "temporalTotalWeight": TEMPORAL_TOTAL_WEIGHT, "groupTemporalTotalWeight": GROUP_TEMPORAL_TOTAL_WEIGHT} "holidayRegions" : ["HOLIDAY_REGIONS_1", "HOLIDAY_REGIONS_2", ...] "forecast_horizon": FORECAST_HORIZON, "context_window": CONTEXT_WINDOW, "optimizationObjective": "OPTIMIZATION_OBJECTIVE", "time_series_attribute_columns": ["TIME_SERIES_ATTRIBUTE_COL_1", "TIME_SERIES_ATTRIBUTE_COL_2", ...] "available_at_forecast_columns": ["AVAILABLE_AT_FORECAST_COL_1", "AVAILABLE_AT_FORECAST_COL_2", ...] "unavailable_at_forecast_columns": ["UNAVAILABLE_AT_FORECAST_COL_1", "UNAVAILABLE_AT_FORECAST_COL_2", ...] "transformations": [ {"TRANSFORMATION_TYPE_1": {"column_name" : "COLUMN_NAME_1"} }, {"TRANSFORMATION_TYPE_2": {"column_name" : "COLUMN_NAME_2"} }, ... }, "modelToUpload": {"displayName": "MODEL_DISPLAY_NAME"}, "inputDataConfig": { "datasetId": "DATASET_ID", } }
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/trainingPipelines/TRAINING_PIPELINE_ID", "displayName": "myModelName", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_tabular_1.0.0.yaml", "modelToUpload": { "displayName": "myModelName" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-08-18T01:22:57.479336Z", "updateTime": "2020-08-18T01:22:57.479336Z" }
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
회귀
언어 또는 환경에 대한 탭을 선택합니다.
REST 및 명령줄
trainingPipelines.create 명령어를 사용하여 모델을 학습시킵니다.
모델을 학습시킵니다.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 리전입니다.
- PROJECT: 프로젝트 ID
- TRAININGPIPELINE_DISPLAY_NAME: 이 작업에 대해 생성된 학습 파이프라인의 표시 이름입니다.
- TARGET_COLUMN: 이 모델에서 예측할 열(값)입니다.
- WEIGHT_COLUMN: (선택사항) 가중치 열입니다. 자세히 알아보기
- TRAINING_BUDGET: 모델이 학습시키려는 최대 시간(밀리 노드 시간, 1,000밀리 노드 시간은 1노드 시간과 동일).
- OPTIMIZATION_OBJECTIVE: 예측 유형에 기본 최적화 목표를 원하지 않는 경우에만 필요합니다. 자세히 알아보기
- TRANSFORMATION_TYPE: 모델을 학습시키는 데 사용되는 각 열에 변환 유형이 제공됩니다. 자세히 알아보기
- COLUMN_NAME: 지정된 변환 유형이 있는 열의 이름입니다. 모델을 학습시키는 데 사용되는 모든 열을 지정해야 합니다.
- MODEL_DISPLAY_NAME: 새로 학습된 모델의 표시 이름입니다.
- DATASET_ID: 학습 데이터 세트의 ID입니다.
-
Split
객체를 제공하여 데이터 분할을 제어할 수 있습니다. 데이터 분할 제어에 대한 자세한 내용은 REST를 사용하여 데이터 분할 제어를 참조하세요. - PROJECT_NUMBER: 프로젝트의 프로젝트 번호
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "TRAININGPIPELINE_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_tabular_1.0.0.yaml", "trainingTaskInputs": { "targetColumn": "TARGET_COLUMN", "weightColumn": "WEIGHT_COLUMN", "predictionType": "regression", "trainBudgetMilliNodeHours": TRAINING_BUDGET, "optimizationObjective": "OPTIMIZATION_OBJECTIVE", "transformations": [ {"TRANSFORMATION_TYPE_1": {"column_name" : "COLUMN_NAME_1"} }, {"TRANSFORMATION_TYPE_2": {"column_name" : "COLUMN_NAME_2"} }, ... }, "modelToUpload": {"displayName": "MODEL_DISPLAY_NAME"}, "inputDataConfig": { "datasetId": "DATASET_ID", } }
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/4567", "displayName": "myModelName", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_tabular_1.0.0.yaml", "modelToUpload": { "displayName": "myModelName" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-08-18T01:22:57.479336Z", "updateTime": "2020-08-18T01:22:57.479336Z" }
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Node.js
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Node.js API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
텍스트
텍스트 데이터 유형 목표를 선택합니다.
분류
언어 또는 환경에 대한 탭을 선택합니다.
REST 및 명령줄
trainingPipelines.create 명령어를 사용하여 모델을 학습시킵니다.
TrainingPipeline
객체를 만들어 모델을 학습시킵니다.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 모델이 생성될 리전입니다(예:
us-central1
). - PROJECT: 프로젝트 ID
- MODEL_DISPLAY_NAME: 사용자 인터페이스에 표시되는 모델의 이름입니다.
- MULTI-LABEL: Vertex AI에서 멀티 라벨 모델을 학습하는지 여부를 나타내는 부울 값입니다. 기본값은
false
(단일 라벨 모델)입니다. - DATASET_ID: 데이터 세트의 ID입니다.
- PROJECT_NUMBER: 프로젝트의 프로젝트 번호
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "MODEL_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": MULTI-LABEL }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "inputDataConfig": { "datasetId": "DATASET_ID" } }
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/PIPELINE_ID", "displayName": "MODEL_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID" }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": MULTI-LABEL }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-04-18T01:22:57.479336Z", "updateTime": "2020-04-18T01:22:57.479336Z" }
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Node.js
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Node.js API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
항목 추출
언어 또는 환경에 대한 탭을 선택합니다.
REST 및 명령줄
trainingPipelines.create 명령어를 사용하여 모델을 학습시킵니다.
TrainingPipeline
객체를 만들어 모델을 학습시킵니다.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 모델이 생성될 리전입니다(예:
us-central1
). - PROJECT: 프로젝트 ID
- MODEL_DISPLAY_NAME: 사용자 인터페이스에 표시되는 모델의 이름입니다.
- DATASET_ID: 데이터 세트의 ID입니다.
- PROJECT_NUMBER: 프로젝트의 프로젝트 번호
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "MODEL_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_extraction_1.0.0.yaml", "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "inputDataConfig": { "datasetId": "DATASET_ID" } }
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/PIPELINE_ID", "displayName": "MODEL_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID" }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_extraction_1.0.0.yaml", "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-04-18T01:22:57.479336Z", "updateTime": "2020-04-18T01:22:57.479336Z" }
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Node.js
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Node.js API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
감정 분석
언어 또는 환경에 대한 탭을 선택합니다.
REST 및 명령줄
trainingPipelines.create 명령어를 사용하여 모델을 학습시킵니다.
TrainingPipeline
객체를 만들어 모델을 학습시킵니다.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 모델이 생성될 리전입니다(예:
us-central1
). - PROJECT: 프로젝트 ID
- MODEL_DISPLAY_NAME: 사용자 인터페이스에 표시되는 모델의 이름입니다.
- SENTIMENT_MAX: 학습 데이터 세트의 최대 감정 점수입니다.
- DATASET_ID: 데이터 세트의 ID입니다.
- PROJECT_NUMBER: 프로젝트의 프로젝트 번호
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "MODEL_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_sentiment_1.0.0.yaml", "trainingTaskInputs": { "sentimentMax": SENTIMENT_MAX }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "inputDataConfig": { "datasetId": "DATASET_ID" } }
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/PIPELINE_ID", "displayName": "MODEL_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID" }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_text_sentiment_1.0.0.yaml", "trainingTaskInputs": { "sentimentMax": SENTIMENT_MAX }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-04-18T01:22:57.479336Z", "updateTime": "2020-04-18T01:22:57.479336Z" }
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Node.js
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Node.js API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
동영상
아래에서 목표에 대한 탭을 선택합니다.
동작 인식
아래에서 언어 또는 환경에 대한 탭을 선택하세요.
REST 및 명령줄
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT: 프로젝트 ID
- LOCATION: 데이터 세트가 있고 모델이 생성된 리전입니다. 예를 들면
us-central1
입니다. - TRAINING_PIPELINE_DISPLAY_NAME: 필수. TrainingPipeline의 표시 이름입니다.
- DATASET_ID: 학습 데이터 세트의 ID입니다.
-
TRAINING_FRACTION, TEST_FRACTION:
fractionSplit
객체는 선택사항이며 데이터 분할을 제어하기 위해 사용됩니다. 데이터 분할 제어에 대한 자세한 내용은 AutoML 모델의 데이터 분할 정보를 참조하세요. 예를 들면 다음과 같습니다.{"trainingFraction": "0.8","validationFraction": "0","testFraction": "0.2"}
- MODEL_DISPLAY_NAME: 학습된 모델의 표시 이름입니다.
- MODEL_DESCRIPTION: 모델에 대한 설명입니다.
- MODEL_LABELS: 모델을 구성할 모든 키-값 쌍 세트입니다. 예를 들면 다음과 같습니다.
- "env": "prod"
- "tier": "backend"
- EDGE_MODEL_TYPE:
MOBILE_VERSATILE_1
: 범용 용도
- PROJECT_NUMBER: 프로젝트의 프로젝트 번호
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "TRAINING_PIPELINE_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "TRAINING_FRACTION", "validationFraction": "0", "testFraction": "TEST_FRACTION" } }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["EDGE_MODEL_TYPE"], } }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
응답에는 사양 및 TRAININGPIPELINE_ID에 대한 정보가 포함됩니다.
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
분류
아래에서 언어 또는 환경에 대한 탭을 선택하세요.
REST 및 명령줄
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 데이터 세트가 있고 모델이 저장되는 리전입니다. 예를 들면
us-central1
입니다. - PROJECT: 프로젝트 ID
- MODEL_DISPLAY_NAME: 새로 학습된 모델의 표시 이름입니다.
- DATASET_ID: 학습 데이터 세트의 ID입니다.
-
filterSplit
객체는 선택사항이며 데이터 분할을 제어하기 위해 사용됩니다. 데이터 분할 제어에 대한 자세한 내용은 REST를 사용하여 데이터 분할 제어를 참조하세요. - PROJECT_NUMBER: 프로젝트의 프로젝트 번호
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "MODE_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_classification_1.0.0.yaml", "trainingTaskInputs": {}, "modelToUpload": {"displayName": "MODE_DISPLAY_NAME"}, "inputDataConfig": { "datasetId": "DATASET_ID", "filterSplit": { "trainingFilter": "labels.ml_use = training", "validationFilter": "labels.ml_use = -", "testFilter": "labels.ml_use = test" } } }
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/2307109646608891904", "displayName": "myModelName", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_classification_1.0.0.yaml", "modelToUpload": { "displayName": "myModelName" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-04-18T01:22:57.479336Z", "updateTime": "2020-04-18T01:22:57.479336Z" }
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Node.js
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Node.js API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
객체 추적
아래에서 언어 또는 환경에 대한 탭을 선택하세요.
REST 및 명령줄
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 데이터 세트가 있고 모델이 저장되는 리전입니다. 예를 들면
us-central1
입니다. - PROJECT: 프로젝트 ID
- MODEL_DISPLAY_NAME: 새로 학습된 모델의 표시 이름입니다.
- DATASET_ID: 학습 데이터 세트의 ID입니다.
-
filterSplit
객체는 선택사항이며 데이터 분할을 제어하기 위해 사용됩니다. 데이터 분할 제어에 대한 자세한 내용은 REST를 사용하여 데이터 분할 제어를 참조하세요. - PROJECT_NUMBER: 프로젝트의 프로젝트 번호
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
JSON 요청 본문:
{ "displayName": "MODE_DISPLAY_NAME", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml", "trainingTaskInputs": {}, "modelToUpload": {"displayName": "MODE_DISPLAY_NAME"}, "inputDataConfig": { "datasetId": "DATASET_ID", "filterSplit": { "trainingFilter": "labels.ml_use = training", "validationFilter": "labels.ml_use = -", "testFilter": "labels.ml_use = test" } } }
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/2307109646608891904", "displayName": "myModelName", "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml", "modelToUpload": { "displayName": "myModelName" }, "state": "PIPELINE_STATE_PENDING", "createTime": "2020-04-18T01:22:57.479336Z", "updateTime": "2020-04-18T01:22:57.479336Z" }
Java
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Java API 참조 문서를 참조하세요.
Node.js
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Node.js API 참조 문서를 참조하세요.
Python
Vertex AI용 클라이언트 라이브러리를 설치하고 사용하는 방법은 Vertex AI 클라이언트 라이브러리를 참조하세요. 자세한 내용은 Vertex AI Python API 참조 문서를 참조하세요.
REST를 사용하여 데이터 분할 제어
학습 데이터가 학습, 검증, 테스트 세트 간에 분할되는 방식을 제어할 수 있습니다. Vertex AI API를 사용할 경우 Split
객체를 사용하여 데이터 분할을 결정합니다. Split
객체는 InputConfig
객체에 여러 객체 유형 중 하나로 포함되어 있으며, 각 객체는 학습 데이터를 분할하는 다른 방법을 제공합니다. 하나의 방법만 선택할 수 있습니다.
데이터를 분할하는 데 사용할 수 있는 방법은 데이터 유형에 따라 다릅니다.
이미지, 텍스트, 동영상
-
FractionSplit
:- TRAINING_FRACTION: 학습 세트에 사용할 학습 데이터의 비율입니다.
- VALIDATION_FRACTION: 검증 세트에 사용할 학습 데이터의 비율입니다. 동영상 데이터에는 사용되지 않습니다.
- TEST_FRACTION: 테스트 세트에 사용할 학습 데이터의 비율입니다.
비율 중 하나라도 지정된 경우 모두 지정해야 합니다. 비율의 합은 1.0이 되어야 합니다. 비율에 대한 기본값은 데이터 유형에 따라 다릅니다. 자세히 알아보기
"fractionSplit": { "trainingFraction": TRAINING_FRACTION, "validationFraction": VALIDATION_FRACTION, "testFraction": TEST_FRACTION },
-
FilterSplit
:- TRAINING_FILTER: 이 필터와 일치하는 데이터 항목은 학습 세트에 사용됩니다.
- VALIDATION_FILTER: 이 필터와 일치하는 데이터 항목은 검증 세트에 사용됩니다. 동영상 데이터는 '-'여야 합니다.
- TEST_FILTER: 이 필터와 일치하는 데이터 항목은 테스트 세트에 사용됩니다.
이 필터는
ml_use
라벨 또는 데이터에 적용하는 모든 라벨과 함께 사용할 수 있습니다. ml-use 라벨과 기타 라벨을 사용하여 데이터를 필터링하는 방법을 자세히 알아보세요.다음 예시에서는 검증 세트가 포함된
ml_use
라벨과 함께filterSplit
객체를 사용하는 방법을 보여줍니다."filterSplit": { "trainingFilter": "labels.aiplatform.googleapis.com/ml_use=training", "validationFilter": "labels.aiplatform.googleapis.com/ml_use=validation", "testFilter": "labels.aiplatform.googleapis.com/ml_use=test" }
테이블 형식
-
FractionSplit
:- TRAINING_FRACTION: 학습 세트에 사용할 학습 데이터의 비율입니다.
- VALIDATION_FRACTION: 검증 세트에 사용할 학습 데이터의 비율입니다. 동영상 데이터에는 사용되지 않습니다.
- TEST_FRACTION: 테스트 세트에 사용할 학습 데이터의 비율입니다.
비율 중 하나라도 지정된 경우 모두 지정해야 합니다. 비율의 합은 1.0이 되어야 합니다. 비율에 대한 기본값은 데이터 유형에 따라 다릅니다. 자세히 알아보기
"fractionSplit": { "trainingFraction": TRAINING_FRACTION, "validationFraction": VALIDATION_FRACTION, "testFraction": TEST_FRACTION },
fractionSplit
객체는 예측 모델에서 지원되지 않습니다. -
PredefinedSplit
:-
DATA_SPLIT_COLUMN: 데이터 분할 값(
TRAIN
,VALIDATION
,TEST
)이 포함된 열입니다.
분할 열을 사용하여 각 행에 대한 데이터 분할을 수동으로 지정합니다. 자세히 알아보기
"predefinedSplit": { "key": DATA_SPLIT_COLUMN },
-
DATA_SPLIT_COLUMN: 데이터 분할 값(
-
TimestampSplit
:- TRAINING_FRACTION: 학습 세트에 사용할 학습 데이터의 비율입니다. 기본값은 0.80입니다.
- VALIDATION_FRACTION: 검증 세트에 사용할 학습 데이터의 비율입니다. 기본값은 0.10입니다.
- TEST_FRACTION: 테스트 세트에 사용할 학습 데이터의 비율입니다. 기본값은 0.10입니다.
- TIME_COLUMN: 타임스탬프가 포함된 열입니다.
비율 중 하나라도 지정된 경우 모두 지정해야 합니다. 비율의 합은 1.0이 되어야 합니다. 자세히 알아보기
TimestampSplit
객체는 예측 모델에서 지원되지 않습니다."timestampSplit": { "trainingFraction": TRAINING_FRACTION, "validationFraction": VALIDATION_FRACTION, "testFraction": TEST_FRACTION "key": TIME_COLUMN }