동영상 객체 추적 모델 학습

이 페이지에서는 Google Cloud 콘솔 또는 Vertex AI API를 사용하여 동영상 데이터 세트에서 AutoML Object Tracking 모델을 학습시키는 방법을 보여줍니다.

AutoML 모델 학습

Google Cloud 콘솔

  1. Google Cloud 콘솔의 Vertex AI 섹션에서 데이터 세트 페이지로 이동합니다.

    데이터 세트 페이지로 이동

  2. 모델을 학습시키는 데 사용할 데이터 세트의 이름을 클릭하여 세부정보 페이지를 엽니다.

  3. 새 모델 학습을 클릭합니다.

  4. 새 모델의 표시 이름을 입력합니다.

  5. 학습 데이터 분할 방법을 수동으로 설정하려면 고급 옵션을 펼치고 데이터 분할 옵션을 선택합니다. 자세히 알아보기

  6. 계속을 클릭합니다.

  7. 모델 학습 방법을 선택합니다.

    • AutoML은 광범위한 사용 사례에 적합합니다.
    • Seq2seq+는 실험에 적합합니다. 이 알고리즘은 아키텍처가 더 간단하고 사용하는 검색 공간이 더 작으므로 AutoML보다 빠르게 수렴할 가능성이 높습니다. 실험 결과 Seq2Seq+는 짧은 시간 예산과 1GB 미만의 데이터 세트에서 잘 작동합니다.
    계속을 클릭합니다.

  8. 학습 시작을 클릭합니다.

    데이터의 규모 및 복잡성과 학습 예산(지정한 경우)에 따라 모델 학습에 많은 시간이 소요될 수 있습니다. 탭을 닫았다가 나중에 다시 돌아와도 됩니다. 모델 학습이 완료되면 이메일이 전송됩니다.

    학습이 시작되고 몇 분 후에 모델의 속성 정보에서 학습 노드 시간 추정을 확인할 수 있습니다. 학습을 취소하면 현재 제품에 요금이 부과되지 않습니다.

API

아래에서 언어 또는 환경에 대한 탭을 선택하세요.

REST

요청 데이터를 사용하기 전에 다음을 바꿉니다.

  • LOCATION: 데이터 세트가 있고 모델이 저장되는 리전입니다. 예를 들면 us-central1입니다.
  • PROJECT: 프로젝트 ID
  • MODEL_DISPLAY_NAME: 새로 학습된 모델의 표시 이름입니다.
  • DATASET_ID: 학습 데이터 세트의 ID입니다.
  • filterSplit 객체는 선택사항이며 데이터 분할을 제어하기 위해 사용됩니다. 데이터 분할 제어에 대한 자세한 내용은 REST를 사용하여 데이터 분할 제어를 참조하세요.
  • PROJECT_NUMBER: 프로젝트의 자동으로 생성된 프로젝트 번호

HTTP 메서드 및 URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines

JSON 요청 본문:

{
    "displayName": "MODE_DISPLAY_NAME",
    "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml",
    "trainingTaskInputs": {},
    "modelToUpload": {"displayName": "MODE_DISPLAY_NAME"},
    "inputDataConfig": {
      "datasetId": "DATASET_ID",
      "filterSplit": {
        "trainingFilter": "labels.ml_use = training",
        "validationFilter": "labels.ml_use = -",
        "testFilter": "labels.ml_use = test"
      }
    }
}

요청을 보내려면 다음 옵션 중 하나를 펼칩니다.

다음과 비슷한 JSON 응답이 표시됩니다.

{
  "name": "projects/PROJECT_NUMBER/locations/us-central1/trainingPipelines/2307109646608891904",
  "displayName": "myModelName",
  "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml",
  "modelToUpload": {
    "displayName": "myModelName"
  },
  "state": "PIPELINE_STATE_PENDING",
  "createTime": "2020-04-18T01:22:57.479336Z",
  "updateTime": "2020-04-18T01:22:57.479336Z"
}

Java

이 샘플을 사용해 보기 전에 Vertex AI 빠른 시작: 클라이언트 라이브러리 사용Java 설정 안내를 따르세요. 자세한 내용은 Vertex AI Java API 참고 문서를 참조하세요.

Vertex AI에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.

import com.google.cloud.aiplatform.util.ValueConverter;
import com.google.cloud.aiplatform.v1.FilterSplit;
import com.google.cloud.aiplatform.v1.FractionSplit;
import com.google.cloud.aiplatform.v1.InputDataConfig;
import com.google.cloud.aiplatform.v1.LocationName;
import com.google.cloud.aiplatform.v1.Model;
import com.google.cloud.aiplatform.v1.PipelineServiceClient;
import com.google.cloud.aiplatform.v1.PipelineServiceSettings;
import com.google.cloud.aiplatform.v1.PredefinedSplit;
import com.google.cloud.aiplatform.v1.TimestampSplit;
import com.google.cloud.aiplatform.v1.TrainingPipeline;
import com.google.cloud.aiplatform.v1.schema.trainingjob.definition.AutoMlVideoObjectTrackingInputs;
import com.google.cloud.aiplatform.v1.schema.trainingjob.definition.AutoMlVideoObjectTrackingInputs.ModelType;
import com.google.rpc.Status;
import java.io.IOException;

public class CreateTrainingPipelineVideoObjectTrackingSample {

  public static void main(String[] args) throws IOException {
    String trainingPipelineVideoObjectTracking =
        YOUR_TRAINING_PIPELINE"_VIDEO_OBJECT_TRACKING_DISPLAY_NAME;
    String datasetId" = YOUR_DATASET_ID;
    St"ring modelDispl"ayName = YOUR_MODEL_DISPLAY_NAME;"
    String project = Y"OUR_PROJECT_ID;
    crea"teTrainingPipel"ineVideoObjectTracking(
        trainingPipelineVideoObjectTracking, datasetId, modelDisplayName, project);
  }

  static void createTrainingPipelineVideoObjectTracking(
      String trainingPipelineVideoObjectTracking,
      String datasetId,
      String modelDisplayName,
      String project)
      throws IOException {
    PipelineServiceSettings pipelineServiceSettings =
        PipelineServiceSettings.newBuilder()
            .setEndpoint(us-central1-aiplatform.googleapis.com:"443)
            .build();

    // Initia"lize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the close method on the client to safely clean "up an"y remaining background resources.
    try (PipelineServiceClient pipelineServiceClient =
        PipelineServiceClient.create(pipelineServiceSettings)) {
      String location = us-central1;
      String trainingTaskDefiniti"on =
      "    gs://google-cloud-aiplatform/schema/trainingjob/"definition/
              + automl_video_object_tracking_1."0.0.yaml;
      Lo"cationName locationName = LocationName."of(project, location);

      AutoMlVideoObjectTrackingInputs trainingTaskInputs =
          AutoMlVideoObjectTrackingInputs.newBuilder().setModelType(ModelType.CLOUD).build();

      InputDataConfig inputDataConfig =
          InputDataConfig.newBuilder().setDatasetId(datasetId).build();
      Model modelToUpload = Model.newBuilder().setDisplayName(modelDisplayName).build();
      TrainingPipeline trainingPipeline =
          TrainingPipeline.newBuilder()
              .setDisplayName(trainingPipelineVideoObjectTracking)
              .setTrainingTaskDefinition(trainingTaskDefinition)
              .setTrainingTaskInputs(ValueConverter.toValue(trainingTaskInputs))
              .setInputDataConfig(inputDataConfig)
              .setModelToUpload(modelToUpload)
              .build();

      TrainingPipeline createTrainingPipelineResponse =
          pipelineServiceClient.createTrainingPipeline(locationName, trainingPipeline);

      System.out.println(Create Training Pipeline Video Object Tracking Response);
      System".out.format(Name: %s\n, createTrainingPipelineResponse."getName());
      System.out".format(Di"splay Name: %s\n, createTrainingPipelineResponse.getDisplayName());

 "     System.out.fo"rmat(
          Training Task Definition %s\n,
          createTrainingPipelineResponse.get"TrainingTaskDefinition());
  "    System.out.format(
          Training Task Inputs: %s\n,
          createTrainingPipelineResponse.getTraini"ngTaskInputs().toString())";
      System.out.format(
          Training Task Metadata: %s\n,
          createTrainingPipelineResponse.getTrainin"gTaskMetadata().toString());"

      System.out.format(State: %s\n, createTrainingPipelineResponse.getState().toString());
      System.out".format(
  "        Create Time: %s\n, createTrainingPipelineResponse.getCreateTime().toString());
      S"ystem.out.format("StartTime %s\n, createTrainingPipelineResponse.getStartTime().toString());
      System".out.format(En"d Time: %s\n, createTrainingPipelineResponse.getEndTime().toString());
      System.ou"t.format(
    "      Update Time: %s\n, createTrainingPipelineResponse.getUpdateTime().toString());
      Syste"m.out.format(Labe"ls: %s\n, createTrainingPipelineResponse.getLabelsMap().toString());

      InputDataCo"nfig inputDa"taConfigResponse = createTrainingPipelineResponse.getInputDataConfig();
      System.out.println(Input Data config);
      System.out.format(Dataset Id: %s\n, inputDataConfigResponse.getDatas"etId());
      Sy"stem.out.format(Annotations "Filter: %s\n, in"putDataConfigResponse.getAnnotationsFilter());

      FractionSplit "fractionSplit = inputDat"aConfigResponse.getFractionSplit();
      System.out.println(Fraction split);
      System.out.format(Training Fraction: %s\n, fractionSplit.getTrainingFraction"());
      Sys"tem.out.format(Validation Fr"action: %s\n, fractionS"plit.getValidationFraction());
      System.out.format(Test Fract"ion: %s\n, fractionSplit."getTestFraction());

      FilterSplit filterSplit = inputDataConfi"gResponse.getFilter"Split();
      System.out.println(Filter Split);
      System.out.format(Training Filter: %s\n, filterSplit.getTrainingFilter());
      Sys"tem.out.form"at(Validation Filter: %s\n, "filterSplit.getValida"tionFilter());
      System.out.format(Test Filter: %s\n, fil"terSplit.getTestFilter("));

      PredefinedSplit predefinedSplit = inputDataConfigRes"ponse.getPredefin"edSplit();
      System.out.println(Predefined Split);
      System.out.format(Key: %s\n, predefinedSplit.getKey());

      TimestampSplit timestam"pSplit = inputDa"taConfigResponse.getTimestam"pSplit();"
      System.out.println(Timestamp Split);
      System.out.format(Training Fraction: %s\n, timestampSplit.getTrainingFraction());
      Sys"tem.out.format("Validation Fraction: %s\n, t"imestampSplit.getValida"tionFraction());
      System.out.format(Test Fraction: %s\n, time"stampSplit.getTestFractio"n());
      System.out.format(Key: %s\n, timestampSplit.getKey());

"      Model modelRe"sponse = createTrainingPipelineResponse.getModelToUpload();
  "    Syste"m.out.println(Model To Upload);
      System.out.format(Name: %s\n, modelResponse.getName());
      System.out.format(Display Name: %s\n", modelResponse".getDisplayName());
      Sy"stem.out.f"ormat(Description: %s\n, modelResponse.getDescription"());
      System."out.format(Metadata Schema Uri: %s\n, modelResponse.getMetad"ataSchemaUri());
"      System.out.format(Metadata: %s\n, modelResponse.getMet"adata());

      System.o"ut.format(Training Pipeline: %s\n, modelResponse.getTrainingPipeli"ne());
      S"ystem.out.format(Artifact Uri: %s\n, modelResponse.getArtif"actUri());

      Syste"m.out.format(
          Supported Deployment Resources Types: %s\"n,
          model"Response.getSupportedDeploymentResourcesTypesList().toString());
      Sys"tem.out.format(
          Supported Input "Storage Formats: %s\n,
          modelResponse.getSupportedInputStorageFormatsList().toString());
      System.out.forma"t(
          Supported Output Storage" Formats: %s\n,
          modelResponse.getSupportedOutputStorageFormatsList().toString());

      System.out.forma"t(Create Time: %s\n, modelResponse.get"CreateTime());
      System.out.format(Update Time: %s\n, modelResponse.getUpdateTime());
      System.out".format(Labels: %"s\n, modelResponse.getLabelsMap());

      Status status = "createTrainingPip"elineResponse.getError();
      System.out.println(Error);
"      System".out.format(Code: %s\n, status.getCode());
      System.out.format(Message: %s\n, status.getMessage());
    }
  }
}""""""

Node.js

이 샘플을 사용해 보기 전에 Vertex AI 빠른 시작: 클라이언트 라이브러리 사용Node.js 설정 안내를 따르세요. 자세한 내용은 Vertex AI Node.js API 참고 문서를 참조하세요.

Vertex AI에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.

/**
 * TODO(developer): Uncomment these variables before running the sample.\
 * (Not necessary if passing values as arguments)
 */

// const datasetId = 'YOUR_DATASET_ID';
// const modelDisplayName = 'YOUR_MODEL_DISPLAY_NAME';
// const trainingPipelineDisplayName = 'YOUR_TRAINING_PIPELINE_DISPLAY_NAME';
// const project = 'YOUR_PROJECT_ID';
// const location = 'YOUR_PROJECT_LOCATION';
const aiplatform = require('@google-cloud/aiplatform');
const {definition} =
  aiplatform.protos.google.cloud.aiplatform.v1.schema.trainingjob;
const ModelType = definition.AutoMlVideoObjectTrackingInputs.ModelType;

// Imports the Google Cloud Pipeline Service Client library
const {PipelineServiceClient} = aiplatform.v1;

// Specifies the location of the api endpoint
const clientOptions = {
  apiEndpoint: 'us-central1-aiplatform.googleapis.com',
};

// Instantiates a client
const pipelineServiceClient = new PipelineServiceClient(clientOptions);

async function createTrainingPipelineVideoObjectTracking() {
  // Configure the parent resource
  const parent = `projects/${project}/locations/${location}`;

  const trainingTaskInputsObj =
    new definition.AutoMlVideoObjectTrackingInputs({
      modelType: ModelType.CLOUD,
    });
  const trainingTaskInputs = trainingTaskInputsObj.toValue();

  const modelToUpload = {displayName: modelDisplayName};
  const inputDataConfig = {datasetId: datasetId};
  const trainingPipeline = {
    displayName: trainingPipelineDisplayName,
    trainingTaskDefinition:
      'gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml',
    trainingTaskInputs,
    inputDataConfig,
    modelToUpload,
  };
  const request = {
    parent,
    trainingPipeline,
  };

  // Create training pipeline request
  const [response] =
    await pipelineServiceClient.createTrainingPipeline(request);

  console.log('Create training pipeline video object tracking response');
  console.log(`Name : ${response.name}`);
  console.log('Raw response:');
  console.log(JSON.stringify(response, null, 2));
}
createTrainingPipelineVideoObjectTracking();

Python

Vertex AI SDK for Python을 설치하거나 업데이트하는 방법은 Vertex AI SDK for Python 설치를 참조하세요. 자세한 내용은 Python API 참고 문서를 확인하세요.

from google.cloud import aiplatform
from google.cloud.aiplatform.gapic.schema import trainingjob


def create_training_pipeline_video_object_tracking_sample(
    project: str,
    display_name: str,
    dataset_id: str,
    model_display_name: str,
    location: str = "us-central1",
    api_endpoint: str = "us-central1-aiplatform.googleapis.com",
):
    # The AI Platform services require regional API endpoints.
    client_options = {"api_endpoint": api_endpoint}
    # Initialize client that will be used to create and send requests.
    # This client only needs to be created once, and can be reused for multiple requests.
    client = aiplatform.gapic.PipelineServiceClient(client_options=client_options)
    training_task_inputs = trainingjob.definition.AutoMlVideoObjectTrackingInputs(
        model_type="CLOUD",
    ).to_value()

    training_pipeline = {
        "display_name": display_name,
        "training_task_definition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml",
        "training_task_inputs": training_task_inputs,
        "input_data_config": {"dataset_id": dataset_id},
        "model_to_upload": {"display_name": model_display_name},
    }
    parent = f"projects/{project}/locations/{location}"
    response = client.create_training_pipeline(
        parent=parent, training_pipeline=training_pipeline
    )
    print("response:", response)

REST를 사용하여 데이터 분할 제어

학습 데이터가 학습, 검증, 테스트 세트 간에 분할되는 방식을 제어할 수 있습니다. Vertex AI API를 사용할 경우 Split 객체를 사용하여 데이터 분할을 결정합니다. Split 객체는 InputConfig 객체에 여러 객체 유형 중 하나로 포함되어 있으며, 각 객체는 학습 데이터를 분할하는 다른 방법을 제공합니다. 하나의 방법만 선택할 수 있습니다.

  • FractionSplit:
    • TRAINING_FRACTION: 학습 세트에 사용할 학습 데이터의 비율입니다.
    • VALIDATION_FRACTION: 검증 세트에 사용할 학습 데이터의 비율입니다. 동영상 데이터에는 사용되지 않습니다.
    • TEST_FRACTION: 테스트 세트에 사용할 학습 데이터의 비율입니다.

    비율 중 하나라도 지정된 경우 모두 지정해야 합니다. 비율의 합은 1.0이 되어야 합니다. 비율에 대한 기본값은 데이터 유형에 따라 다릅니다. 자세히 알아보기

    "fractionSplit": {
      "trainingFraction": TRAINING_FRACTION,
      "validationFraction": VALIDATION_FRACTION,
      "testFraction": TEST_FRACTION
    },
    
  • FilterSplit:
    • TRAINING_FILTER: 이 필터와 일치하는 데이터 항목은 학습 세트에 사용됩니다.
    • VALIDATION_FILTER: 이 필터와 일치하는 데이터 항목은 검증 세트에 사용됩니다. 동영상 데이터는 '-'여야 합니다.
    • TEST_FILTER: 이 필터와 일치하는 데이터 항목은 테스트 세트에 사용됩니다.

    이 필터는 ml_use 라벨 또는 데이터에 적용하는 모든 라벨과 함께 사용할 수 있습니다. ml-use 라벨기타 라벨을 사용하여 데이터를 필터링하는 방법을 자세히 알아보세요.

    다음 예시에서는 검증 세트가 포함된 ml_use 라벨과 함께 filterSplit 객체를 사용하는 방법을 보여줍니다.

    "filterSplit": {
    "trainingFilter": "labels.aiplatform.googleapis.com/ml_use=training",
    "validationFilter": "labels.aiplatform.googleapis.com/ml_use=validation",
    "testFilter": "labels.aiplatform.googleapis.com/ml_use=test"
    }