머신러닝 파이프라인 실행

AI Platform Pipelines는 머신러닝(ML) 워크플로를 파이프라인으로 자동화하기 위해 사용할 수 있는 플랫폼을 제공합니다. ML 프로세스를 파이프라인으로 실행하면 다음 작업을 수행할 수 있습니다.

  • 필요할 때마다 임시로 파이프라인을 실행할 수 있습니다.
  • 정기적인 모델 재학습을 위해 반복 실행 일정을 예약할 수 있습니다.
  • 초매개변수, 학습 단계 수, 반복 등을 달리해서 파이프라인 실행을 실험하고, 실험 결과를 비교할 수 있습니다.

이 가이드에서는 파이프라인을 실행하고 반복 실행 일정을 예약하는 방법을 설명합니다. 이 가이드에서는 또한 Kubeflow Pipelines 사용자 인터페이스에 대해 자세히 알아보기 위해 사용할 수 있는 리소스를 제공합니다.

시작하기 전에

이 가이드에서는 Kubeflow Pipelines 사용자 인터페이스를 사용하여 파이프라인을 실행하는 방법을 설명합니다. 파이프라인을 실행하려면 먼저 AI Platform 파이프라인 클러스터를 설정하고 AI Platform 파이프라인 클러스터에 액세스할 수 있는 권한이 충분한지 확인해야 합니다.

ML 파이프라인 실행

다음 안내에 따라 AI Platform 파이프라인 클러스터에서 ML 파이프라인을 실행합니다.

  1. Google Cloud Console에서 AI Platform 파이프라인을 엽니다.

    AI Platform 파이프라인으로 이동

  2. Kubeflow Pipelines 클러스터에 대해 파이프라인 대시보드 열기를 클릭합니다. Kubeflow Pipelines 사용자 인터페이스가 새 탭으로 열립니다.

  3. 왼쪽 탐색 패널에서 파이프라인을 클릭합니다.

  4. 실행하려는 파이프라인 이름을 클릭합니다. 아직 파이프라인을 로드하지 않았으면 예시 파이프라인 이름([Demo] TFX - Taxi Tip Prediction Model Trainer)을 클릭합니다. 파이프라인 단계가 표시된 그래프가 열립니다.

  5. 파이프라인을 실행하거나 일정을 예약하려면 실행 만들기를 클릭합니다. 실행 세부정보를 입력할 수 있는 양식이 열립니다.

  6. 파이프라인을 실행하려면 먼저 실행 세부정보, 실행 유형, 실행 매개변수를 지정해야 합니다.

    • 실행 세부정보 섹션에서 다음을 지정합니다.

      1. 파이프라인: 실행하려는 파이프라인을 선택합니다.
      2. 파이프라인 버전: 실행하려는 파이프라인 버전을 선택합니다.
      3. 실행 이름: 이 실행의 고유 이름을 입력합니다. 이름을 사용하여 나중에 이 실행을 찾을 수 있습니다.
      4. 설명: (선택사항) 이 실행에 대한 추가 정보를 제공하기 위한 설명을 입력합니다.
      5. 실험: (선택사항) 관련 그룹을 하나로 그룹화하려면 실험을 선택합니다.
    • 실행 유형 섹션에서 이 실행을 수행할 빈도를 표시합니다.

      1. 실행이 일회성 또는 반복되는 실행인지 선택합니다.
      2. 반복 실행인 경우 실행 트리거를 지정합니다.

        1. 트리거 유형: 이 실행이 주기적 기준에 따라 또는 크론 일정에 따라 트리거되는 경우에 선택합니다.
        2. 최대 동시 실행: 한 번에 활성화될 수 있는 최대 실행 수를 입력합니다.
        3. 시작일 지정: 이 트리거의 실행 만들기 시작 시간을 지정하려면 시작일 지정을 선택하고 시작일시작 시간을 입력합니다.
        4. 종료일 지정: 이 트리거의 실행 만들기 중지 시간을 지정하려면 종료일 지정을 선택하고 종료일종료 시간을 입력합니다.
        5. 실행 간격: 새 실행을 트리거할 빈도를 선택합니다. 이 실행이 크론 일정에 따라 트리거되는 경우 크론 표현식 수정 허용을 선택하여 크론 표현식을 직접 입력합니다.
    • 실행 매개변수에서 이 실행의 파이프라인 매개변수를 맞춤설정합니다. 매개변수를 사용하여 학습 데이터 로드 또는 아티팩트 저장을 위한 경로, 초매개변수, 학습 반복 횟수와 같은 값을 설정할 수 있습니다. 파이프라인 매개변수는 파이프라인이 빌드될 때 정의됩니다.

      [Demo] TFX - Taxi Tip Prediction Model Trainer 파이프라인을 실행하는 경우 다음을 지정합니다.

      1. pipeline-root: pipeline-root 매개변수는 파이프라인 출력이 저장되는 위치를 지정합니다. 이 파이프라인은 실행 아티팩트를 AI Platform Pipelines 기본 Cloud Storage 버킷에 저장합니다.

        이 값을 재정의해서 클러스터가 액세스할 수 있는 다른 Cloud Storage 버킷으로 경로를 지정할 수 있습니다. Cloud Storage 버킷 만들기에 대해 자세히 알아보세요.

      2. data-root: data-root 매개변수는 파이프라인의 학습 데이터 경로를 지정합니다. 기본값을 사용합니다.

      3. module-file: module-file 매개변수는 이 파이프라인에 사용되는 모듈의 소스 코드 경로를 지정합니다. 기본값을 사용합니다.

        Cloud Storage 버킷에서 코드를 로드하면 구성요소의 컨테이너 이미지를 다시 빌드하지 않아도 구성요소 동작을 빠르게 변경할 수 있습니다.

  7. 시작을 클릭합니다. 파이프라인 대시보드에 파이프라인 실행 목록이 표시됩니다.

  8. 파이프라인 실행 목록에서 실행 이름을 클릭합니다. 실행 그래프가 표시됩니다. 실행이 진행 중이면 각 단계가 수행될 때 그래프가 변경됩니다.

  9. 실행의 입력, 출력, 로그 등을 내보내려면 파이프라인 단계를 클릭합니다.

Kubeflow Pipelines 사용자 인터페이스 이해

다음 리소스를 통해 Kubeflow Pipelines 사용자 인터페이스에 대해 자세히 알아보세요.

다음 단계