이 페이지에서는 모델 평가 측정항목을 사용하여 AutoML 예측 모델을 평가하는 방법을 보여줍니다. 이러한 측정항목은 테스트 세트에 대한 모델의 성능을 정량적으로 측정합니다. 이러한 측정항목을 해석하고 사용하는 방법은 비즈니스 니즈와 모델이 해결하도록 학습한 문제에 따라 달라집니다. 예를 들어 거짓음성보다 거짓양성의 내결함성이 더 낮을 수도 있고 그 반대일 수도 있습니다. 이러한 유형의 질문은 집중해야 할 측정항목에 영향을 줍니다.
시작하기 전에
모델을 평가하려면 먼저 모델을 학습시키고 학습이 완료될 때까지 기다려야 합니다.
콘솔 또는 API를 사용하여 학습 작업의 상태를 확인하세요.
Google Cloud 콘솔
Google Cloud 콘솔의 Vertex AI 섹션에서 학습 페이지로 이동합니다.
학습 작업의 상태가 '학습'이면 학습 작업이 완료될 때까지 계속 기다려야 합니다. 학습 작업 상태가 '완료됨'이면 모델 평가를 시작할 수 있습니다.
API
언어 또는 환경에 대한 탭을 선택합니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 모델이 저장된 리전
- PROJECT: 프로젝트 ID
- TRAINING_PIPELINE_ID: 학습 파이프라인의 ID
HTTP 메서드 및 URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines/TRAINING_PIPELINE_ID
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
다음 명령어를 실행합니다.
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines/TRAINING_PIPELINE_ID"
PowerShell
다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines/TRAINING_PIPELINE_ID" | Select-Object -Expand Content
다음과 비슷한 JSON 응답이 표시됩니다.
평가 측정항목 가져오기
모델의 평가 측정항목 집계 집합을 가져올 수 있습니다. 다음 콘텐츠는 Google Cloud 콘솔 또는 API를 사용하여 이러한 측정항목을 가져오는 방법을 설명합니다.
Google Cloud 콘솔
Google Cloud 콘솔의 Vertex AI 섹션에서 모델 페이지로 이동합니다.
리전 드롭다운에서 모델이 있는 리전을 선택합니다.
모델 목록에서 모델을 선택합니다.
모델의 버전 번호를 선택합니다.
평가 탭에서 모델의 집계 평가 측정항목을 볼 수 있습니다.
API
집계 모델 평가 측정항목을 보려면 projects.locations.models.evaluations.get
메서드를 사용합니다.
언어 또는 환경에 대한 탭을 선택합니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- LOCATION: 모델이 저장된 리전
- PROJECT: 프로젝트 ID
- MODEL_ID: 모델 리소스의 ID 모델 학습이 성공적으로 완료되면 학습 파이프라인에 MODEL_ID가 나타납니다. MODEL_ID를 가져오려면 시작하기 전에 섹션을 참조하세요.
HTTP 메서드 및 URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
다음 명령어를 실행합니다.
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations"
PowerShell
다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations" | Select-Object -Expand Content
다음과 비슷한 JSON 응답이 표시됩니다.
모델 평가 측정항목
스키마 파일은 Vertex AI가 각 목표에 제공하는 평가 측정항목을 결정합니다.
다음 Cloud Storage 위치에서 스키마 파일을 보고 다운로드할 수 있습니다.
gs://google-cloud-aiplatform/schema/modelevaluation/
예측 모델의 평가 측정항목은 다음과 같습니다.
- MAE: 평균 절대 오차(MAE)는 타겟 값과 예측 값의 절대차 평균입니다. 이 측정항목의 범위는 0부터 무한대이며 값이 작을수록 모델의 품질이 높다는 것을 나타냅니다.
-
MAPE: 평균 절대 백분율 오차(MAPE)는 라벨과 예측 값의 절대오차 백분율 평균입니다. 이 측정항목의 범위는 0부터 무한대이며 값이 작을수록 모델의 품질이 높다는 것을 나타냅니다.
타겟 열에 0 값이 포함된 경우 MAPE가 표시되지 않습니다. 이 경우 MAPE는 정의되지 않습니다. - RMSE: 평균 제곱근 오차는 타겟 값과 예측 값 간의 평균 제곱 차이에 대한 제곱근입니다. RMSE는 MAE보다 이상점에 더 민감합니다. 따라서 큰 오차가 염려된다면 RMSE이 더 유용한 평가 측정항목입니다. MAE에서처럼, 값이 작을수록 모델 품질이 높음을 의미합니다(0은 완벽한 예측자를 나타냅니다).
- RMSLE: 평균 제곱근 대수 오차 측정항목은 RMSE와 유사합니다. 단, RMSLE는 예측 값과 실제 값+1의 자연 로그를 사용합니다. RMSLE는 과대 예측이 아닌 과소 예측에 더 높은 페널티를 적용합니다. 또한 작은 예측 값보다 큰 예측 값의 초과 값에 더 높은 페널티를 적용하지 않을 때 유용한 측정항목이 될 수 있습니다. 이 측정항목의 범위는 0부터 무한대이며 값이 작을수록 모델의 품질이 높다는 것을 나타냅니다. RMSLE 평가 측정항목은 모든 라벨 및 예측 값이 음수가 아닌 경우에만 반환됩니다.
- r^2: r 제곱(r^2)은 라벨과 예측 값 사이의 피어슨 상관 계수 제곱입니다. 이 측정항목의 범위는 0부터 1까지입니다. 값이 클수록 회귀선에 더 가깝게 있음을 나타냅니다.
-
분위수: 관찰된 값이 예측 값보다 낮을 확률을 나타내는 분위수의 백분율입니다. 예를 들어 0.2 분위수에서 관측된 값은 전체 시간의 20%만큼 예측값보다 낮을 것으로 예상됩니다. 최적화 목표에
minimize-quantile-loss
를 지정하면 Vertex AI가 이 측정항목을 제공합니다. -
관찰된 분위수: 지정된 분위수의 예측 값보다 작은 실제 값의 비율을 표시합니다. 최적화 목표에
minimize-quantile-loss
를 지정하면 Vertex AI가 이 측정항목을 제공합니다. -
확장 핀볼 손실: 특정 분위수에서의 확장 핀볼 손실입니다.
값이 작을수록 특정 분위수에서 모델의 품질이 높다는 것을 나타냅니다.
최적화 목표에
minimize-quantile-loss
를 지정하면 Vertex AI가 이 측정항목을 제공합니다. - 모델 특성 기여 분석: Vertex AI는 각 특성이 모델에 미치는 영향을 보여줍니다. 이 값은 각 특성의 백분율로 제공됩니다. 백분율이 높을수록 특성이 모델 학습에 더 큰 영향을 미칩니다. 이 정보를 검토하여 가장 중요한 모든 특성이 데이터 및 비즈니스 문제에 적합한지 확인해야 합니다. 자세한 내용은 예측용 특성 기여 분석을 참조하세요.