가격: 1 / /

Vertex AI 가격 책정

가격은 미국 달러(USD)로 표기됩니다. USD 외의 통화로 지불하는 경우 Cloud Platform SKU에 해당 통화로 표기된 가격이 적용됩니다.

Vertex AI 가격 책정 및 기존 AI Platform 가격 책정 비교

Vertex AI의 비용은 Vertex AI가 대체하는 기존 제품의 비용과 동일하게 유지됩니다. 예를 들어 AutoML 이미지 분류 모델 학습 비용은 Vertex AI로 학습시키는지 또는 AutoML Vision으로 학습시키는지에 관계없이 동일합니다.

AutoML 모델 가격 책정

Vertex AI AutoML 모델의 경우 세 가지 주요 활동에 대해 비용을 지불합니다.

  • 모델 학습
  • 엔드포인트에 모델 배포
  • 모델을 사용하여 예측

Vertex AI에서는 Vertex AutoML 모델에 사전 정의된 머신 구성을 사용하고 이러한 활동의 시간당 요금에 리소스 사용량이 반영됩니다.

모델 학습에 필요한 시간은 학습 데이터의 규모와 복잡성에 따라 달라집니다. 모델에서 온라인 예측 또는 온라인 설명을 제공하려면 먼저 모델을 배포해야 합니다.

예측이 생성되지 않더라도 엔드포인트에 배포된 각 모델마다 요금을 지불해야 합니다. 추가 요금이 발생하지 않도록 하려면 모델의 배포를 취소해야 합니다. 배포되지 않았거나 배포에 실패한 모델에는 요금이 청구되지 않습니다.

사용한 컴퓨팅 시간에 대해서만 비용을 지불합니다. 따라서 사용자 취소 이외의 다른 이유로 학습에 실패한 경우 해당 시간에 대한 요금은 청구되지 않습니다. 사용자가 작업을 취소하는 경우에는 학습 시간에 대한 비용이 청구됩니다.

가격 책정 정보를 보려면 아래에서 모델 유형을 선택하세요.

이미지 데이터

작업 노드 시간당 가격(분류) 노드 시간당 가격(객체 감지)
교육 $3.465 $3.465
학습(에지 기기 모델) $18.00 $18.00
배포 및 온라인 예측 $1.375 $2.002
일괄 예측 $2.222 $2.222

동영상 데이터

작업 노드 시간당 가격(분류, 객체 추적) 노드 시간당 가격(동작 인식)
팀 기술 역량 강화 $3.234 $3.300
학습(에지 기기 모델) $10.78 $11.00
예측 $0.462 $0.550

표 형식 데이터

작업 분류/회귀에 대한 노드 시간당 가격 예측 가격
교육 $21.252 Vertex AI 예측을 참조하세요.
예측 커스텀 학습 모델 예측과 동일한 가격 Vertex AI 예측을 참조하세요.

텍스트 데이터

작업 가격
기존 데이터 업로드(PDF 전용)

매달 첫 1,000페이지 무료

1,000페이지당 $1.50

5,000,000페이지 초과 시 1,000페이지당 $0.60

교육 시간당 $3.30
배포 시간당 $0.05
예측

텍스트 레코드 1,000개당 $5.00

PDF 파일 등 문서 페이지 1,000개당 $25.00(기존만 해당)

Vertex AutoML 텍스트 예측 요청 가격은 분석을 위해 전송한 텍스트 레코드 수를 기반으로 계산됩니다. 텍스트 레코드는 최대 1,000개의 유니코드 문자(공백 및 HTML 또는 XML 태그와 같은 마크업 포함)로 이루어진 일반 텍스트입니다.

예측 요청에 제공된 텍스트가 1,000자를 초과하면 1,000자당 텍스트 레코드 1개로 계산됩니다. 예를 들어 각각 800자, 1,500자, 600자를 포함하는 요청 3개를 전송하는 경우, 첫 번째 요청(800자)과 세 번째 요청(600자)에서는 텍스트 레코드가 각각 1개씩, 두 번째 요청(1,500자)에서는 2개의 텍스트 레코드가 집계되어 총 4개의 텍스트 레코드 요금이 부과됩니다.

Vertex Explainable AI 예측 요금

Vertex Explainable AI와 연결된 컴퓨팅에는 예측과 동일한 요금이 청구됩니다. 하지만 설명은 일반적인 예측보다 처리 시간이 오래 걸리므로 Vertex Explainable AI를 자동 확장과 함께 과도하게 사용할 경우 많은 노드가 시작되어 예측 요금이 증가할 수 있습니다.

Vertex AI 예측

AutoML

단계 가격 책정
예측 1,000개의 데이터 포인트당 $0.2* (0~1,000,000포인트)
1,000개의 데이터 포인트당$0.1* (1,000,000~5,000만 포인트)
1,000개의 데이터 포인트당$0.02* (>5,000만 포인트)
학습 모든 리전에서 시간당 $21.25
Explainable AI를 참조하세요. Shapley 값을 사용한 설명 기능 Vertex AI 예측 및 설명 가격 책정 페이지를 참조하세요.

* 예측 데이터 포인트는 예측 범위의 한 시점입니다. 예를 들어 일일 단위로 7일 범위는 각 시계열당 7포인트입니다.

  • 추가 비용 없이 최대 5개의 예측 분위수를 포함할 수 있습니다.
  • 등급당 소비되는 데이터 포인트 수는 매월 새로고침됩니다.

ARIMA+

단계 가격 책정
예측 1TB당$5.00
학습 TB당$250.00 x 후보 모델 수 x 백테스트 기간 수*
Explainable AI를 참조하세요. 시계열 분해를 통한 설명 기능 사용 시 추가 비용은 발생하지 않습니다. Shapley 값을 사용하는 설명 기능은 지원되지 않습니다.

자세한 내용은 BigQuery ML 가격 책정 페이지를 참조하세요. Vertex AI 가격 책정에 설명된 대로 각 학습 및 예측 작업에는 관리형 파이프라인 실행 비용이 1회 발생합니다.

* 테스트 세트의 각 기간에 대해 백테스트 기간이 생성됩니다. 사용되는 AUTO_ARIMA_MAX_ORDER은 후보 모델 수를 결정합니다. 여러 시계열이 있는 모델의 경우 6~42입니다.

커스텀 학습 모델

팀 기술 역량 강화

아래 표에는 다양한 학습 구성의 대략적인 시간당 가격이 나와 있습니다. 선택한 머신 유형의 커스텀 구성을 선택할 수 있습니다. 가격을 계산하려면 사용하는 가상 머신 비용의 합계를 구하세요.

Compute Engine 머신 유형을 사용한 후 가속기를 추가하면 가속기 비용이 별도 부과됩니다. 이 비용을 계산하려면 아래의 가속기 표에 있는 가격에 현재 사용 중인 가속기 유형별 머신 시간을 곱하세요.

머신 유형

USD 외의 통화로 지불하는 경우 Cloud Platform SKU에 해당 통화로 표기된 가격이 적용됩니다.

가속기

USD 외의 통화로 지불하는 경우 Cloud Platform SKU에 해당 통화로 표기된 가격이 적용됩니다.

* Cloud TPU Pod를 사용한 학습 가격은 포드의 코어 수를 기준으로 합니다. 하나의 포드에 있는 코어 수는 항상 32의 배수입니다. 32개 이상의 코어가 있는 포드에서 학습 가격을 확인하려면 32코어 포드의 가격에 코어 수를 32로 나눈 값을 곱합니다. 예를 들어 128 코어 포드의 가격은 (32-core Pod price) * (128/32)입니다. 특정 리전에 사용할 수 있는 Cloud TPU 포드에 대한 자세한 내용은 Cloud TPU 문서의 시스템 아키텍처를 참조하세요.

디스크

USD 외의 통화로 지불하는 경우 Cloud Platform SKU에 해당 통화로 표기된 가격이 적용됩니다.

리소스가 작업에 프로비저닝된 순간부터 작업이 완료될 때까지 모델 학습 비용이 청구됩니다.

사전 정의된 구성을 위한 등급 확장 (AI Platform Training)

모델을 학습시킬 때 사용할 처리 클러스터의 유형을 제어할 수 있습니다. 가장 간단한 방법은 확장 등급이라는 사전 정의된 구성 중 하나를 선택하는 것입니다. 확장 등급에 대해 자세히 알아보세요.

커스텀 구성용 머신 유형

Vertex AI를 사용하거나 AI Platform Training의 확장 등급으로 CUSTOM을 선택하면 클러스터의 마스터, 작업자, 매개변수 서버에 사용할 가상 머신의 개수와 유형을 제어할 수 있습니다. Vertex AI의 머신 유형AI Platform Training의 머신 유형에 대해 자세히 알아보세요.

커스텀 처리 클러스터를 사용한 학습에는 지정한 모든 머신의 비용을 합친 요금이 청구됩니다. 개별 머신의 활성 처리 시간이 아닌 작업의 총 시간에 대한 요금이 청구됩니다.

예측 및 설명

다음 표에서는 노드 시간당 일괄 예측, 온라인 예측, 온라인 설명의 가격을 보여줍니다. 노드 시간은 가상 머신이 예측 작업을 실행하거나 예측 또는 설명 요청을 처리할 준비가 된 상태로 기다리는 시간을 나타냅니다. 각 가격표를 보려면 해당하는 확장형 핫스팟을 클릭합니다.

머신 유형은 Google Cloud 청구서에 최대 3개의 개별 SKU로 요금이 청구됩니다.

  • vCPU 비용, vCPU 시간으로 측정
  • RAM 비용, GB 시간으로 측정
  • 머신에 내장되어 있거나 선택적으로 구성되는 경우 GPU 비용(GPU 시간으로 측정)

이전 표에 나온 머신 유형의 가격은 해당 머신 유형을 사용하는 모델 버전의 각 예측 노드에 대한 총 시간당 비용을 추정한 것입니다. 예를 들어 n1-highcpu-32 머신 유형은 vCPU 32개와 RAM 32GB를 포함하므로 노드당 시간당 가격은 vCPU 32시간 + 32GB 시간과 같습니다. a2-highgpu-1g 머신 유형은 GPU 1개, vCPU 12개, RAM 85GB를 포함하므로 노드별 시간당 가격은 1 GPU 시간 + 12vCPU 시간 + 85GB 시간입니다.

이전 표의 가격을 바탕으로 예측 비용을 추정할 수 있습니다. 다음 표에서는 요금이 청구되는 SKU를 더 정확하게 반영하는 예측 머신 유형의 vCPU, RAM, 기본 GPU 가격 책정을 보여줍니다. 각 가격표를 보려면 해당하는 확장형 핫스팟을 클릭합니다.

일부 머신 유형은 선택적인 예측을 위한 GPU 가속기를 추가할 수 있습니다. 선택적 GPU를 사용하면 이전 표에 설명된 것과 별도로 추가 요금이 발생합니다. 다음 표에서는 선택적 GPU의 각 유형에 대한 가격 책정을 설명합니다. 각 가격표를 보려면 해당하는 확장형 핫스팟을 클릭합니다.

GPU당 가격이 적용되므로 한 예측 노드에서 여러 GPU를 사용하거나 여러 노드를 사용하도록 버전을 확장하는 경우 그에 따라 비용이 인상됩니다.

AI Platform Prediction은 여러 가상 머신('노드')을 실행하여 모델의 예측을 제공합니다. 기본적으로 Vertex AI는 언제든지 실행 중인 노드 수를 자동으로 확장합니다. 온라인 예측의 경우 수요에 맞게 노드 수가 확장됩니다. 각 노드는 여러 예측 요청에 응답할 수 있습니다. 일괄 예측의 경우 총 작업 실행 소요 시간을 줄이기 위해 노드 수가 확장됩니다. 예측 노드 수 확장 방법을 맞춤설정할 수 있습니다.

다음을 포함해 모델에서 각 노드가 실행되는 시간에 대해 요금이 부과됩니다.

  • 노드가 일괄 예측 작업을 처리하는 시간
  • 노드가 온라인 예측 요청을 처리하는 시간
  • 노드가 온라인 예측을 제공하기 위해 준비 상태로 대기하는 시간

1시간 동안 실행되는 노드 1개의 비용을 노드 시간이라고 합니다. 예측 가격 표에 노드 시간의 가격이 나와 있습니다. 이는 리전 간에도 다르고, 온라인 예측과 일괄 예측 간에도 다릅니다.

노드 시간을 백분위수 단위로 사용할 수 있습니다. 예를 들어 30분 동안 실행되는 노드 1개의 비용은 0.5노드 시간입니다.

기존(MLS1) 머신 유형 및 일괄 예측의 비용 계산

  • 노드의 실행 시간은 1분 단위로 측정되며 가장 가까운 분으로 올림 처리됩니다. 예를 들어 20.1분 동안 실행된 노드의 경우 실행 시간을 21분으로 보고 비용을 청구합니다.
  • 10분 미만으로 실행된 노드의 경우 실행 시간을 10분으로 올림합니다. 예를 들어 3분 동안만 실행된 노드의 경우 실행 시간을 10분으로 보고 비용을 청구합니다.

Compute Engine(N1) 머신 유형의 비용 계산

  • 노드의 실행 시간은 30초 단위로 청구됩니다. 즉, 30초마다 해당 시점에 노드에서 사용 중인 30초 상당의 vCPU, RAM, GPU 리소스 요금이 프로젝트에 청구됩니다.

예측 노드의 자동 확장에 대한 추가 정보

온라인 예측 일괄 예측
확장의 우선순위는 개별 요청의 지연 시간을 줄이는 데 있습니다. 요청을 처리한 후 몇 분간의 유휴 시간 동안 서비스에서 모델을 준비 상태로 유지합니다. 확장의 우선순위는 작업의 총 경과 시간을 줄이는 데 있습니다.
확장은 월별 요금 총액에 영향을 줍니다. 요청의 개수 및 빈도가 많을수록 많은 노드가 사용됩니다. 새 노드를 가동할 때 약간의 오버헤드가 발생하지만 작업 가격이 확장의 영향을 거의 받지 않아야 합니다.

트래픽에 따라 서비스가 확장되도록 선택하거나(자동 확장) 지속적으로 실행할 노드의 수를 지정해 지연을 방지할 수 있습니다(수동 확장).

  • 자동 확장을 선택하면 노드 수가 자동으로 확장됩니다. AI Platform Prediction의 기존 (MLS1) 머신 유형 배포의 경우 트래픽이 없는 기간 동안 노드 수를 0개로 축소할 수 있습니다. Vertex AI 배포 및 기타 유형의 AI Platform Prediction 배포는 노드를 0개로 축소할 수 없습니다.
  • 수동 확장을 선택할 경우 항상 계속 실행할 노드 수를 지정합니다. 노드가 실행되는 시간, 즉 배포 시 시작되고 모델 버전을 삭제할 때까지 지속되는 전체 시간에 대한 요금이 부과됩니다.
일괄 예측 작업에서 사용하는 최대 노드 수를 설정하고 배포 시 모델에서 계속 실행할 노드 수를 설정해 확장에 영향을 줄 수 있습니다.

최소 10분 요금 부과

노드가 10분 미만 동안 실행되더라도 10분 동안 실행된 것으로 요금이 부과됩니다. 예를 들어 자동 확장을 사용한다고 가정하면 트래픽이 없는 기간 동안 AI Platform Prediction에서 기존(MLS1) 머신 유형을 사용하는 경우 노드가 사용되지 않습니다. (AI Platform Prediction에서 다른 머신 유형을 사용하거나 Vertex AI를 사용하는 경우 하나 이상의 노드가 항상 사용됩니다.) 단일 온라인 예측 요청을 수신하면 1개 노드가 확장되어 요청이 처리됩니다. 요청이 처리된 후 준비 상태로 몇 분 동안 계속 실행됩니다. 그런 다음 실행을 멈춥니다. 노드가 10분 미만 동안 실행되더라도 이러한 노드 작업에 10노드 분(0.17노드 시간)에 대한 요금이 부과됩니다.

또는 단일 노드가 확장되어 10분 이내에 많은 온라인 예측 요청을 처리한 후 종료될 경우에도 10노드 분에 대한 요금이 부과됩니다.

수동 확장을 사용하면 특정 시간 동안 실행되는 노드 수를 정확하게 제어할 수 있습니다. 그러나 노드가 10분 미만 동안 실행되더라도 10분 동안 실행된 것으로 요금이 부과됩니다.

노드 할당 및 확장에 대해 자세히 알아보세요.

일괄 예측 작업은 작업 완료 후 요금이 청구됨

일괄 예측 작업은 작업 도중 증분 방식이 아닌 작업 완료 후 요금이 청구됩니다. 구성한 Cloud Billing 예산 알림은 작업이 실행되는 동안 트리거되지 않습니다. 대규모 작업을 시작하기 전에 먼저 작은 입력 데이터로 비용 벤치마크 작업을 실행하는 것이 좋습니다.

예측 계산의 예

미주 리전의 부동산 업체가 사업을 진행하고 있는 리전의 주택 가격에 대한 주간 예측을 실행합니다. 한 달 동안 각각 3920, 4277, 3849, 3961개의 인스턴스로 이루어진 4주간의 일괄 예측을 실행했습니다. 작업은 1개 노드로 제한되었고, 각 인스턴스의 평균 처리 시간은 0.72초입니다.

먼저 각 작업이 실행된 시간을 계산합니다.

3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes
4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes
3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes
3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes

각 작업이 10분 넘게 실행되었으므로 처리 시간에 분 단위로 요금이 청구됩니다.

($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.0685711
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.061977725
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964

이 달의 총 요금은 $0.26입니다.

이 예에서는 작업이 단일 노드에서 실행되었으며 입력 인스턴스마다 일정한 시간이 걸렸다고 가정했습니다. 실제 사용 시에는 여러 노드를 고려하고, 각 노드가 계산을 실행하는 데 소요된 실제 시간을 사용하세요.

Vertex Explainable AI 요금

Vertex Explainable AI는 예측 가격에 추가 비용이 부과되지 않습니다. 하지만 설명은 일반적인 예측보다 처리 시간이 오래 걸리므로 Vertex Explainable AI를 자동 확장과 함께 과도하게 사용할 경우 많은 노드가 시작되어 예측 요금이 증가할 수 있습니다.

Vertex AI Pipelines

Vertex AI Pipelines는 파이프라인 실행당 $0.03의 실행 요금을 부과합니다. 미리보기 출시 중에는 실행 요금이 청구되지 않습니다. 또한 파이프라인 구성요소에서 사용하는 Compute Engine 리소스와 같이 Vertex AI Pipelines에서 사용하는 Google Cloud 리소스에 대한 비용도 청구됩니다(Vertex AI 학습과 동일한 요금 청구). 마지막으로, 파이프라인이 호출하는 모든 서비스(예: Dataflow)의 비용을 지불해야 합니다.

Vertex AI Feature Store

Vertex AI Feature Store의 가격은 온라인 및 오프라인 스토리지의 특성 데이터 양과 온라인 제공 여부를 기반으로 합니다. 노드 시간은 가상 머신에서 특성 데이터를 제공하거나 특성 데이터 요청을 처리하기 위해 준비 상태에서 대기하는 데 사용한 시간을 의미합니다.

USD 외의 통화로 지불하는 경우 Cloud Platform SKU에 해당 통화로 표기된 가격이 적용됩니다.

특성값 모니터링을 사용 설정하면 청구에 더해 위에 해당 요금이 포함됩니다.

  • 분석된 모든 데이터에 대해 1GB당 $3.50 스냅샷 분석을 사용 설정하면 Vertex AI Feature Store의 데이터를 위해 생성된 스냅샷이 포함됩니다. 가져오기 특성 분석을 사용 설정하면 수집된 데이터 배치가 포함됩니다.
  • 특성 값 모니터링과 함께 사용되는 다른 Vertex AI Feature Store 작업에 대한 추가 요금은 다음과 같습니다.
    • 스냅샷 분석 기능은 모니터링 간격에 대한 구성을 기준으로 특성 값의 스냅샷을 정기적으로 생성합니다.
    • 스냅샷 내보내기 요금은 일반 일괄 내보내기 작업과 동일합니다.

스냅샷 분석 예시

데이터 과학자가 Vertex AI Feature Store에 특성 값 모니터링을 사용 설정하고 일일 스냅샷 분석을 위해 모니터링을 사용 설정합니다. 항목 유형 모니터링을 위해 파이프라인이 매일 실행됩니다. 파이프라인은 Vertex AI Feature Store에서 2GB의 데이터를 스캔하고 0.1GB의 데이터가 포함된 스냅샷을 내보냅니다. 1일 총 분석 비용:

(0.1 GB * $3.50) + (2 GB * $0.005) = $0.36

수집 분석 예시

데이터 과학자가 Vertex AI Feature Store에 대한 특성값 모니터링을 사용 설정하고 수집 작업에 대한 모니터링을 사용 설정합니다. 수집 작업은 1GB의 데이터를 Vertex AI Feature Store로 가져옵니다. 특성 값 모니터링의 총 청구액은 다음과 같습니다.

(1 GB * $3.50) = $3.50

Vertex ML Metadata

메타데이터 스토리지는 바이너리 기가바이트(GiB) 단위로 측정되며, 1GiB는 1,073,741,824바이트입니다. 이 측정 단위를 gibibyte라고도 합니다.

Vertex ML Metadata는 메타데이터 스토리지에 대해 1GiB당 월 $10를 청구합니다. 가격은 메가바이트 (MB)당 일할 계산됩니다. 예를 들어 10MB의 메타데이터를 저장하는 경우 10MB의 메타데이터에 대해 월 $0.10가 청구됩니다.

Vertex ML Metadata가 지원되는 모든 리전에서 가격이 동일합니다.

Vertex AI TensorBoard

Vertex AI 텐서보드를 사용하려면 프로젝트의 IAM 관리자에게 "Vertex AI 텐서보드 웹 앱 사용자&quot 역할을 할당하도록 요청하세요. Vertex AI 관리자 역할도 액세스 권한이 있습니다.

Vertex AI 텐서보드는 고유한 활성 사용자당 월 300달러의 요금을 청구합니다. 활성 사용자는 Vertex AI 텐서보드 UI를 통해 측정됩니다. 또한 Cloud Storage에 저장된 TensorBoard 로그와 같이 Vertex AI TensorBoard에서 사용하는 Google Cloud 리소스에 대한 비용도 청구됩니다.

Vertex AI Vizier

Vertex AI Vizier는 Vertex AI에 포함된 블랙박스 최적화 서비스입니다. Vertex AI Vizier 가격 책정 모델은 다음과 같습니다.

  • RANDOM_SEARCHGRID_SEARCH를 사용하는 시도에는 요금이 부과되지 않습니다. 검색 알고리즘 자세히 알아보기
  • 월별 첫 Vertex AI Vizier 100회 시도는 무료입니다(RANDOM_SEARCHGRID_SEARCH를 사용하는 체험판은 이 합계에 포함되지 않음).
  • Vertex AI Vizier 시도가 100회를 초과하면 같은 달 이후 후속 시도에 1달러의 요금이 부과됩니다(RANDOM_SEARCH 또는 GRID_SEARCH를 사용하는 시도에는 요금이 부과되지 않음).

Vertex AI Matching Engine

Vertex AI Matching Engine 최근접 이웃 탐색 서비스의 가격은 다음과 같이 구성됩니다.

  • 배포된 색인을 호스팅하는 데 사용되는 각 VM의 노드 시간당 가격
  • 새 색인 빌드, 기존 색인 업데이트, 스트리밍 색인 업데이트 사용 비용

색인을 빌드하고 업데이트하는 동안 처리된 데이터는 바이너리 GB(기가바이트, 1GiB = 1,073,741,824바이트) 단위로 측정됩니다. 이 측정 단위를 gibibyte라고도 합니다.

Vertex AI Matching Engine은 모든 리전에서 처리된 기비바이트 (GiB)당 $3.00를 청구합니다. Vertex AI Matching Engine은 스트리밍 업데이트 삽입에 대해 1GB당 $0.45를 청구합니다. 스트리밍 업데이트의 경우 미리보기 출시 기간에는 이 요금이 청구되지 않습니다.

다음 표에는 일치하는 엔진을 사용할 수 있는 각 리전의 색인 제공 가격이 요약되어 있습니다. 가격은 리전 유형에 따라 머신 유형에 따라 다르며 노드 시간당 요금이 부과됩니다. 각 가격표를 보려면 해당하는 확장형 핫스팟을 클릭합니다.

일치하는 엔진 가격 책정 예시

Vertex AI Matching Engine 가격은 데이터 크기, 실행하려는 초당 쿼리 수 (QPS) 및 사용하는 노드 수에 따라 결정됩니다. 예상 게재 비용을 확인하려면 총 데이터 크기를 계산해야 합니다. 데이터 크기는 임베딩/벡터 수* 의 차원 수* 당 4바이트입니다. 데이터 크기를 확보한 후 제공 비용과 빌드 비용을 계산할 수 있습니다. 서빙 비용과 빌드 비용이 월별 총 비용과 같습니다.

  • 제공 비용: # 복제본/샤드 * 샤드 #개 (~데이터 크기/20GB) * $1.064/시간 * 24시간/일 * 30일/월
  • 빌드 비용: 데이터 크기(GB) * $3/GB * 업데이트 수/월

월별 색인 빌드 비용은 데이터 크기 * 1GB당 3.00입니다. 업데이트 빈도는 제공 비용에 영향을 주지 않으며 건물 비용에만 영향을 줍니다. 스트리밍 색인 업데이트를 사용하는 경우 스트리밍된 데이터가 1GB에 도달하거나 3일 후에(둘 중 이른 시점 적용) 색인이 다시 빌드됩니다. 이러한 매개변수는 색인 재빌드 빈도를 더욱 줄이기 위해 기능의 글로벌 가용성 (GA)에 근접하면서 조정됩니다. 스트리밍 업데이트의 색인 재생성 전체 작업에는 일괄 색인 빌드 가격(1GB당 $3)이 청구됩니다.

임베딩/벡터 수 측정기준 수 초당 쿼리 수(QPS) 업데이트 빈도 예상 월간 색인 생성 비용 노드 예상 월간 게재 비용
2,000만 개 128 1,000 매월 $30 1 766달러
1억 개 256 3,000 매주 1,200달러 15 1,149만 1천 원
5억 개 128 20,000 매주 $3,000 260 19,916만 원
10억 512 5,000 매월 6,000달러 500 383,000달러

모든 예시는 us-central1n1-standard-16에 기반합니다. 발생하는 비용은 재현율 및 지연 시간 요구사항에 따라 다릅니다. 월별 예상 제공 비용은 Console에서 사용되는 노드 수와 직접적인 관련이 있습니다. 비용에 영향을 주는 구성 매개변수에 대한 자세한 내용은 재현율 및 지연 시간에 영향을 미치는 구성 매개변수를 참조하세요.

초당 쿼리 수 (QPS)가 높은 경우 이러한 쿼리를 일괄 처리하면 최대 30%~40%의 총 비용을 절감할 수 있습니다.

Vertex AI Model Registry

Vertex AI 모델 레지스트리는 모델 및 모델 버전을 추적하고 나열하는 중앙 저장소입니다. Vertex AI로 모델을 가져오면 Vertex AI 모델 레지스트리에 표시됩니다. Vertex AI 모델 레지스트리에 모델을 추가하는 데는 비용이 들지 않습니다. 엔드포인트에 모델을 배포하거나 모델에 일괄 예측을 수행하는 경우에만 비용이 발생합니다. 이 비용은 배포하는 모델의 유형에 따라 결정됩니다.

Vertex AI 모델 레지스트리에서 커스텀 모델을 배포하기 위한 가격 책정에 대한 자세한 내용은 커스텀 학습 모델을 참조하세요. AutoML 모델 배포 가격 책정에 대한 자세한 내용은 AutoML 모델 가격 책정을 참조하세요.

Vertex AI Model Monitoring

Vertex AI를 사용하면 모델을 프로덕션에 배포한 후에도 모델의 지속적인 효과를 모니터링할 수 있습니다. 자세한 내용은 Vertex AI 모델 모니터링 소개를 참조하세요.

Vertex AI Model Monitoring을 사용하면 다음에 대해 비용이 청구됩니다.

  • 제공된 모든 학습 데이터 및 BigQuery 테이블에 로깅된 예측 데이터를 포함하여 분석된 모든 데이터에 대해 1GB당 $3.50
  • 속성 모니터링이 사용 설정된 경우 BigQuery 스토리지 또는 Batch Explain과 같이 모델 모니터링과 함께 사용하는 다른 Google Cloud 제품에 대한 요금

Vertex AI Model Monitoring은 us-central1, europe-west4, asia-east1, asia-southeast1 리전에서 지원됩니다. 모든 리전의 가격이 동일합니다.

데이터 크기는 TfRecord 형식으로 변환된 후 측정됩니다.

Vertex AI Model Monitoring 작업을 설정할 때 학습 데이터 세트에는 일회성 요금이 발생합니다.

예측 데이터 세트는 온라인 예측 서비스에서 수집된 로그로 구성됩니다. 예측 요청이 다른 기간에 도달하면 각 기간에 대한 데이터가 수집되고 각 예측 기간에 대해 분석된 데이터의 합계가 요금을 계산하는 데 사용됩니다.

예: 데이터 과학자가 모델에 속하는 예측 트래픽에서 모델 모니터링을 실행합니다.

  • 모델은 BigQuery 데이터 세트에서 학습됩니다. TfRecord로 변환한 후의 데이터 크기는 1.5GB입니다.
  • 오후 1시~오후 2시에 로깅되는 예측 데이터는 0.1GB이고 오후 3시~오후 4시는 0.2GB입니다.
  • 모델 모니터링 작업 설정의 총 가격은 다음과 같습니다.

    (1.5 GB * $3.50) + ((0.1 GB + 0.2 GB) * $3.50) = $6.30

Vertex AI Workbench

가격은 사용하는 컴퓨팅 및 스토리지 리소스, Vertex AI Workbench 인스턴스의 관리 수수료, 사용하는 모든 추가 Google Cloud 리소스로 구성됩니다. 자세한 내용은 다음 섹션을 참조하세요.

컴퓨팅 및 스토리지 리소스

컴퓨팅 및 스토리지 리소스에 대한 요금은 현재 Compute EngineCloud Storage와 동일한 요율로 청구됩니다.

관리 수수료

인프라 사용량 외에 Vertex AI Workbench 관리 수수료가 아래 표에 나와 있습니다.

가격 책정 정보를 확인하려면 관리형 노트북 또는 사용자 관리 노트북을 선택하세요.

관리형 노트북

SKU 시간당 관리 수수료
vCPU vCore당 $0.05
T4, K80, P4 (표준 GPU) GPU당 $0.35
P100, V100, A100 GPU (프리미엄 GPU) GPU당 $2.48

사용자 관리 노트북

SKU 시간당 관리 수수료
vCPU vCore당 $0.005
T4, K80, P4 (표준 GPU) GPU당 $0.035
P100, V100, A100 GPU (프리미엄 GPU) GPU당 $0.25

추가 Google Cloud 리소스

앞에서 설명한 비용 외에도 사용한 Google Cloud 리소스에 대한 비용도 지불합니다. 예를 들면 다음과 같습니다.

  • 데이터 분석 서비스: 노트북 내에서 SQL 쿼리를 실행하면 BigQuery 비용이 발생합니다(BigQuery 가격 책정 참조).

  • 고객 관리 암호화 키: 고객 관리 암호화 키를 사용할 때 비용이 발생합니다. 관리형 노트북 또는 사용자 관리 노트북 인스턴스가 Cloud Key Management Service 키를 사용할 때마다 해당 작업에 Cloud KMS 키 작업 요금이 청구됩니다(Cloud Key Management Service 가격 책정 참조).

Deep Learning Containers, Deep Learning VM, AI Platform Pipelines

Deep Learning Containers, Deep Learning VM Image, AI Platform Pipelines의 경우 사용하는 컴퓨팅 및 스토리지 리소스를 기준으로 가격이 계산됩니다. 이러한 리소스에는 현재 Compute EngineCloud Storage에 지불하는 것과 동일한 요율로 요금이 청구됩니다.

컴퓨팅 및 스토리지 비용 외에도 사용한 Google Cloud 리소스에 대한 비용도 지불합니다. 예를 들면 다음과 같습니다.

  • 데이터 분석 서비스: 노트북 내에서 SQL 쿼리를 실행하면 BigQuery 비용이 발생합니다(BigQuery 가격 책정 참조).

  • 고객 관리 암호화 키: 고객 관리 암호화 키를 사용할 때 비용이 발생합니다. 관리형 노트북 또는 사용자 관리 노트북 인스턴스가 Cloud Key Management Service 키를 사용할 때마다 해당 작업에 Cloud KMS 키 작업 요금이 청구됩니다(Cloud Key Management Service 가격 책정 참조).

데이터 라벨 지정

Vertex AI를 사용하면 커스텀 머신러닝 모델을 학습시키는 데 사용할 데이터 모음에 대한 수동 라벨링을 요청할 수 있습니다. 서비스 가격은 라벨 지정 작업 유형에 따라 계산됩니다.

  • 일반 라벨링 작업의 경우 가격은 주석 단위의 수에 따라 결정됩니다.
    • 이미지 분류 작업의 경우 단위는 이미지 수와 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 수동 라벨러가 3명인 이미지는 1 * 3 = 3단위로 계산됩니다. 단일 라벨 및 멀티 라벨 분류의 가격은 동일합니다.
    • 이미지 경계 상자 작업의 경우 단위는 이미지에서 식별된 경계 상자 수와 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 경계 상자가 2개이고 수동 라벨러가 3명인 이미지는 2 * 3 = 6단위로 계산됩니다. 경계 상자가 없는 이미지에는 요금이 청구되지 않습니다.
    • 이미지 세분화/회전 상자/폴리라인/다각형 작업의 경우 단위는 이미지 경계 상자 태스크와 동일한 방식으로 결정됩니다.
    • 동영상 분류 작업의 경우 단위는 비디오 길이(5초가 가격 단위)와 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 수동 라벨러가 3명인 25초 동영상은 25 / 5 * 3 = 15단위로 계산됩니다. 단일 라벨 및 멀티 라벨 분류의 가격은 동일합니다.
    • 동영상 객체 추적 작업의 경우 단위는 동영상에서 식별된 객체 수와 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 객체가 2개이고 수동 라벨러가 3명인 동영상의 경우 2 * 3 = 6단위로 계산됩니다. 객체가 없는 동영상에는 요금이 청구되지 않습니다.
    • 동영상 동작 인식 작업의 경우 단위는 동영상 객체 추적 작업과 동일한 방식으로 결정됩니다.
    • 텍스트 분류 작업의 경우 단위는 텍스트 길이(50단어가 가격 단위)와 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 단어가 100개이고 수동 라벨러가 3명인 텍스트는 100 / 50 * 3 = 6단위로 계산됩니다. 단일 라벨 및 멀티 라벨 분류의 가격은 동일합니다.
    • 텍스트 감정 분석 작업의 경우 단위는 텍스트 분류 작업과 동일한 방식으로 결정됩니다.
    • 텍스트 항목 추출 작업의 경우 단위는 텍스트 길이(50단어가 가격 단위), 식별된 항목 수, 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 단어가 100개, 식별된 항목이 2개, 수동 라벨러가 3명인 텍스트의 경우 100 / 50 * 2 * 3 = 12단위로 계산됩니다. 항목이 없는 텍스트에는 요금이 청구되지 않습니다.
  • 이미지/동영상/텍스트 분류 및 텍스트 감정 분석 작업의 경우 라벨 세트 크기가 너무 크면 수동 라벨러가 클래스를 추적하지 못할 수 있습니다. 따라서 한 번에 최대 20개의 클래스를 수동 라벨러에게 전송합니다. 예를 들어 라벨링 작업의 라벨 세트 크기가 40이면 각 데이터 항목은 사람의 검토를 위해 40 / 20 = 2회 전송되며 위에서 계산된 요금의 2배가 청구됩니다.

  • 커스텀 라벨러 기능을 사용 설정하는 라벨 지정 작업의 경우 각 데이터 항목이 커스텀 라벨러 1개 단위로 계산됩니다.

  • 수동 라벨러의 도움 없이 모델에서 생성된 주석이 있는 데이터 항목의 능동적 학습 라벨 지정 작업의 경우 각 데이터 항목은 능동적 학습 1개 단위로 계산됩니다.

  • 수동 라벨러가 생성한 주석이 있는 데이터 항목의 능동적 학습 라벨 지정 작업의 경우 위에서 설명한 대로 각 데이터 항목이 일반 라벨 지정 작업으로 계산됩니다.

아래 표는 각 목표에 나열된 단위를 기준으로 수동 라벨러당 1,000개 단위의 가격을 나타냅니다. 등급 1 가격은 각 Google Cloud 프로젝트에서 월간 첫 50,000개의 단위에 적용됩니다. 등급 2 가격은 프로젝트에서 월간 다음 950,000개 단위에 적용됩니다(최대 1,000,000개 단위). 월간 1,000,000개를 초과하는 단위의 가격은 직접 문의해 주세요.

데이터 유형 목표 단위 등급 1 등급 2
이미지 분류 이미지 $35 $25
경계 상자 경계 상자 $63 $49
세분화 세그먼트 $870 $850
회전 상자 경계 상자 $86 $60
다각형/폴리라인 다각형/폴리라인 $257 $180
동영상 분류 5초 동영상 $86 $60
객체 추적 경계 상자 $86 $60
동작 인식 30초 동영상의 이벤트 $214 $150
텍스트 분류 50단어 $129 $90
감정 50단어 $200 $140
항목 추출 항목 $86 $60
능동적 학습 전체 데이터 항목 $80 $56
커스텀 라벨러 전체 데이터 항목 $80 $56

Cloud Storage 필수 사용

이 문서에 설명된 비용 외에도 Vertex AI 수명 주기 동안 Cloud Storage 버킷에 데이터와 프로그램 파일을 저장하는 데 드는 비용도 있습니다. 이 같은 저장에는 Cloud Storage 가격 책정 정책이 적용됩니다.

Cloud Storage 필수 사용에 포함되는 내용:

  • 커스텀 학습 모델의 학습 애플리케이션 패키지를 스테이징합니다.

  • 학습 입력 데이터 저장

  • 학습 작업의 출력 저장. Vertex AI에서는 이러한 항목을 장기간 저장할 필요가 없습니다. 작업이 완료되는 즉시 파일을 삭제해도 됩니다.

무료 리소스 관리 작업

AI Platform에서 제공되는 리소스 관리 작업은 무료로 사용할 수 있습니다. 이러한 작업 중 일부는 AI Platform 할당량 정책의 제한을 받습니다.

리소스 무료 작업
models create, get, list, delete
versions create, get, list, delete, setDefault
jobs get, list, cancel
operations get, list, cancel, delete

Google Cloud 비용

분석할 이미지를 Cloud Storage에 저장하거나 다른 Google Cloud 리소스를 Vertex AI와 함께 사용하는 경우 해당 서비스의 사용 요금도 청구됩니다.

Google Cloud Console에서 사용량, 현재 청구액 등 현재 결제 상태를 확인하려면 결제 페이지를 참조하세요. 계정 관리에 대한 자세한 내용은 Cloud Billing 문서 또는 청구 및 결제 지원을 참조하세요.

다음 단계