가격 책정

AI Platform은 프로젝트 및 예산에 따라 확장 가능하고 유연한 가격 책정 옵션을 제공합니다. AI Platform에서는 모델 학습 및 예측에는 요금이 부과되지만 클라우드에서 머신러닝 리소스를 관리하는 데는 요금이 부과되지 않습니다.

가격 책정 개요

다음 테이블에는 AI Platform이 지원되는 리전별로 학습 및 예측 가격이 요약되어 있습니다.

학습 가격

아래 테이블에는 학습 구성별로 사용되는 학습 단위2 수와 함께 다양한 구성의 시간당 가격이 나와 있습니다. 학습 단위는 작업의 리소스 사용량을 측정하는데 머신 구성의 시간당 가격은 사용하는 학습 단위 수에 해당 리전의 학습 비용을 곱한 값입니다.

사전 정의된 확장 등급을 선택하거나, 선택한 머신 유형으로 이루어진 커스텀 구성을 선택할 수도 있습니다. 커스텀 구성을 선택하는 경우 현재 사용하는 가상 머신 비용의 합계를 구하세요.

가속기 지원 기존 머신 유형의 가격에는 가속기 비용이 포함되어 있습니다. Compute Engine 머신 유형을 사용한 후 가속기를 추가하면 가속기 비용이 별도 부과됩니다. 이 비용을 계산하려면 아래의 가속기 테이블에 있는 가격에 현재 사용 중인 가속기 유형별 개수를 곱하세요.

미주

지원 대상 미주 리전의 학습 작업 비용은 학습 단위별로 시간당 $0.49입니다.

사전 정의된 확장 등급 - 시간당 가격(학습 단위)
BASIC $0.1900 (0.3878)
STANDARD_1 $1.9880 (4.0571)
PREMIUM_1 $16.5536 (33.7829)
BASIC_GPU $0.8300 (1.6939)
BASIC_TPU $4.6900 (9.5714)
CUSTOM 확장 등급으로 CUSTOM을 선택하면 학습 작업에 사용되는 가상 머신의 개수와 유형을 제어할 수 있습니다. 머신 유형 테이블을 참조하세요.
머신 유형 - 시간당 가격(학습 단위)
n1-standard-4 $0.1900 (0.3878)
n1-standard-8 $0.3800 (0.7755)
n1-standard-16 $0.7600 (1.5510)
n1-standard-32 $1.5200 (3.1020)
n1-standard-64 $3.0400 (6.2041)
n1-standard-96 $4.5600 (9.3061)
n1-highmem-2 $0.1184 (0.2416)
n1-highmem-4 $0.2368 (0.4833)
n1-highmem-8 $0.4736 (0.9665)
n1-highmem-16 $0.9472 (1.9331)
n1-highmem-32 $1.8944 (3.8661)
n1-highmem-64 $3.7888 (7.7322)
n1-highmem-96 $5.6832 (11.5984)
n1-highcpu-16 $0.5672 (1.1576)
n1-highcpu-32 $1.1344 (2.3151)
n1-highcpu-64 $2.2688 (4.6302)
n1-highcpu-96 $3.4020 (6.9429)
cloud_tpu6 $4.5000 (9.1840) 또는 해당 사항 없음(가속기를 별도로 추가한 경우)6
standard $0.1900 (0.3878)
large_model $0.4736 (0.9665)
complex_model_s $0.2836 (0.5788)
complex_model_m $0.5672 (1.1576)
complex_model_l $1.1344 (2.3151)
standard_gpu $0.8300 (1.6939)
complex_model_m_gpu $2.5600 (5.2245)
complex_model_l_gpu $3.3200 (6.7755)
standard_p100 $1.8400 (3.7551)
complex_model_m_p100 $6.6000 (13.4694)
standard_v100 $2.8600 (5.8367)
large_model_v100 $2.9536 (6.0278)
complex_model_m_v100 $10.6800 (21.7959)
complex_model_l_v100 $21.3600 (43.5918)
가속기 - 시간당 가격(학습 단위)
NVIDIA_TESLA_K80 $0.4500 (0.9184)
NVIDIA_TESLA_P4 $0.6000 (1.2245)
NVIDIA_TESLA_P100 $1.4600 (2.9796)
NVIDIA_TESLA_T4 $0.9500 (1.9388)
NVIDIA_TESLA_V100 $2.4800 (5.0612)
TPU_V2 코어 8개6 $4.5000 (9.1840)
TPU_V3 코어 8개6 (베타) $8.0000 (16.3264)

유럽

모든 지원 대상 유럽 리전의 학습 작업 비용은 학습 단위별로 시간당 $0.54입니다.

사전 정의된 확장 등급 - 시간당 가격(학습 단위)
BASIC $0.2200 (0.4074)
STANDARD_1 $2.3020 (4.2630)
PREMIUM_1 $19.1640 (35.4889)
BASIC_GPU $0.9300 (1.7222)
BASIC_TPU (해당 사항 없음)
CUSTOM 확장 등급으로 CUSTOM을 선택하면 학습 작업에 사용되는 가상 머신의 개수와 유형을 제어할 수 있습니다. 머신 유형 테이블을 참조하세요.
머신 유형 - 시간당 가격(학습 단위)
n1-standard-4 $0.2200 (0.4074)
n1-standard-8 $0.4400 (0.8148)
n1-standard-16 $0.8800 (1.6296)
n1-standard-32 $1.7600 (3.2593)
n1-standard-64 $3.5200 (6.5185)
n1-standard-96 $5.2800 (9.7778)
n1-highmem-2 $0.1370 (0.2537)
n1-highmem-4 $0.2740 (0.5074)
n1-highmem-8 $0.5480 (1.0148)
n1-highmem-16 $1.0960 (2.0296)
n1-highmem-32 $2.1920 (4.0593)
n1-highmem-64 $4.3840 (8.1185)
n1-highmem-96 $6.5760 (12.1778)
n1-highcpu-16 $0.6568 (1.2163)
n1-highcpu-32 $1.3136 (2.4326)
n1-highcpu-64 $2.6272 (4.8652)
n1-highcpu-96 $3.9408 (7.2978)
cloud_tpu6 (해당 사항 없음)
standard $0.2200 (0.4074)
large_model $0.5480 (1.0148)
complex_model_s $0.3284 (0.6081)
complex_model_m $0.6568 (1.2163)
complex_model_l $1.3136 (2.4326)
standard_gpu $0.9300 (1.7222)
complex_model_m_gpu $2.8400 (5.2593)
complex_model_l_gpu $3.7200 (6.8889)
standard_p100 $2.0400 (3.7778)
complex_model_m_p100 $7.2800 (13.4815)
standard_v100 $2.9684 (5.4970)
large_model_v100 $3.0708 (5.6867)
complex_model_m_v100 $11.0368 (20.4385)
complex_model_l_v100 $22.0736 (40.8770)
가속기 - 시간당 가격(학습 단위)
NVIDIA_TESLA_K80 $0.4900 (0.9074)
NVIDIA_TESLA_P4 $0.6500 (1.2037)
NVIDIA_TESLA_P100 $1.6000 (2.9630)
NVIDIA_TESLA_T4 $1.0300 (1.9074)
NVIDIA_TESLA_V100 $2.5500 (4.7222)
TPU_V2 코어 8개6 (해당 사항 없음)
TPU_V3 코어 8개6 (베타) (해당 사항 없음)

아시아 태평양

모든 지원 대상 아시아 태평양 리전의 학습 작업 비용은 학습 단위별로 시간당 $0.54입니다.

사전 정의된 확장 등급 - 시간당 가격(학습 단위)
BASIC $0.2200 (0.4074)
STANDARD_1 $2.3020 (4.2630)
PREMIUM_1 $19.1640 (35.4889)
BASIC_GPU $0.9300 (1.7222)
BASIC_TPU (해당 사항 없음)
CUSTOM 확장 등급으로 CUSTOM을 선택하면 학습 작업에 사용되는 가상 머신의 개수와 유형을 제어할 수 있습니다. 머신 유형 테이블을 참조하세요.
머신 유형 - 시간당 가격(학습 단위)
n1-standard-4 $0.2200 (0.4074)
n1-standard-8 $0.4400 (0.8148)
n1-standard-16 $0.8800 (1.6296)
n1-standard-32 $1.7600 (3.2593)
n1-standard-64 $3.5200 (6.5185)
n1-standard-96 $5.2800 (9.7778)
n1-highmem-2 $0.1370 (0.2537)
n1-highmem-4 $0.2740 (0.5074)
n1-highmem-8 $0.5480 (1.0148)
n1-highmem-16 $1.0960 (2.0296)
n1-highmem-32 $2.1920 (4.0593)
n1-highmem-64 $4.3840 (8.1185)
n1-highmem-96 $6.5760 (12.1778)
n1-highcpu-16 $0.6568 (1.2163)
n1-highcpu-32 $1.3136 (2.4326)
n1-highcpu-64 $2.6272 (4.8652)
n1-highcpu-96 $3.9408 (7.2978)
cloud_tpu6 (해당 사항 없음)
standard $0.2200 (0.4074)
large_model $0.5480 (1.0148)
complex_model_s $0.3284 (0.6081)
complex_model_m $0.6568 (1.2163)
complex_model_l $1.3136 (2.4326)
standard_gpu $0.9300 (1.7222)
complex_model_m_gpu $2.8400 (5.2593)
complex_model_l_gpu $3.7200 (6.8889)
standard_p100 $2.0400 (3.7778)
complex_model_m_p100 $7.2800 (13.4815)
standard_v100 $2.9684 (5.4970)
large_model_v100 $3.0708 (5.6867)
complex_model_m_v100 $11.0368 (20.4385)
complex_model_l_v100 $22.0736 (40.8770)
가속기 - 시간당 가격(학습 단위)
NVIDIA_TESLA_K80 $0.4900 (0.9074)
NVIDIA_TESLA_P4 $0.6500 (1.2037)
NVIDIA_TESLA_P100 $1.6000 (2.9630)
NVIDIA_TESLA_T4 $1.0300 (1.9074)
NVIDIA_TESLA_V100 $2.5500 (4.7222)
TPU_V2 코어 8개6 (해당 사항 없음)
TPU_V3 코어 8개6 (베타) (해당 사항 없음)

예측 비용

이 표에는 노드 시간당 일괄 예측 및 온라인 예측 비용이 나와 있습니다. 노드 시간은 가상 머신에서 예측 작업을 실행하거나 예측 요청 처리를 위해 준비 상태에서 대기하는 데 사용한 시간을 의미합니다. 예측 비용 계산에 대해 자세히 알아보세요.

미주

예측
일괄 예측 노드 시간당 $0.0791
온라인 예측
머신 유형 - 노드 시간당 가격
mls1-c1-m2 (기본값)

$0.0401

mls1-c4-m2 (베타)

$0.1349

n1-standard-2 (베타)

약 $0.0950

n1-standard-4 (베타)

약 $0.1900

n1-standard-8 (베타)

약 $0.3800

n1-standard-16 (베타)

약 $0.7600

n1-standard-32 (베타)

약 $1.5200

n1-highmem-2 (베타)

약 $0.1183

n1-highmem-4 (베타)

약 $0.2366

n1-highmem-8 (베타)

약 $0.4732

n1-highmem-16 (베타)

약 $0.9464

n1-highmem-32 (베타)

약 $1.8928

n1-highcpu-2 (베타)

약 $0.0708

n1-highcpu-4 (베타)

약 $0.1417

n1-highcpu-8 (베타)

약 $0.2834

n1-highcpu-16 (베타)

약 $0.5668

n1-highcpu-32 (베타)

약 $1.1336

Compute Engine(N1) 머신 유형(베타)us-central1 리전에서만 사용할 수 있으며 Google Cloud 청구서에 별도의 두 SKU로 요금이 청구됩니다.

  • vCPU 비용, vCPU 시간으로 측정
  • RAM 비용, GB 시간으로 측정

이전 표에 나온 Compute Engine(N1) 머신 유형의 가격은 해당 머신 유형을 사용하는 모델 버전의 각 예측 노드에 대한 총 시간당 비용을 추정한 것입니다. 예를 들어 32개의 vCPU와 28.8GB의 RAM을 사용하는 n1-highcpu-32 머신 유형의 경우 노드별 시간당 가격은 32vCPU 시간 + 28.8GB 시간입니다.

이전 표의 가격을 바탕으로 온라인 예측 비용을 추정할 수 있습니다. 다음 표에 나온 Compute Engine(N1) 머신 유형의 vCPU 및 RAM 가격에는 요금이 청구될 SKU가 더욱 정확하게 반영되어 있습니다.

Compute Engine(N1) 머신 유형 SKU
vCPU vCPU 시간당 $0.031611
RAM GB 시간당 $0.004237

원하는 경우 Compute Engine(N1) 머신 유형에서 온라인 예측에 GPU 가속기를 사용할 수 있습니다. GPU를 사용하면 이전 표에 나와 있는 비용 외에 별도의 추가 비용이 발생합니다. 다음 표에는 각 GPU 유형의 가격이 나와 있습니다.

가속기 - 시간당 가격
NVIDIA_TESLA_K80 $0.4500
NVIDIA_TESLA_P4 $0.6000
NVIDIA_TESLA_P100 $1.4600
NVIDIA_TESLA_T4 $0.9500
NVIDIA_TESLA_V100 $2.4800

GPU당 가격 책정이 적용되므로 한 예측 노드에서 여러 GPU를 사용하거나 여러 노드를 사용하도록 버전을 확장하는 경우 그에 따라 비용이 인상됩니다.

유럽

예측
일괄 예측 노드 시간당 $0.0861
온라인 예측
머신 유형 - 노드 시간당 가격
mls1-c1-m2 (기본값)

$0.0441

mls1-c4-m2 (베타)

$0.1484

아시아 태평양

예측
일괄 예측 노드 시간당 $0.0861
온라인 예측
머신 유형 - 노드 시간당 가격
mls1-c1-m2 (기본값)

$0.0515

mls1-c4-m2 (베타)

$0.1733

참고:

  1. 모든 사용에 AI Platform 할당량 정책이 적용됩니다.
  2. 이 페이지에서 사용하는 학습 단위와 작업 세부정보 페이지에 표시된 사용한 ML 단위의 차이에 유의하세요. 사용한 ML 단위에는 이미 작업 기간이 반영되어 있습니다. 아래 세부정보를 참조하세요.
  3. AI Platform 수명 주기 동안 데이터 및 프로그램 파일을 Google Cloud Storage 버킷에 저장해야 합니다. Cloud Storage 사용 자세히 알아보기
  4. 대량 구매에 따른 할인 혜택은 영업팀에 문의하세요.
  5. USD 외의 통화로 지불하는 경우 Cloud Platform SKU에 해당 통화로 표기된 가격이 적용됩니다.
  6. cloud_tpu 머신 유형은 구성에 가속기를 별도로 추가하지 않더라도 기본적으로 8코어 TPU v2 기기를 제공합니다. 이 경우 머신 유형 표의 cloud_tpu에 기재된 가격을 지불합니다.

    TPU v2 또는 TPU v3 가속기를 구성의 cloud_tpu 머신 유형에 별도로 추가하는 경우 cloud_tpu 머신 유형 자체에 대한 요금은 지불하지 않습니다. 대신 TPU_V2 또는 TPU_V3 가속기 연결에 대한 요금을 지불합니다.

가격 계산기

가격 계산기를 사용해 학습 및 예측 비용을 예상해 보세요.

학습 비용에 대한 자세한 내용

클라우드에서 모델을 학습시킬 경우 요금이 다음과 같이 청구됩니다.

  • 분 단위 청구
  • 위 테이블에 나온 시간당 가격(기본 가격 및 학습 단위 수로 계산됨)과 학습 작업을 시작할 때 선택한 처리 구성에 따라 요금이 달라집니다.
  • 최소 청구 시간: 학습 작업당 10분
  • 리소스가 작업에 프로비저닝된 순간부터 작업이 완료될 때까지

사전 정의된 구성이 제공되는 확장 등급

모델을 학습시킬 때 사용할 처리 클러스터의 유형을 제어할 수 있습니다. 가장 간단한 방법은 확장 등급이라고 부르는 사전 정의된 구성 중 하나를 선택하는 것입니다. 확장 등급에 대해 자세히 알아보세요.

커스텀 구성용 머신 유형

확장 등급으로 CUSTOM을 선택하면 클러스터 마스터, 작업자, 매개변수 서버에서 사용할 가상 머신의 개수와 유형을 제어할 수 있습니다. 머신 유형에 대해 자세히 알아보세요.

커스텀 처리 클러스터를 사용한 학습에는 지정한 모든 머신의 비용을 합친 요금이 청구됩니다. 개별 머신의 활성 처리 시간이 아닌 작업의 총 시간에 대한 요금이 청구됩니다.

예: 학습 단위를 사용한 학습 비용 계산

다음 공식에 따라 학습 단위를 기준으로 학습 작업의 비용을 계산해 보세요.

(training units * base price / 60) * job duration in minutes

예시:

  • 미주 리전의 데이터 과학자가 학습 작업을 하나 실행하면서 4.0571개의 학습 단위를 사용하는 STANDARD_1 확장 등급을 선택합니다. 작업에는 15분이 소요됩니다.

    (4.0571 training units * $0.49 per hour / 60) * 15 minutes
    

    이 작업의 총 요금은 $0.50입니다.

  • 미주 리전의 컴퓨터 공학 교수가 CUSTOM 확장 등급을 사용해 학습 작업을 실행합니다. 모델의 규모가 매우 커 매개변수 서버로 대형 모델 VM을 활용하려고 합니다. 처리 클러스터를 다음과 같이 구성합니다.

    • 마스터용으로 complex_model_s 머신 사용(학습 단위 0.5788개)
    • large_model VM에서 매개변수 서버 5개 실행(0.9665 x 5 = 학습 단위 4.8325개)
    • complex_model_s VM에서 작업자 8개 사용(0.5788 x 8 = 학습 단위 4.6304개)

    이 작업은 2시간 26분 동안 실행됩니다.

    (10.0417 training units * $0.49 per hour / 60) * 146 minutes
    

    이 작업의 총 요금은 $11.97입니다.

예시: 시간당 가격을 사용한 학습 비용 계산

학습 단위 대신 위 테이블에 나온 시간당 가격을 사용할 수도 있습니다. 공식은 다음과 같습니다.

(Price per hour / 60) * job duration in minutes

예시:

  • 미주 리전의 데이터과학자가 학습 작업을 실행하면서 STANDARD_1 확장 등급을 선택합니다. 작업에는 15분이 소요됩니다.

    ($1.9880 per hour / 60) * 15 minutes
    

    이 작업의 총 요금은 $0.50입니다.

  • 미주 리전의 컴퓨터 공학 교수가 CUSTOM 확장 등급을 사용해 학습 작업을 실행합니다. 모델의 규모가 매우 커 매개변수 서버로 대형 모델 VM을 활용하려고 합니다. 처리 클러스터를 다음과 같이 구성합니다.

    • 마스터용으로 complex_model_s 머신 사용($0.2836)
    • large_model VM에서 매개변수 서버 5개 실행($0.4736 x 5 = $2.3680)
    • complex_model_s VM에서 작업자 8개 사용($0.2836 x 8 = $2.2688)

    이 작업은 2시간 26분 동안 실행됩니다.

    (($0.2836 + $2.368 + $2.2688) per hour / 60) * 146 minutes
    

    이 작업의 총 요금은 $11.97입니다.

예시: '사용한 ML 단위'를 사용한 학습 비용 계산

작업 세부정보 페이지에 표시된 사용한 ML 단위(사용한 머신러닝 단위)는 작업 기간이 반영된 학습 단위와 일치합니다. 사용한 ML 단위를 사용해 계산할 때는 다음 공식을 사용하세요.

Consumed ML units * $0.49

예를 들면 다음과 같습니다.

  • 미주 리전의 데이터과학자가 학습 작업을 하나 실행합니다. 작업 세부정보 페이지의 사용한 ML 단위 필드에 55.75가 표시됩니다. 이러한 경우 다음과 같이 계산됩니다.

    55.75 consumed ML units * $0.49
    

    이 작업의 총 요금은 $27.32입니다.

작업 세부정보 페이지를 찾으려면 작업 목록으로 이동하여 구체적인 작업의 링크를 클릭하세요.

예측 비용에 대한 자세한 내용

AI Platform 예측은 여러 가상 머신('노드')을 실행하여 모델의 예측을 제공합니다. 기본적으로 AI Platform은 언제든지 실행 중인 노드 수를 자동으로 확장합니다. 온라인 예측의 경우 수요에 맞게 노드 수가 확장됩니다. 각 노드는 여러 예측 요청에 응답할 수 있습니다. 일괄 예측의 경우 총 작업 실행 소요 시간을 줄이기 위해 노드 수가 확장됩니다. 예측 노드 수 확장 방법을 맞춤설정할 수 있습니다.

다음을 포함해 모델에서 각 노드가 실행되는 시간에 대해 요금이 부과됩니다.

  • 노드가 일괄 예측 작업을 처리하는 시간
  • 노드가 온라인 예측 요청을 처리하는 시간
  • 노드가 온라인 예측을 제공하기 위해 준비 상태로 대기하는 시간

1시간 동안 실행되는 노드 1개의 비용을 노드 시간이라고 합니다. 예측 가격 표에 노드 시간의 가격이 나와 있습니다. 이는 리전 간에도 다르고, 온라인 예측과 일괄 예측 간에도 다릅니다.

노드 시간을 백분위수 단위로 사용할 수 있습니다. 예를 들어 30분 동안 실행되는 노드 1개의 비용은 0.5노드 시간입니다. 그러나 비용 계산에는 몇 가지 규칙이 적용됩니다.

기존(MLS1) 머신 유형 및 일괄 예측의 비용 계산

  • 노드의 실행 시간은 1분 단위로 측정되며 가장 가까운 분으로 올림 처리됩니다. 예를 들어 20.1분 동안 실행된 노드의 경우 실행 시간을 21분으로 보고 비용을 청구합니다.
  • 10분 미만으로 실행된 노드의 경우 실행 시간을 10분으로 올림합니다. 예를 들어 3분 동안만 실행된 노드의 경우 실행 시간을 10분으로 보고 비용을 청구합니다.

Compute Engine(N1) 머신 유형의 비용 계산

  • 노드의 실행 시간은 30초 단위로 청구됩니다. 즉, 30초마다 해당 시점에 노드에서 사용 중인 30초 상당의 vCPU, RAM, GPU 리소스 요금이 프로젝트에 청구됩니다.

예측 노드의 자동 확장에 대한 추가 정보

온라인 예측 일괄 예측
확장의 우선순위는 개별 요청의 지연 시간을 줄이는 데 있습니다. 요청을 처리한 후 몇 분간의 유휴 시간 동안 서비스에서 모델을 준비 상태로 유지합니다. 확장의 우선순위는 작업의 총 경과 시간을 줄이는 데 있습니다.
확장은 월별 요금 총액에 영향을 줍니다. 요청의 개수 및 빈도가 많을수록 많은 노드가 사용됩니다. 새 노드를 가동할 때 약간의 오버헤드가 발생하지만 작업 가격이 확장의 영향을 거의 받지 않아야 합니다.

트래픽에 따라 서비스가 확장되도록 선택하거나(자동 확장) 지속적으로 실행할 노드의 수를 지정해 지연을 방지할 수 있습니다(수동 확장).

  • 자동 확장을 선택하면 노드 수가 자동으로 확장되며 트래픽이 없는 기간에는 노드 수가 0개로 축소됩니다.
  • 수동 확장을 선택할 경우 항상 계속 실행할 노드 수를 지정합니다. 노드가 실행되는 시간, 즉 배포 시 시작되고 모델 버전을 삭제할 때까지 지속되는 전체 시간에 대한 요금이 부과됩니다.
일괄 예측 작업에서 사용하는 최대 노드 수를 설정하고 배포 시 모델에서 계속 실행할 노드 수를 설정해 확장에 영향을 줄 수 있습니다.

최소 10분 요금 부과

노드가 10분 미만 동안 실행되더라도 10분 동안 실행된 것으로 요금이 부과됩니다. 예를 들어 자동 확장을 사용한다고 가정하면 트래픽이 없는 기간 동안 사용 중인 노드는 0개입니다. 단일 온라인 예측 요청을 수신하면 1개 노드가 확장되어 요청이 처리됩니다. 요청이 처리된 후 준비 상태로 몇 분 동안 계속 실행됩니다. 그런 다음 실행을 멈춥니다. 노드가 10분 미만 동안 실행되더라도 이러한 노드 작업에 10노드 분(0.17노드 시간)에 대한 요금이 부과됩니다.

또는 단일 노드가 확장되어 10분 이내에 많은 온라인 예측 요청을 처리한 후 종료될 경우에도 10노드 분에 대한 요금이 부과됩니다.

수동 확장을 사용하면 특정 시간 동안 실행되는 노드 수를 정확하게 제어할 수 있습니다. 그러나 노드가 10분 미만 동안 실행되더라도 10분 동안 실행된 것으로 보고 요금이 부과됩니다.

노드 할당 및 확장에 대해 자세히 알아보세요.

예측 계산의 예

미주 리전의 부동산 업체가 사업을 진행하고 있는 리전의 주택 가격에 대한 주간 예측을 실행합니다. 한 달 동안 각각 3920, 4277, 3849, 3961로 이루어진 4주간의 일괄 예측을 실행했습니다. 작업은 1개 노드로 제한되었고, 각 인스턴스의 평균 처리 시간은 0.72초입니다.

먼저 각 작업이 실행된 시간을 계산합니다.

3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes
4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes
3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes
3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes

각 작업이 10분 넘게 실행되었으므로 처리 시간에 분 단위로 요금이 청구됩니다.

($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.06328
($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.06855
($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.06196
($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.06328

이 달의 총 요금은 $0.26입니다.

이 예에서는 작업이 단일 노드에서 실행되었으며 입력 인스턴스마다 일정한 시간이 걸렸다고 가정했습니다. 실제 사용 시에는 여러 노드를 고려하고, 각 노드가 계산을 실행하는 데 소요된 실제 시간을 사용하세요.

AI Explanations의 AI Platform 예측 요금 참고사항

AI Explanations는 AI Platform 예측 고객에게 무료로 제공됩니다. 하지만 설명은 일반적인 예측보다 처리 시간이 오래 걸리기 때문에 AI Explanations를 자동 확장과 함께 과도하게 사용할 경우 많은 노드가 시작되어 AI Platform 예측 요금이 늘어날 수 있습니다.

Cloud Storage 필수 사용

이 문서에 설명된 비용 외에도 AI Platform 수명 주기 동안 Cloud Storage 버킷에 데이터와 프로그램 파일을 저장하는 데 드는 비용도 있습니다. 이 같은 스토리지에는 Cloud Storage 가격 정책이 적용됩니다.

Cloud Storage 필수 사용에 포함되는 내용:

  • 학습 애플리케이션 패키지를 스테이징합니다.

  • 학습 입력 데이터를 저장합니다.

  • 모델 버전을 배포할 준비가 되면 모델 파일을 스테이징합니다.

  • 일괄 예측의 입력 데이터를 저장합니다.

  • 일괄 예측 작업의 출력을 저장합니다. AI Platform에서는 출력을 장기간 저장할 필요가 없습니다. 작업이 완료되는 즉시 파일을 삭제해도 됩니다.

  • 학습 작업의 출력을 저장합니다. AI Platform에서는 출력을 장기간 저장할 필요가 없습니다. 작업이 완료되는 즉시 파일을 삭제해도 됩니다.

무료 리소스 관리 작업

AI Platform에서 제공되는 리소스 관리 작업은 무료로 사용할 수 있습니다. 이러한 작업 중 일부는 AI Platform 할당량 정책의 제한을 받습니다.

리소스 무료 작업
모델 create, get, list, delete
버전 create, get, list, delete, setDefault
작업 get, list, cancel
작업 get, list, cancel, delete

다음 단계