Cloud Machine Learning Engine

우수한 모델을 빌드하고 프로덕션에 배포

영업 팀에 문의하기 무료로 사용해 보기

AI Platform의 일부가 된 Cloud ML Engine

Cloud Machine Learning Engine은 개발자와 데이터과학자가 프로덕션 환경에서 우수한 머신러닝 모델을 개발하고 실행하도록 도와주는 관리형 서비스입니다. Cloud ML Engine은 함께 또는 따로 사용할 수 있는 학습 및 예측 서비스를 제공합니다. 위성 이미지 속 구름을 파악하는 일부터 식품 안전을 보장, 고객 이메일에 4배 더 빠르게 응답하는 일까지 기업의 여러 문제를 해결하는 데 사용된 서비스입니다. 이제 ML Engine의 학습 및 예측 서비스를 AI Platform Training 및 AI Platform Prediction이라고 부릅니다. 자세한 내용은 AI Platform 페이지를 참조하세요.

Cloud ML Engine

빌드

AI Platform Notebooks를 사용해 머신러닝 프로젝트를 빌드해 보세요. GCP의 서버리스 환경에서 Cloud ML Engine 학습 서비스를 사용하여 모델 학습을 확장할 수 있습니다. Cloud ML Engine에서는 많이 사용되는 ML 프레임워크를 지원하며 Docker 이미지로 애플리케이션을 실행할 수도 있습니다. 또한 기본적으로 제공되는 도구를 통해 모델을 이해하고 비즈니스 사용자에게 효과적으로 설명할 수 있습니다.

빌드

배포

학습된 모델이 있으면 Cloud ML Engine에서 2가지 유형의 예측을 제공하여 컴퓨터에서 학습한 내용을 새로운 사례에 적용할 수 있습니다.

온라인 예측은 가용성이 높고 실시간으로 응답하는 완전 관리형 서버리스 호스팅을 통해 ML 모델을 배포합니다. Google의 글로벌 예측 플랫폼은 처리량에 맞게 자동으로 조정되며 ML과 애플리케이션 통합을 위한 안전한 웹 엔드포인트를 제공합니다.

일괄 예측은 비동기식 애플리케이션에 적합한 독보적인 처리량으로 비용 효과적인 추론을 제공합니다. 테라바이트 규모의 프로덕션 데이터에 추론을 할 수 있도록 확장됩니다.

배포

특징

커스텀 컨테이너 지원
Cloud ML Engine에서는 TensorFlow와 같이 많이 사용되는 프레임워크를 기본적으로 지원함은 물론, 다른 프레임워크도 실행할 수 있습니다. 학습 프로그램으로 Docker 컨테이너를 업로드하면 Cloud ML Engine이 Google 인프라에 맞춰 처리해 줍니다.
분산형 학습
데이터 및 모델이 지나치게 커서 단일 머신으로는 시간 내에 작업을 완료할 수 없을 때가 있습니다. Cloud ML Engine은 여러 머신에서 실행할 수 있도록 XGBoost 및 TensorFlow용 환경을 자동으로 설정해 주므로 여러 GPU를 학습 작업에 추가하거나 여러 VM에 분할하여 필요한 속도를 확보할 수 있습니다.
자동 리소스 프로비저닝
Cloud ML Engine은 모든 리소스 프로비저닝 및 모니터링을 자동화하고 CPU, GPU, TPU를 지원하는 관리형 분산 학습 인프라를 사용해 모델을 빌드하며 여러 노드의 학습 또는 다양한 실험의 동시 실행으로 모델 개발 속도를 높여주는 관리형 서비스입니다. 따라서 인프라 걱정 없이 모델 개발과 배포에 집중할 수 있습니다.
HyperTune
HyperTune을 통해 딥 러닝 초매개변수를 자동으로 조정하여 뛰어난 결과를 더 빠르게 얻을 수 있습니다. 데이터과학자들은 클라우드에서 수천 개의 조정 실험을 관리하는 경우가 많습니다. 지루하고 오류가 발생하기 쉬운 작업에 걸리는 많은 시간을 HyperTune으로 절약할 수 있습니다.
이식 가능한 모델
오픈소스 TensorFlow SDK 또는 지원되는 다른 ML 프레임워크를 사용하여 샘플 데이터세트로 모델을 로컬에서 학습시키고, Google Cloud Platform을 규모에 맞춘 학습에 사용할 수 있습니다. Cloud ML Engine으로 학습시킨 모델을 다운로드하여 로컬에서 실행하거나 모바일로 통합할 수 있습니다. 또한 Docker 컨테이너 없이도 학습된 scikit-learn, XGBoost, Keras, TensorFlow 모델을 어디서나 가져와 완전 관리형 실시간 예측 호스팅을 구현할 수 있습니다.
서버 측 사전 처리
scikit-learn 파이프라인 및 tf.transform을 사용하여 배포 사전 처리를 Google Cloud로 푸시합니다. 즉, 프로덕션 환경에서 모델에 원시 데이터를 보내고 로컬 계산을 줄이는 한편 학습과 예측에서 다른 사전 처리를 사용해 데이터 편향이 생기는 일을 방지할 수 있습니다.
통합
Cloud ML Engine은 특성 처리를 위한 Cloud Dataflow, 대시보드 지원 및 분석을 위한 BigQuery, 데이터 저장을 위한 Cloud Storage 등 Google의 관리형 노트북 서비스 및 머신러닝용 데이터 서비스와 긴밀하게 통합되어 있습니다.
여러 프레임워크
학습 및 온라인 예측은 분류, 회귀, 클러스터링, 차원 축소 모델을 학습시키고 제공하는 여러 프레임워크를 지원합니다.
  • scikit-learn - 광범위하면서도 단순한 일반 머신러닝에 적합
  • XGBoost - 간편하고 정확한 eXtreme Gradient Boosting에 적합
  • Keras - 쉽고 빠른 딥 러닝 프로토타입 제작에 적합
  • TensorFlow - 최첨단 딥 러닝 성능에 적합

"Google Cloud Machine Learning Engine을 사용한 후, 위성에서 캡처한 이미지에서 시각적 이상이 있는 부분을 수정하는 속도와 정확도를 개선할 수 있었습니다. 그 덕에 수십 년 동안 지속된 문제가 해결되어 앞으로도 Airbus Defence and Space는 현재 활용 가능한 상업용 지구 관측 데이터 중 가장 포괄적인 범위의 자료를 독보적으로 제공할 수 있게 되었습니다."

- 마티아스 오트너 Airbus Defence and Space 데이터 분석 및 이미지 처리 책임자

가격 책정

Cloud ML Engine은 ML 모델 학습 및 학습된 모델을 사용한 예측 실행에 비용을 청구합니다. 자세한 가격 정보는 가격 책정 가이드를 참조하세요.

미국 유럽 아시아
학습 - 사전 정의된 확장 등급 - 시간당 가격 학습 - AI Platform 머신 유형 - 시간당 가격 학습 - Compute Engine 머신 유형 - 시간당 가격 학습 - 가속기 - 시간당 가격
BASIC standard n1-standard-4 NVIDIA_TESLA_K80
STANDARD_1 large_model n1-standard-8 NVIDIA_TESLA_P4(베타)
PREMIUM_1 complex_model_s n1-standard-16 NVIDIA_TESLA_P100
BASIC_GPU complex_model_m n1-standard-32 NVIDIA_TESLA_T4(베타)
BASIC_TPU complex_model_l n1-standard-64 NVIDIA_TESLA_V100
CUSTOM 머신 유형 표를 참조하세요. standard_gpu n1-standard-96 TPU_V2 코어 8개*
complex_model_m_gpu n1-highmem-2 일괄 예측 - 노드 시간당 가격
complex_model_l_gpu n1-highmem-4
standard_p100 n1-highmem-8 온라인 예측 - 머신 유형 - 노드 시간당 가격
complex_model_m_p100 n1-highmem-16 mls1-c1-m2 (default)
standard_v100 n1-highmem-32 mls1-c4-m2 (Beta)
large_model_v100 n1-highmem-64
complex_model_m_v100 n1-highmem-96
complex_model_l_v100 n1-highcpu-16
cloud_tpu* n1-highcpu-32
n1-highcpu-64
n1-highcpu-96
USD 외의 통화로 지불하면 Cloud Platform SKU에 해당 통화로 표기된 가격이 적용됩니다.

다음에 대한 의견 보내기...

Cloud Machine Learning Engine(Cloud ML Engine)