이 기존 AI Platform Prediction 버전은 지원 중단되었으며 2025년 1월 31일 이후에는 Google Cloud에서 더 이상 사용할 수 없습니다. 모든 모델, 관련 메타데이터, 배포는 2025년 1월 31일 이후에 삭제됩니다. 리소스를 Vertex AI로 마이그레이션하여 AI Platform에서 사용할 수 없는 새로운 머신러닝 기능을 사용하세요.
AI Platform Prediction이 학습된 모델에서 예측을 수행하는 두 가지 방법은 온라인 예측(HTTP 예측이라고도 함)과 일괄 예측입니다. 두 방법 모두 클라우드 호스트 머신러닝 모델에 입력 데이터를 전달하고 각 데이터 인스턴스에 대한 추론을 얻습니다. 차이는 다음 표에서 확인하실 수 있습니다.
온라인 예측
일괄 예측
예측 서비스 지연을 최소화하도록 최적화되었습니다.
한 작업에서 대량의 인스턴스를 처리하고 더욱 복잡한 모델을 실행할 수 있도록 최적화되었습니다.
요청당 하나 이상의 인스턴스를 처리할 수 있습니다.
요청당 하나 이상의 인스턴스를 처리할 수 있습니다.
응답 메시지에 예측이 반환됩니다.
지정한 Cloud Storage 위치의 출력 파일에 예측이 작성됩니다.
입력 데이터가 JSON 문자열로 직접 전달됩니다.
입력 데이터는 Cloud Storage 위치에 있는 하나 이상의 파일 URI로 간접 전달됩니다.
간단한 모델과 소량의 입력 인스턴스 집합을 이용할 경우 온라인 예측과 일괄 예측의 예측 요청 완료 시간에 상당한 차이가 있음을 알 수 있습니다. 온라인 예측 요청 결과는 거의 즉각적으로 반환되지만, 일괄 예측 요청 결과는 몇 분 후 반환될 수 있습니다. 두 예측 방법에 사용되는 인프라가 다르기 때문입니다. AI Platform Prediction은 요청을 보낼 때 일괄 예측 작업용 리소스를 할당하고 초기화합니다.
온라인 예측은 일반적으로 요청 시점에 처리 준비가 완료됩니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-04-11(UTC)"],[[["\u003cp\u003eAI Platform Prediction offers online prediction for low-latency, real-time inferences and batch prediction for high-volume, asynchronous processing of data.\u003c/p\u003e\n"],["\u003cp\u003eOnline prediction returns inferences directly in the response message and is optimized for minimal latency, while batch prediction writes results to Cloud Storage and is ideal for accumulated data without immediate result requirements.\u003c/p\u003e\n"],["\u003cp\u003eOnline prediction receives input data as a JSON string and is typically ready to process at the time of request, whereas batch prediction uses files in Cloud Storage and allocates resources upon request.\u003c/p\u003e\n"],["\u003cp\u003eOnline prediction supports various virtual machine types for prediction nodes and a wider range of model types, while batch prediction has a fixed machine type and supports fewer model types.\u003c/p\u003e\n"],["\u003cp\u003eOnline prediction is suitable for application input or scenarios requiring timely inference, while batch prediction is preferred for scheduled jobs or when immediate results are not necessary.\u003c/p\u003e\n"]]],[],null,[]]