Vertex AI는 예측을 요청한 후 모델의 목표에 따라 결과를 반환합니다. AutoML 이미지 객체 감지 예측 응답은 이미지에서 찾은 모든 객체를 반환합니다. 발견된 각 객체에는 해당 신뢰도 점수가 있는 주석(라벨 및 정규화된 경계 상자)이 있습니다. 경계 상자가 다음과 같이 작성됩니다.
"bboxes": [
[xMin, xMax, yMin, yMax],
...]
여기서 xMin, xMax는 최소 및 최대 x값이고
yMin, yMax는 각각 최소 및 최대 y값입니다.
일괄 예측 출력 예시
일괄 AutoML 이미지 객체 감지 예측 응답은 Cloud Storage 버킷에 JSON Line 파일로 저장됩니다. JSON Line 파일의 각 줄에는 단일 이미지 파일에서 발견된 모든 객체가 포함됩니다. 발견된 각 객체에는 해당 신뢰도 점수가 있는 주석(라벨 및 정규화된 경계 상자)이 있습니다.
중요: 경계 상자는 다음과 같이 지정됩니다.
"bboxes": [
[xMin, xMax, yMin, yMax],
...]
여기서 xMin 및 xMax는 최소 및 최대 x값이고
yMin 및 yMax는 각각 최소 및 최대 y값입니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["# Interpret prediction results from image object detection models\n\nAfter requesting a prediction, Vertex AI returns results based on your model's objective. AutoML image object detection prediction responses return all objects found in an image. Each found object has an annotation (label and normalized bounding box) with a corresponding confidence score. The bounding box is written as:\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\n`\n\"bboxes\": [\n[xMin, xMax, yMin, yMax],\n...]\n`\nWhere `xMin, xMax` are the minimum and maximum x values and `\nyMin, yMax` are the minimum and maximum y values respectively.\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n#### Example batch prediction output\n\nBatch AutoML image object detection prediction responses are stored as\nJSON Lines files in Cloud Storage buckets. Each line of the JSON Lines\nfile\ncontains all objects found in a single image file. Each found object has\nan annotation (label and normalized bounding box) with a corresponding\nconfidence score.\n| **Note: Zero coordinate values omitted.** When the API detects a coordinate (\"x\" or \"y\") value of 0, ***that coordinate is omitted in the\n| JSON response*** . Thus, a response with a bounding poly around the entire image would be \n| **\\[{},{\"x\": 1,\"y\": 1}\\]** . For more information, see [Method: projects.locations.models.predict](https://cloud.google.com/automl/docs/reference/rest/v1/projects.locations.models/predict#boundingpoly).\n\n\n| **Note**: The following JSON Lines example includes line breaks for\n| readability. In your JSON Lines files, line breaks are included only after each\n| each JSON object.\n\n\u003cbr /\u003e\n\n\n\u003cbr /\u003e\n\n**Important:** Bounding boxes are specified as:\n\n\n`\n\"bboxes\": [\n[xMin, xMax, yMin, yMax],\n...]\n`\nWhere `xMin` and `xMax` are the minimum and maximum x values and `\nyMin` and `yMax` are the minimum and maximum y values respectively.\n\n\u003cbr /\u003e\n\n```\n{\n \"instance\": {\"content\": \"gs://bucket/image.jpg\", \"mimeType\": \"image/jpeg\"},\n \"prediction\": {\n \"ids\": [1, 2],\n \"displayNames\": [\"cat\", \"dog\"],\n \"bboxes\": [\n [0.1, 0.2, 0.3, 0.4],\n [0.2, 0.3, 0.4, 0.5]\n ],\n \"confidences\": [0.7, 0.5]\n }\n}\n```"]]