Vision Warehouse는 개발자가 비정형 미디어 콘텐츠 (스트리밍 동영상, 이미지, 일괄 동영상)의 저장소 및 AI 기반 검색을 기존 도구 및 애플리케이션에 통합할 수 있는 API입니다.
Vision Warehouse는 Vertex AI Vision의 주요 구성요소입니다.
스토리지 저장소 역할을 하며 여러 데이터 유형과 사용 사례에 고급 검색 기능을 제공합니다. 구체적으로는 다음과 같습니다.
동영상 스트리밍: Vertex AI Vision 플랫폼 애플리케이션 또는 Vision Warehouse API를 사용하여 라이브 동영상 스트림 및 라이브 동영상 분석 데이터를 가져오고 Vision Warehouse API 또는 Google Cloud 콘솔을 사용하여 이미지를 검색할 수 있습니다.
이미지: Vision Warehouse API를 사용하여 이미지와 메타데이터를 가져오고, Vision Warehouse API를 사용하여 이미지를 분석하고, Vision Warehouse API 또는 Google Cloud 콘솔을 사용하여 이미지를 검색할 수 있습니다.
일괄 동영상: Vision Warehouse API를 사용하여 일괄 동영상 및 메타데이터를 가져오고, Vision Warehouse API를 사용하여 일괄 동영상을 분석하고, Vision Warehouse API 또는 Google Cloud 콘솔을 사용하여 일괄 동영상을 검색할 수 있습니다.
API 리소스 개요
Storage API 리소스
Corpus: 특정 유형의 미디어 애셋을 보유하는 컨테이너입니다. 여러 개의 자료 모음을 만들어 다양한 유형의 미디어 애셋을 구성할 수 있습니다.
애셋: 코퍼스 내에 저장된 미디어 객체입니다. 저작물은 이미지, 일괄 동영상 또는 동영상 스트림일 수 있습니다.
자료에는 일반적으로 동일한 유형의 저작물이 많이 포함되어 있습니다. 저작물과 연결된 주석을 지정할 수 있습니다. 저작물은 관리를 위해 컬렉션으로 그룹화할 수도 있습니다.
컬렉션: 저작물 참조의 컨테이너 역할을 하는 자료 내 리소스입니다.
주석: 저작물과 연결된 Vertex AI Vision에서 파생된 사용자 제공 메타데이터 또는 데이터입니다. 저작물에는 주석이 여러 개 있을 수 있습니다.
예 1: 일괄 동영상 저작물에 'video-title'이라는 텍스트 주석을 지정합니다.
예 2: Vertex AI Vision 모델에서 분석된 데이터를 주석으로 저장합니다. 예를 들어 여러 동영상 타임프레임의 객체 인식 라벨을 주석으로 저장할 수 있습니다.
데이터 스키마: 주석이 자료 내에서 해석되는 방식을 정의합니다. 데이터 스키마는 하나의 주석 유형과 검색 전략을 정의합니다. 각 주석은 데이터 스키마와 연결되어야 합니다.
Search API 리소스
색인 (이미지 및 일괄 동영상 카테고리에서 사용 가능): 분석된 확장 소재 및 주석의 관리형 표현인 자료 수준 리소스입니다. 색인은 미디어 콘텐츠의 의미를 나타내는 임베딩 벡터 및 시맨틱 제한의 데이터 세트로 볼 수 있습니다. 색인은 검색을 위해 색인 엔드포인트에 배포할 수 있습니다.
색인 엔드포인트 (이미지 및 일괄 동영상 카테고리에서 사용 가능): Vision 웨어하우스 색인을 제공하는 관리형 환경입니다. 색인 엔드포인트는 검색 요청을 전송하기 위한 단일 액세스 포인트를 제공합니다.
검색 구성: 검색 동작 및 검색 결과에 영향을 미치는 다양한 속성을 저장합니다.
Facet 속성 (스트리밍 동영상 카테고리에 사용 가능): 측정기준 기반 히스토그램 검색 결과를 사용 설정하는 구성을 만듭니다.
검색 기준 속성 (스트리밍 동영상 및 일괄 동영상 카테고리에 사용 가능): 맞춤 검색 기준과 하나 이상의 데이터 스키마 키 간에 매핑을 만듭니다.
검색 상위어: 단어의 상위어를 인식하는 검색 서비스의 기능을 맞춤설정할 수 있는 특정 유형의 검색 구성입니다. 예를 들어 사용자는 '고양이'와 '강아지'의 상위 용어로 '동물'을 지정할 수 있습니다. 'animal'을 검색하면 색인 데이터에 'cat' 및 'dog'가 포함된 결과도 반환됩니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-09(UTC)"],[],[],null,["# Vision Warehouse overview\n\nVision Warehouse is an API that enables developers to integrate storage\nand AI-based search of unstructured media content (streaming video, images, and\nbatch videos) into existing tools and applications.\n\nVision Warehouse is a major component of Vertex AI Vision.\nIt serves as the storage repository and provides advanced search capabilities\nfor multiple data types and use cases. Specifically:\n\n- **Streaming video**: You can import live video streams and live video analytics data using the Vertex AI Vision platform application or Vision Warehouse API, and search for images using the Vision Warehouse API or Google Cloud console.\n- **Image**: You can import image and metadata using Vision Warehouse API, analyze images using Vision Warehouse API, and search for images using the Vision Warehouse API or Google Cloud console.\n- **Batch video**: You can import batch video and metadata using the Vision Warehouse API, analyze batch video using Vision Warehouse API, and search for batch videos using the Vision Warehouse API or Google Cloud console.\n\nAPI resources overview\n----------------------\n\n### Storage API resources\n\n**Corpus**: A container that holds media assets of a particular type. You can create multiple corpora to organize different types of media assets.\n\n**Asset**: A media object stored within a corpus. Assets can be images, batch videos, or video streams.\nA corpus typically contains many assets of the same type. You can specify annotations\nassociated with assets. Assets can also be grouped into collections for management.\n\n**Collection**: A resource within a corpus that serves as a container of references to assets.\n\n**Annotation**: User-supplied metadata or data derived from Vertex AI Vision that is associated with an asset. An asset can have multiple annotations.\n\n- Example 1: Specify a text annotation named \"video-title\" for batch video assets.\n- Example 2: Store analyzed data from Vertex AI Vision models as annotations. For example, object recognition labels in different video time frames can be stored as annotations.\n\n**Data schema**: Defines how an annotation is interpreted within a corpus. A data schema defines one annotation type and its search strategy. Each annotation must be associated with a data schema.\n\n### Search API resources\n\n**Index** (available to image and batch video verticals): A corpus-level resource that is a managed representation of analyzed assets and annotations. An index can be viewed as a dataset of embedding vectors and semantic restrictions that represents the meaning of the media content. Indexes can be deployed into index endpoints for search.\n\n**Index endpoint** (available to image and batch video verticals): A managed environment that serves Vision Warehouse indexes. Index endpoints provide a single point of access for sending search requests.\n| **Important:** `Index` and `IndexEndpoint` are not available in Streaming Warehouse. Users must use the [`projects.locations.corpora.searchAssets`](/vision-ai/docs/reference/rest/v1/projects.locations.corpora/searchAssets) method to search in Streaming Warehouse.\n\n**Search Configuration**: Stores various properties that affect search behaviors and search results.\n\n- Facet property (available to streaming video vertical): Creates a configuration to enable facet-based histogram search results.\n- Search criteria property (available to streaming video and batch video verticals): Creates a mapping between a custom search criteria and one or more data schema keys.\n\n**Search Hypernym**: A specific type of search config that lets you customize the search service's ability to recognize hypernyms of words. For example, users can specify \"animal\" as a hypernym of \"cat\" and \"dog\". Searching for \"animal\" will also return results with \"cat\" and \"dog\" in the index data.\n\n### Supported languages\n\nBatch Video Warehouse and Image Warehouse support the\nfollowing languages for semantic search:\n\n- English\n- Spanish\n- Portuguese\n- French\n- Japanese\n- Chinese\n\nStreaming Warehouse does not have language restriction.\n\nWhat's next\n-----------\n\n- Understand the key API user flows for each media vertical: [streaming video](/vision-ai/docs/create-manage-streaming-warehouse), [image](/vision-ai/docs/image-warehouse-overview), and [batch video](/vision-ai/docs/batch-video-warehouse-overview).\n- Explore Vision Warehouse [Quotas](/vision-ai/quotas#warehouse-quotas) and [Limits](/vision-ai/quotas#warehouse-limits).\n- Get familiar with [Pricing](/vision-ai/pricing).\n- Discover how to obtain [support](/vision-ai/docs/getting-support)."]]