벡터 검색을 사용하기 전에 임베딩을 선택하고 데이터를 준비하며 사용할 엔드포인트 유형을 결정해야 합니다. 이 페이지에서는 이러한 작업에 관한 몇 가지 정보를 제공합니다.
임베딩 준비
벡터 검색을 사용하려면 임베딩이 있어야 합니다.
이미 임베딩이 있으면 엔드포인트 선택으로 건너뜁니다.
임베딩을 만들려면 다음을 수행합니다.
임베딩 모델 선택: 서로 다른 기능을 제공하는 사용 가능한 외부 임베딩이 많이 있습니다.
벡터 검색은 밀집 임베딩, 희소 임베딩, 하이브리드 검색을 지원합니다. 하이브리드 검색은 임베딩 유형에 지정한 가중치에 따라 밀집 및 희소 엠비딩을 사용합니다.
사용 사례에 따라 다음 모델 유형 중 하나를 선택합니다.
즉시 사용 가능: 텍스트 또는 이미지만의 관련성에 따라 텍스트 대 텍스트 또는 이미지와 텍스트를 의미상 일치시키려는 경우. 이는 표준 사용 사례이므로 모델을 학습시키거나 조정할 필요가 없습니다
이 사용 사례에 권장되는 옵션은 Vertex AI의 생성형 AI입니다. Vertex AI의 생성형 AI는 밀집 임베딩 모델을 지원합니다.
임베딩을 위한 커스텀 모델: 자체 데이터나 특정 사용 사례를 기반으로 일치시키려는 경우
데이터 준비: 데이터가 임베딩 모델에서 사용할 수 있는 형식인지 확인하기 위해 데이터를 정리하고 사전 처리합니다.
커스텀 모델을 사용하는 경우 임베딩 모델 학습: 커스텀 임베딩 모델(조정)을 사용하도록 선택한 경우 데이터로 학습시켜야 합니다.
데이터 크기와 복잡성에 따라 이를 처리하는 데 시간이 오래 걸릴 수 있습니다. Model Garden에서 선행 학습된 모델을 사용하는 경우 이 단계를 건너뛰어도 됩니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-10(UTC)"],[],[],null,["# Before you begin\n\nBefore you start using Vector Search, you need to choose an embedding\nmodel, prepare your data, and decide what type of endpoint you'll use. This page\nprovides some information about doing those things.\n\nPrepare your embeddings\n-----------------------\n\nTo use Vector Search, you need to have your embeddings ready.\nIf you already have your embeddings, skip to [Choose an\nendpoint](/vertex-ai/docs/vector-search/setup/setup#choose-endpoint).\n\nTo create your embeddings, do the following:\n\n1. **Choose an embedding model**: There are many external embedding\n models available, which offer different features.\n\n Vector Search supports dense embeddings, sparse embeddings,\n and hybrid search. Hybrid search uses dense and\n sparse embeddings according to the weight that you specify for those\n embedding types.\n\n Depending on your use case, choose one of the following type of model:\n - **Ready-to-use** :\n If you want to semantically match text to text or text to images by the\n relevance of the text or image alone. This is a standard use case, so you\n don't need to train or tune the model.\n [Generative AI on Vertex AI](/vertex-ai/generative-ai/docs/embeddings/get-text-embeddings)\n is a recommended option for this use case. Generative AI on Vertex AI uses\n dense embedding models.\n\n - **Custom model for embeddings**: If you want to match based on\n your own data or specific use case.\n\n2. **Prepare your data**: Clean and preprocess your data to\n ensure that it's in a format that can be used by the embedding model.\n\n3. **Train the embedding model if you use a custom model** : If you choose to\n use a custom embeddings model (tuning), you need to train it on your data.\n This can be a time-consuming process that depends on the size and complexity\n of your data. If you use a pretrained model from the\n [Model Garden](/vertex-ai/generative-ai/docs/model-garden/explore-models),\n then you can skip this step.\n\n4. **Generate embeddings**: After the model is trained, use it to generate\n embeddings for your data.\n\nChoose an endpoint\n------------------\n\nAfter you have created your index, you'll deploy it to an endpoint. For\nmore information, see [Deploy and manage public index\nendpoints](/vertex-ai/docs/vector-search/deploy-index-public) and [Deploy and manage\nindex endpoints in a VPC network](/vertex-ai/docs/vector-search/deploy-index-vpc). It's\nhelpful to decide what kind of endpoint you'll need before you\ncreate your index.\n\nYou can deploy your query index to one of the following:\n\n- **Public endpoint**: If you deploy to a public endpoint, you don't need to\n set up your network. Public networks have slightly higher latency, but are\n faster to set up and easier to maintain.\n\n- **Private Endpoint**: If you want to use a VPC, you must first\n set up networking. Vector Search supports two types of private\n network.\n\n - [VPC Network Peering connection](/vertex-ai/docs/vector-search/setup/vpc)\n for reduced network latency.\n\n - [Private service\n connect](/vertex-ai/docs/vector-search/setup/private-service-connect)\n for private consumption of services across VPC\n networks that belong to different groups, teams, projects, or\n organizations.\n\nWhat's next\n-----------\n\nAfter you've generated your embeddings and decided where to deploy your\nindex, the next step is to configure your index.\n\n- Learn how to configure [input data format and structure](/vertex-ai/docs/vector-search/setup/format-structure)\n- Learn how to create a Vector Search index using [notebook tutorials](/vertex-ai/docs/vector-search/notebooks)\n- Learn how to [manage indexes](/vertex-ai/docs/vector-search/create-manage-index)"]]