일괄 가져오기의 경우 Vertex AI Feature Store(기존)는 BigQuery의 테이블 또는 Cloud Storage의 파일에서 데이터를 가져올 수 있습니다.
전체 데이터 세트를 가져와야 하며 파티션 필터가 필요하지 않은 경우 BigQuery 테이블을 사용합니다.
데이터 세트의 특정 하위 집합을 가져와야 하는 경우 BigQuery 뷰를 사용합니다. 이 옵션은 시간 효율이 높고 데이터에서 생성된 여러 테이블을 포함하여 전체 데이터 세트에서 특정 선택 항목을 가져올 수 있습니다.
Cloud Storage에서 가져온 파일에 포함된 데이터는 AVRO 또는 CSV 형식이어야 합니다.
스트리밍 가져오기의 경우 API 요청에서 가져올 특성 값을 제공합니다.
이러한 소스 데이터 요구사항은 적용되지 않습니다. 자세한 내용은 writeFeatureValues API 참조를 확인하세요.
각 항목(또는 행)은 다음 요구사항을 준수해야 합니다.
항목 ID에 대한 열이 있어야 하며 값은 STRING 유형이어야 합니다. 이 열에는 특성 값이 있는 항목 ID가 포함됩니다.
소스 데이터 값 유형은 featurestore의 대상 특성 값 유형과 일치해야 합니다. 예를 들어 부울 값은 BOOL 유형의 특성으로 가져와야 합니다.
모든 열에는 STRING 유형의 헤더가 있어야 합니다. 헤더 이름에는 제한사항이 없습니다.
BigQuery 테이블 및 BigQuery 뷰의 경우, 열 헤더는 열 이름입니다.
AVRO의 경우 열 헤더는 이진 데이터와 연결된 AVRO 스키마로 정의됩니다.
CSV 파일의 경우 열 헤더는 첫 번째 행입니다.
특성 생성 타임스탬프 열을 제공하는 경우 다음 타임스탬프 형식 중 하나를 사용합니다.
BigQuery 테이블 및 BigQuery 뷰의 경우 타임스탬프는 TIMESTAMP 열에 있어야 합니다.
Avro의 경우 타임스탬프는 long 유형 및 timestamp-micros 논리형이어야 합니다.
CSV 파일의 경우 타임스탬프는 RFC 3339 형식이어야 합니다.
CSV 파일에는 배열 데이터 유형을 포함할 수 없습니다. 대신 Avro 또는 BigQuery를 사용하세요.
배열 유형의 경우 배열에 null 값을 포함할 수 없습니다. 그러나 빈 배열을 포함할 수는 있습니다.
특성 값 타임스탬프
일괄 가져오기의 경우 Vertex AI Feature Store(기존)에는 가져온 특성 값에 대해 사용자가 제공한 타임스탬프가 필요합니다. 각 값에 특정 타임스탬프를 지정하거나 모든 값에 동일한 타임스탬프를 지정할 수 있습니다.
특성 값의 타임스탬프가 다른 경우 소스 데이터의 열에 타임스탬프를 지정합니다. 각 행에는 특성 값이 생성된 시점을 나타내는 자체 타임스탬프가 있어야 합니다. 가져오기 요청에서 타임스탬프 열을 식별하는 열 이름을 지정합니다.
모든 특성 값의 타임스탬프가 동일한 경우 가져오기 요청에서 매개변수로 지정할 수 있습니다. 또한 소스 데이터의 열에 타임스탬프를 지정할 수도 있으며 여기서 각 행의 타임스탬프는 동일합니다.
데이터 소스 리전
소스 데이터가 BigQuery 또는 Cloud Storage에 있는 경우 소스 데이터 세트 또는 버킷은 featurestore와 동일한 리전 또는 동일한 멀티 리전 위치 내에 있어야 합니다. 예를 들어 us-central1의 featurestore는 us-central1 또는 US 멀티 리전 위치 내에 있는 Cloud Storage 버킷 또는 BigQuery 데이터 세트의 데이터만 가져올 수 있습니다. 예를 들어 us-east1에서는 데이터를 가져올 수 없습니다. 또한 이중 리전 버킷의 소스 데이터는 지원되지 않습니다.
다음 단계
Vertex AI Feature Store(기존)를 사용하도록 프로젝트 설정에 대해 알아보기
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["# Source data requirements\n\nFor batch import, Vertex AI Feature Store (Legacy) can import data from tables in\nBigQuery or files in Cloud Storage.\n\n- Use BigQuery table if you need to import the entire dataset and don't require partition filters.\n\n- Use BigQuery view if you need to import a specific subset of the dataset. This option is more time-efficient and lets you import specific selections from the entire dataset, including multiple tables generated from the data.\n\n- Data contained in files imported from Cloud Storage must be in AVRO or CSV format.\n\nFor streaming import, you provide the feature values to import in the API request.\nThese source data requirements don't apply. For more information, see the [writeFeatureValues API\nreference](/vertex-ai/docs/reference/rest/v1beta1/projects.locations.featurestores.entityTypes/writeFeatureValues).\n\nEach item (or row) must adhere to the following requirements:\n\n- You must have a column for entity IDs, and the values must be of type\n `STRING`. This column contains the entity IDs that the feature values are\n for.\n\n- Your source data value types must match the value types of the destination\n feature in the featurestore. For example, boolean values must be import into\n a feature that is of type `BOOL`.\n\n- All columns must have a header that are of type `STRING`. There are no\n restrictions on the name of the headers.\n\n - For BigQuery tables and BigQuery views, the column header is the column name.\n - For AVRO, the column header is defined by the AVRO schema that is associated with the binary data.\n - For CSV files, the column header is the first row.\n- If you provide a column for feature generation timestamps, use one of the\n following timestamp formats:\n\n - For BigQuery tables and BigQuery views, timestamps must be in the TIMESTAMP column.\n - For Avro, timestamps must be of type long and logical type timestamp-micros.\n - For CSV files, timestamps must be in the RFC 3339 format.\n- CSV files cannot include array data types. Use Avro or BigQuery\n instead.\n\n- For array types, you cannot include a null value in the array. Though, you can\n include an empty array.\n\nFeature value timestamps\n------------------------\n\nFor batch import, Vertex AI Feature Store (Legacy) requires user-provided\ntimestamps for the imported feature values. You can specify a particular\ntimestamp for each value or specify the same timestamp for all values:\n\n- If the timestamps for feature values are different, specify the timestamps in a column in your source data. Each row must have its own timestamp indicating when the feature value was generated. In your import request, you specify the column name to identify the timestamp column.\n- If the timestamp for all feature values is the same, you can specify it as a parameter in your import request. You can also specify the timestamp in a column in your source data, where each row has the same timestamp.\n\nData source region\n------------------\n\nIf your source data is in either BigQuery or Cloud Storage, the\nsource dataset or bucket must be in the same region or in the same\nmulti-regional location as your featurestore. For example, a featurestore in\n`us-central1` can import data only from Cloud Storage buckets or\nBigQuery datasets that are in `us-central1` or in the US multi-region\nlocation. You can't import data from, for example, `us-east1`. Also, source\ndata from dual-region buckets is not supported.\n\nWhat's next\n-----------\n\n- Learn about [setting up your project](/vertex-ai/docs/featurestore/setup) to use Vertex AI Feature Store (Legacy).\n- Learn how to [batch import feature values](/vertex-ai/docs/featurestore/ingesting-batch)."]]