레이크 서비스 계정에는 Cloud Storage 버킷 또는 BigQuery 데이터 세트에 대한 관리자 권한이 필요합니다.
Dataplex Universal Catalog는 Cloud Storage에서 검색된 테이블에 대해 BigQuery에 외부 테이블을 만듭니다. 또한 Dataproc Metastore 서비스에 사용 가능한 BigQuery 테이블 메타데이터 및 Cloud Storage 버킷에서 검색된 테이블을 만듭니다. Dataproc Metastore는 데이터 레이크 프로젝트 내에 있습니다.
Cloud Storage 설정 및 제한사항
리전: Dataplex Universal Catalog는 일부 Google Cloud 리전에서 단일 리전 및 멀티 리전 버킷을 지원합니다.
스토리지 클래스: 모든 스토리지 클래스의 Cloud Storage 버킷이 지원됩니다(Standard, Nearline, Coldline, Archive).
Nearline, Coldline, Archive 데이터 액세스 또는 스캔에 대해 데이터 검색 비용이 추가로 발생할 수 있습니다.
요청자 지불: 요청자 지불 기능이 사용 설정된 Cloud Storage 버킷은 지원되지 않습니다.
보안 및 권한 안내
Dataplex Universal Catalog를 사용하려면 관리형 버킷 및 데이터 세트에 Dataplex Universal Catalog 서비스 계정을 관리 서비스 계정으로 추가해야 합니다.
Dataplex Universal Catalog를 사용하면 분석가가 여러 프로젝트에서 Cloud Storage 버킷과 BigQuery 데이터 세트에 액세스할 수 있습니다. 이 액세스를 지원하려면 Dataplex Universal Catalog에서 해당 프로젝트에 대한 관리 제어 기능이 있는 Dataplex Universal Catalog 서비스 계정을 추가해야 합니다.
검색을 위해 Dataplex Universal Catalog는 Cloud Storage 버킷에 Dataproc Metastore 서비스 계정을 추가합니다. 자체 Dataproc Metastore 클러스터가 있는 경우 레이크를 만들 때 Dataplex Universal Catalog 레이크가 Dataproc Metastore 서비스를 사용하도록 하는 옵션을 선택할 수 있습니다.
레이크에 대한 세분화된 액세스 권한을 갖는 Cloud Storage 버킷을 추가하면, 버킷의 모든 객체에 Dataplex Universal Catalog 권한이 전파되므로 Dataplex Universal Catalog가 레이크를 통해 해당 버킷에 대한 전체 액세스 권한을 제공합니다. 세분화된 액세스 권한이 필요한 경우 버킷의 데이터를 여러 버킷으로 분할하는 것이 좋습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-08-19(UTC)"],[[["\u003cp\u003eDataplex lakes must reside within a project that shares the same VPC Service Controls perimeter as the data, and the lake service account needs admin permissions on the associated Cloud Storage buckets or BigQuery datasets.\u003c/p\u003e\n"],["\u003cp\u003eDataplex supports single region and multi-region Cloud Storage buckets of all storage classes, but only with uniform access controls and without the Requester Pays feature enabled.\u003c/p\u003e\n"],["\u003cp\u003eTo allow access to Cloud Storage buckets and BigQuery datasets across multiple projects, Dataplex service accounts require administrative controls on those projects.\u003c/p\u003e\n"],["\u003cp\u003eDataplex provides full access to any Cloud Storage bucket with fine-grained access added to a lake, recommending data be split into multiple buckets for fine-grained access needs.\u003c/p\u003e\n"],["\u003cp\u003eAvoid restricting VPC peering with organization policy constraints as it can cause errors with Dataproc Metastore.\u003c/p\u003e\n"]]],[],null,["# Best practices for Dataplex Universal Catalog\n\nThis document provides guidance and best practices for using\nDataplex Universal Catalog.\n\nChoose a project for your lake\n------------------------------\n\nWhen you select the project in which to host your lake, consider the following\nfactors:\n\n- The project must belong to the same\n [VPC Service Controls perimeter](/vpc-service-controls/docs/service-perimeters)\n as the data destined to be within the lake.\n\n- The lake service account requires administrator permissions on the\n Cloud Storage buckets or BigQuery datasets.\n Dataplex Universal Catalog creates external tables in BigQuery for\n tables discovered in Cloud Storage. Dataplex Universal Catalog also makes\n available BigQuery table metadata, and tables discovered in the\n Cloud Storage bucket, in a Dataproc Metastore service. The\n Dataproc Metastore is located within the data lake project.\n\nCloud Storage settings and limitations\n--------------------------------------\n\n- Region: Dataplex Universal Catalog supports single region and\n multi-region buckets in some [Google Cloud regions](/dataplex/docs/locations).\n\n- Storage class: Cloud Storage buckets of all\n [storage classes](/storage/docs/storage-classes) are supported\n (Standard, Nearline, Coldline, Archive).\n Additional data retrieval costs might incur for accessing or scanning\n Nearline, Coldline, or Archive data.\n\n- Bucket ACL: Dataplex Universal Catalog supports Cloud Storage buckets with\n [uniform access controls](/storage/docs/uniform-bucket-level-access) only.\n Fine-grained access controls aren't supported.\n\n- Requester Pays: Cloud Storage buckets with the\n [Requester Pays](/storage/docs/requester-pays) feature enabled aren't\n supported.\n\nSecurity and permissions guidance\n---------------------------------\n\nDataplex Universal Catalog requires adding the Dataplex Universal Catalog\n[service accounts](/dataplex/docs/iam-and-access-control#service-accounts)\nas an administrative service account on managed buckets and datasets.\n\nDataplex Universal Catalog enables analysts to access Cloud Storage buckets\nand BigQuery datasets across many projects. To enable this access,\nDataplex Universal Catalog requires adding the Dataplex Universal Catalog service\naccounts with administrative controls to these projects.\n\nFor Discovery, Dataplex Universal Catalog adds the\nDataproc Metastore service account to the Cloud Storage\nbuckets. If you have your own Dataproc Metastore cluster, you\nmight want to make the Dataplex Universal Catalog lake use your\nDataproc Metastore service, which is an option when you create\nyour lake.\n| **Note:** Don't set the [organization policy constraints](/resource-manager/docs/organization-policy/org-policy-constraints) to restrict VPC peering. If you specify `constraints/compute.restrictVpcPeering`, your Dataproc Metastore creation request fails with an `INVALID_ARGUMENT` error.\n\nIf you choose to add a Cloud Storage bucket with\n[fine-grained](/storage/docs/access-control) access to a lake,\nDataplex Universal Catalog will provide full access to that bucket through the lake\nbecause Dataplex Universal Catalog permissions are propagated to all objects in the\nbucket. If you require fine-grained access, it's recommended that you split\nthe data in your bucket into multiple buckets.\n\nWhat's next\n-----------\n\n- [Build a data mesh](/dataplex/docs/build-a-data-mesh)\n- [Create a lake](/dataplex/docs/create-lake)\n- [Secure your lake](/dataplex/docs/lake-security)"]]