이제 Cloud Data Loss Prevention(Cloud DLP)은 민감한 정보 보호에 포함됩니다. API 이름은 Cloud Data Loss Prevention API(DLP API)로 그대로 유지됩니다. 민감한 정보 보호를 구성하는 서비스에 대한 자세한 내용은 민감한 정보 보호 개요를 참조하세요.
민감한 정보 보호 검색을 사용하면 S3에 저장 중인 데이터 유형과 데이터의 민감도 수준을 파악할 수 있습니다. S3 데이터를 프로파일링하면 S3 버킷에 관한 통계와 메타데이터를 제공하는 파일 스토어 데이터 프로필이 생성됩니다. 각 S3 버킷의 경우 파일 저장소 데이터 프로필에는 다음 정보가 포함됩니다.
검색 서비스에서 데이터를 프로파일링하면 S3 버킷의 데이터 샘플이 스캔됩니다. 디스커버리는 휴리스틱 방법을 사용하여 각 버킷과 특정 파일 내에서 샘플링할 데이터의 양을 결정합니다. 이 과정에서 일부 데이터가 Sensitive Data Protection의 콘텐츠 검사 서비스를 사용하여 전송되고 검사됩니다. Google Cloud 대부분의 경우 간헐적인 오류가 없으면 각 버킷에 대해 전송되고 스캔된 데이터가 30GB를 초과하지 않습니다. 각 버킷에 대해 샘플링된 데이터는 30GB 미만일 수 있습니다.
민감한 정보 보호팀의 요청
민감한 정보 보호는 S3 버킷을 프로파일링하는 과정에서 다음 작업을 실행합니다.
프로파일링된 S3 버킷당 하루에 약 50회의 LIST 요청
프로파일링된 버킷의 최대 7,000개 파일에 대해 파일당 약 4개의 GET 요청
민감한 정보 보호는 일반적으로 100,000회 미만의 GET 호출을 실행합니다. 비용 최적화 시 이 값에 의존하지 마세요. 이 값은 향후 변경될 수 있습니다.
AWS에서 요청 1,000개당 청구하는 가격은 S3 버킷의 지역에 따라 다릅니다. 자세한 내용은 Amazon S3 가격 책정 문서의 요청 및 데이터 검색을 참고하세요.
S3에서 인터넷으로의 데이터 전송
민감한 정보 보호에서 S3 데이터를 프로파일링하면 데이터가 S3에서 인터넷으로 전송되는 것으로 간주됩니다. AWS 요금이 부과될 수 있습니다. 자세한 내용은 Amazon S3 가격 책정 문서의 Amazon S3에서 인터넷으로의 데이터 전송을 참고하세요.
계산 예시
미국 동부 (버지니아 북부)에서 S3 표준 버킷 10개를 프로파일링하려고 한다고 가정해 보겠습니다.
버지니아) 리전에서 다음과 같이 검색 작업과 직접 관련된 Amazon 비용을 추정할 수 있습니다.
예: 요청 및 데이터 검색
버킷당 예상 요청 수
버킷 10개에 대한 예상 요청 수
Amazon 요금
소계
LIST
50
500
호출 1,000회당 $0.005
0.005
GET
28,000
280,000
호출 1,000회당 $0.0004
0.112
합계
0.117
예: Amazon S3에서 인터넷으로 데이터 전송
버킷당
샘플링된 데이터
Amazon 요금
버킷당 가격
최대 30GB
1GB당 $0.09
최대 $2.70
데이터 보존 고려사항
다른 클라우드 제공업체의 데이터를 프로파일링할 계획이라면 다음 사항을 고려하세요.
데이터 프로필은 검색 스캔 구성과 함께 저장됩니다. 반면 Google Cloud 데이터를 프로파일링하면 프로필은 프로파일링할 데이터와 동일한 리전에 저장됩니다.
검사 템플릿을 global 리전에 저장하면 디스커버리 스캔 구성을 저장한 리전에서 해당 템플릿의 메모리 내 사본이 읽힙니다.
데이터가 수정되지 않습니다. 데이터의 메모리 내 사본은 검색 스캔 구성을 저장하는 리전에서 읽습니다. 하지만 민감한 정보 보호는 데이터가 공개 인터넷에 도달한 후 데이터가 통과하는 위치를 보장하지 않습니다. 데이터는 SSL로 암호화됩니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-09(UTC)"],[],[],null,["# Sensitive data discovery for Amazon S3\n\nThis page describes Sensitive Data Protection discovery for use with\nAmazon S3. This feature is available only to customers who have\n[activated Security Command Center at the Enterprise\ntier](/security-command-center/docs/activate-enterprise-tier).\n\nSensitive Data Protection discovery helps you learn about the types\nof data that you're storing in S3 and the sensitivity\nlevels of your data. When you profile your S3 data, you\ngenerate *file store data profiles*, which provide insights and metadata about\nyour S3 buckets. For each S3 bucket,\na file store data profile includes the following information:\n\n- The types of files that you're storing in the bucket, categorized into [file\n clusters](/sensitive-data-protection/docs/supported-file-types#file_clusters)\n- The sensitivity level of the data in the bucket\n- A summary about each detected file cluster, including the types of sensitive information found\n\nFor a full list of insights and metadata in each file store data profile, see\n[File store data\nprofiles](/sensitive-data-protection/docs/metrics-reference#file-store-data-profile).\n\nFor more information about the discovery service, see [Data\nprofiles](/sensitive-data-protection/docs/data-profiles).\n\nWorkflow\n--------\n\nThe high-level workflow for profiling Amazon S3 data is as follows:\n\n1. In Security Command Center, [create a connector for Amazon Web Services\n (AWS)](/security-command-center/docs/connect-scc-to-aws). Make sure that you\n select the **Grant permissions for Sensitive Data Protection discovery**\n checkbox and follow the instructions to configure the connector with\n sensitive data discovery permissions.\n\n If you already have a connector that doesn't have **Grant permissions for\n Sensitive Data Protection discovery** selected, see [Grant sensitive data\n discovery permissions to an existing AWS\n connector](/security-command-center/docs/connect-scc-to-aws#grant-sdp-permissions-existing-connector).\n2. [Create an inspection\n template](/sensitive-data-protection/docs/creating-templates-inspect#create_a_new_inspection_template)\n in the `global` region or the region where you plan to store the discovery\n scan configuration and all generated data profiles.\n\n3. [Create a discovery scan configuration for Amazon S3](/sensitive-data-protection/docs/profile-amazon-s3).\n\n Sensitive Data Protection profiles your data according to the schedule\n that you specify.\n\nPricing\n-------\n\nWhen you profile Amazon S3 data, AWS charges you for [requests that\nSensitive Data Protection makes](#requests-to-amazon) and for [data transfers\nfrom S3 to the internet](#data-transfers-from-amazon-s3).\n\nWhen the discovery service profiles your data, it scans a sample of the data in\nyour S3 bucket. Discovery uses heuristic methods to\ndetermine how much data to sample in each bucket and within specific files. In\nthis process, some data is transferred to Google Cloud and inspected using\nthe [content inspection\nservice](/sensitive-data-protection/docs/concepts-method-types#content-methods) of\nSensitive Data Protection. In most cases, if there are no intermittent errors,\nthe data transferred and scanned for each bucket does not exceed 30 GB. The data\nsampled for each bucket can be less than 30 GB.\n\n### Requests from Sensitive Data Protection\n\nSensitive Data Protection performs the following operations in the process of\nprofiling your S3 buckets:\n\n- Around 50 `LIST` requests per day per profiled S3 bucket.\n- Around 4 `GET` requests per file for up to 7,000 files in a profiled bucket. Sensitive Data Protection generally makes under 100,000 `GET` calls. Don't rely on this value when optimizing for cost; this value might change in the future.\n\nThe price that AWS charges per 1,000 requests differs based on the region of the\nS3 bucket. For more information, see *Requests \\& data\nretrievals* in the [Amazon S3 pricing\ndocumentation](https://aws.amazon.com/s3/pricing/).\n\n### Data transfers from S3 to the internet\n\nWhen Sensitive Data Protection profiles S3 data, the\ndata is considered to be transferred from S3 to the\ninternet. AWS charges may apply. For more information, see *Data Transfer OUT\nFrom Amazon S3 To Internet* in the [Amazon S3 pricing\ndocumentation](https://aws.amazon.com/s3/pricing/).\n\n### Example calculations\n\nSuppose that you want to profile 10 S3 Standard buckets in the US East (N.\nVirginia) region. You can estimate the Amazon costs that are directly related to\nthe discovery operation as follows.\n| **Important:** These rates are provided for illustration purposes only. You are responsible for calculating your Amazon costs using the latest rates and pricing policies in the Amazon pricing documentation.\n\n#### Example: Requests and data retrievals\n\n#### Example: Data transfer out from Amazon S3 to the internet\n\nData residency considerations\n-----------------------------\n\nConsider the following when you plan to profile data from\nother cloud providers:\n\n- The data profiles are stored alongside the discovery scan configuration. In contrast, when you profile Google Cloud data, the profiles are stored in the same region as the data to be profiled.\n- If you store your inspection template in the `global` region, an in-memory copy of that template is read in the region where you store the discovery scan configuration.\n- Your data is not modified. An in-memory copy of your data is read in the region where you store the discovery scan configuration. However, Sensitive Data Protection makes no guarantees about where the data passes through after it reaches the public internet. The data is encrypted with SSL.\n\nWhat's next\n-----------\n\n- [Profile Amazon S3 data](/sensitive-data-protection/docs/profile-amazon-s3)"]]