민감한 정보의 보호와 관리는 먼저 해당 정보가 어디에 있는지 파악하는 것에서 출발합니다. 이 위치를 파악하고 있으면 신용카드 번호, 의료 정보, 주민등록번호, 운전면허증 번호, 주소, 본명, 회사 보안 비밀과 같은 민감한 세부정보가 유출되는 위험을 줄일 수 있습니다. 또한 주기적으로 데이터를 검사하면 규정 준수 요구사항을 충족할 수 있으며 사용에 따라 데이터가 증가하고 변경될 때 권장사항을 따르도록 할 수 있습니다. 규정 준수 요구사항을 충족하려면 Sensitive Data Protection을 사용하여 BigQuery 테이블을 검사하고 민감한 정보를 보호합니다.
BigQuery 데이터를 스캔하는 방법에는 두 가지가 있습니다.
민감한 정보 프로파일링. Sensitive Data Protection은 조직, 폴더 또는 프로젝트 전체에서 BigQuery 데이터에 대한 프로필을 생성할 수 있습니다. 데이터 프로필은 테이블에 대한 측정항목과 메타데이터를 포함하며 민감한 정보와 고위험 데이터를 저장할 위치를 결정하는 데 도움이 됩니다. Sensitive Data Protection은 프로젝트, 테이블, 열 수준에서 이러한 측정항목을 보고합니다. 자세한 내용은 BigQuery 데이터의 데이터 프로필을 참조하세요.
주문형 검사. Sensitive Data Protection은 단일 테이블 또는 열 하위 집합에서 심층적인 검사를 수행하고 발견 항목을 셀 수준으로 보고할 수 있습니다. 이러한 종류의 검사를 사용하면 테이블 셀 내의 신용카드 번호의 정확한 위치와 같은 특정 데이터 유형의 개별 인스턴스를 식별할 수 있습니다. Google Cloud 콘솔의 Sensitive Data Protection 페이지, Google Cloud 콘솔의 BigQuery 페이지 또는 DLP API를 통한 프로그래매틱 방식으로 주문형 검사를 수행할 수 있습니다.
이 페이지에서는 Google Cloud 콘솔의 BigQuery 페이지를 통해 주문형 검사를 수행하는 방법을 설명합니다.
Sensitive Data Protection은 Google Cloud 고객이 민감한 정보를 대규모로 식별하고 보호할 수 있는 완전 관리형 서비스입니다. Sensitive Data Protection은 150개가 넘는 사전 정의된 감지기를 사용하여 패턴, 형식, 체크섬을 식별합니다.
Sensitive Data Protection은 또한 고객 데이터를 복제하지 않고 마스킹, 토큰화, 가명처리, 날짜 이동 등 데이터를 익명화할 수 있는 도구 모음도 제공합니다.
Sensitive Data Protection 작업을 실행할 수 있도록 Sensitive Data Protection 작업을 만드는 사용자에게 사전 정의된 Sensitive Data Protection IAM 역할 또는 충분한 권한이 부여되어 있는지 확인합니다.
Google Cloud 콘솔을 사용하여 BigQuery 데이터 스캔
BigQuery 데이터를 스캔하려면 테이블을 분석하는 Sensitive Data Protection 작업을 만들어야 합니다. BigQuery Google Cloud 콘솔에서 Sensitive Data Protection으로 스캔 옵션을 사용하여 BigQuery 테이블을 빠르게 스캔할 수 있습니다.
Sensitive Data Protection을 사용하여 BigQuery 테이블을 스캔하려면 다음 안내를 따르세요.
선택사항: 3단계: 작업 추가에서는 BigQuery에 저장을 사용 설정하여 Sensitive Data Protection 발견 항목을 BigQuery 테이블에 게시합니다. 발견 항목을 저장하지 않으면 완료된 작업에 발견 항목 수와 infoTypes에 대한 통계만 포함됩니다. BigQuery에 발견 항목을 저장하면 각 발견 항목의 정확한 위치와 신뢰도에 대한 세부정보가 저장됩니다.
선택사항: BigQuery에 저장을 사용 설정한 경우 BigQuery에 저장 섹션에서 다음 정보를 입력합니다.
프로젝트 ID: 결과가 저장되는 프로젝트 ID입니다.
데이터 세트 ID: 결과를 저장하는 데이터 세트의 이름입니다.
선택사항: 테이블 ID: 결과를 저장하는 테이블의 이름입니다. 지정된 테이블 ID가 없으면 새 테이블에 dlp_googleapis_date_1234567890과 비슷한 기본 이름이 할당됩니다.
기존 테이블을 지정하면 여기에 발견 항목이 추가됩니다.
감지된 실제 콘텐츠를 포함하려면 인용 포함을 사용 설정합니다.
계속을 클릭합니다.
선택사항: 4단계: 일정에서 시간 범위 지정 또는 주기적인 일정으로 작업을 실행하는 트리거 만들기를 선택하여 시간 범위 또는 일정을 구성합니다.
계속을 클릭합니다.
선택사항: 검토 페이지에서 작업 세부정보를 검사합니다. 필요한 경우 이전 설정을 조정합니다.
만들기를 클릭합니다.
Sensitive Data Protection 작업이 완료되면 작업 세부정보 페이지로 리디렉션되고 이메일로 알림을 받습니다. 작업 세부정보 페이지에서 스캔 결과를 보거나 작업 완료 이메일에서 Sensitive Data Protection 작업 세부정보 페이지 링크를 클릭할 수 있습니다.
Sensitive Data Protection 발견 항목을 BigQuery에 게시한 경우 작업 세부정보 페이지에서 BigQuery에서 발견 항목 보기를 클릭하여 Google Cloud 콘솔에서 테이블을 엽니다. 그런 다음 테이블을 쿼리하고 발견 항목을 분석할 수 있습니다. BigQuery에서 결과를 쿼리하는 방법에 대한 자세한 내용은 Sensitive Data Protection 문서의 BigQuery에서 Sensitive Data Protection 발견 항목 쿼리를 참조하세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2024-12-22(UTC)"],[[["\u003cp\u003eSensitive Data Protection can scan BigQuery data to identify sensitive information, including credit card numbers, medical details, and other personal data, helping ensure its proper security and management.\u003c/p\u003e\n"],["\u003cp\u003eThere are two primary methods for scanning BigQuery data: sensitive data profiling, which provides an overview of data sensitivity across an organization, and on-demand inspection, which offers deep analysis of specific tables or columns down to the cell level.\u003c/p\u003e\n"],["\u003cp\u003eOn-demand inspections can be initiated from the BigQuery page in the Google Cloud console, allowing users to quickly analyze a table for sensitive data and configure what data types to look for.\u003c/p\u003e\n"],["\u003cp\u003eAfter completing a scan, Sensitive Data Protection can save the findings to a BigQuery table, including precise locations and confidence levels of sensitive data, providing detailed insights for further analysis or action.\u003c/p\u003e\n"],["\u003cp\u003eThe DLP API is required to be enabled, and users running Sensitive Data Protection jobs need appropriate IAM roles or permissions.\u003c/p\u003e\n"]]],[],null,["# Using Sensitive Data Protection to scan BigQuery data\n=====================================================\n\nKnowing where your sensitive data exists is often the first step in ensuring\nthat it is properly secured and managed. This knowledge can help reduce the risk\nof exposing sensitive details such as credit card numbers, medical information,\nSocial Security numbers, driver's license numbers, addresses, full names, and\ncompany-specific secrets. Periodic scanning of your data can also help with\ncompliance requirements and ensure best practices are followed as your data\ngrows and changes with use. To help meet compliance requirements, use\nSensitive Data Protection to inspect your BigQuery tables and\nto help protect your sensitive data.\n\nThere are two ways to scan your BigQuery data:\n\n- **Sensitive data profiling.** Sensitive Data Protection can generate profiles about\n BigQuery data across an organization, folder, or project. *Data\n profiles* contain metrics and metadata about your tables and help you\n determine where [sensitive and high-risk\n data](/sensitive-data-protection/docs/sensitivity-risk-calculation) reside. Sensitive Data Protection\n reports these metrics at the project, table, and column levels. For more\n information, see [Data profiles for\n BigQuery data](/sensitive-data-protection/docs/data-profiles).\n\n- **On-demand inspection.** Sensitive Data Protection can perform a deep inspection on\n a single table or a subset of columns and report its findings down to the cell\n level. This kind of inspection can help you identify individual instances of\n specific data [types](/sensitive-data-protection/docs/infotypes-reference), such as the precise\n location of a credit card number inside a table cell. You can do an on-demand\n inspection through the Sensitive Data Protection page in the\n Google Cloud console, the **BigQuery** page in the Google Cloud console,\n or programmatically through the DLP API.\n\nThis page describes how to do an on-demand inspection through the\n**BigQuery** page in the Google Cloud console.\n\nSensitive Data Protection is a fully managed service that lets Google Cloud customers\nidentify and protect sensitive data at scale. Sensitive Data Protection uses more\nthan 150 predefined detectors to identify patterns, formats, and checksums.\nSensitive Data Protection also provides a set of tools to de-identify your data\nincluding masking, tokenization, pseudonymization, date shifting, and more, all\nwithout replicating customer data.\n\nTo learn more about Sensitive Data Protection, see the [Sensitive Data Protection](/sensitive-data-protection/docs)\ndocumentation.\n\nBefore you begin\n----------------\n\n1. Get familiar with [Sensitive Data Protection pricing](/sensitive-data-protection/pricing) and [how to keep Sensitive Data Protection costs under control](/sensitive-data-protection/docs/best-practices-costs).\n2. [Enable the DLP API](/apis/docs/enable-disable-apis).\n\n [Enable the API](https://console.cloud.google.com/flows/enableapi?apiid=dlp.googleapis.com)\n3. Ensure that the user creating your Sensitive Data Protection jobs is granted an\n appropriate predefined Sensitive Data Protection [IAM role](/sensitive-data-protection/docs/iam-roles) or\n sufficient [permissions](/sensitive-data-protection/docs/iam-permissions) to run Sensitive Data Protection\n jobs.\n\n| **Note:** When you enable the DLP API, a service account is created with a name similar to `service-`\u003cvar translate=\"no\"\u003eproject_number\u003c/var\u003e`@dlp-api.iam.gserviceaccount.com`. This service account is granted the DLP API Service Agent role, which lets the service account authenticate with the BigQuery API. For more information, see [Service account](/sensitive-data-protection/docs/iam-permissions#service_account) on the Sensitive Data Protection IAM permissions page.\n\nScanning BigQuery data using the Google Cloud console\n-----------------------------------------------------\n\nTo scan BigQuery data, you create a Sensitive Data Protection job\nthat analyzes a table. You can scan a BigQuery table quickly by using\nthe **Scan with Sensitive Data Protection** option in the BigQuery Google Cloud console.\n\nTo scan a BigQuery table using Sensitive Data Protection:\n\n1. In the Google Cloud console, go to the BigQuery page.\n\n [Go to BigQuery](https://console.cloud.google.com/bigquery)\n2. In the **Explorer** panel, expand your project and dataset, then select\n the table.\n\n3. Click **Export \\\u003e Scan with Sensitive Data Protection**. The Sensitive Data Protection job\n creation page opens in a new tab.\n\n4. For **Step 1: Choose input data** , enter a job ID. The values in the\n **Location** section are automatically generated. Also, the **Sampling**\n section is automatically configured to run a sample scan against your data, but\n you can adjust the settings as needed.\n\n5. Click **Continue**.\n\n6. Optional: For **Step 2: Configure detection** , you can configure what types\n of data to look for, called `infoTypes`.\n\n Do one of the following:\n - To select from the list of predefined `infoTypes`, click **Manage\n infoTypes**. Then, select the infoTypes you want to search for.\n - To use an existing [inspection template](/sensitive-data-protection/docs/creating-templates-inspect), in the **Template name** field, enter the template's full resource name.\n\n For more information on `infoTypes`, see\n [InfoTypes and infoType detectors](/sensitive-data-protection/docs/concepts-infotypes) in the\n Sensitive Data Protection documentation.\n7. Click **Continue**.\n\n8. Optional: For **Step 3: Add actions** , turn on **Save to BigQuery**\n to publish your Sensitive Data Protection findings to a BigQuery\n table. If you don't store findings, the completed job contains only\n statistics about the number of findings and their `infoTypes`. Saving\n findings to BigQuery saves details about the precise location and\n confidence of each individual finding.\n\n9. Optional: If you turned on **Save to BigQuery** , in the **Save to\n BigQuery** section, enter the following information:\n\n - **Project ID**: the project ID where your results are stored.\n - **Dataset ID**: the name of the dataset that stores your results.\n - Optional: **Table ID** : the name of the table that stores your results. If no table ID is specified, a default name is assigned to a new table similar to the following: `dlp_googleapis_`\u003cvar translate=\"no\"\u003edate\u003c/var\u003e`_1234567890`. If you specify an existing table, findings are appended to it.\n\n To include the actual content that was detected, turn on **Include quote**.\n10. Click **Continue**.\n\n11. Optional: For **Step 4: Schedule** , configure a time span or schedule by\n selecting either **Specify time span** or **Create a trigger to run the job\n on a periodic schedule**.\n\n12. Click **Continue**.\n\n13. Optional: On the **Review** page, examine the details of your job. If needed,\n adjust the previous settings.\n\n14. Click **Create**.\n\n15. After the Sensitive Data Protection job completes, you are redirected to the job\n details page, and you're notified by email. You can view the results of the\n scan on the job details page, or you can click the link to\n the Sensitive Data Protection job details page in the job completion email.\n\n16. If you chose to publish Sensitive Data Protection findings to\n BigQuery, on the **Job details** page, click **View Findings in\n BigQuery** to open the table in the Google Cloud console. You can then query the\n table and analyze your findings. For more information on querying your results\n in BigQuery, see\n [Querying Sensitive Data Protection findings in BigQuery](/sensitive-data-protection/docs/querying-findings)\n in the Sensitive Data Protection documentation.\n\nWhat's next\n-----------\n\n- Learn more about [inspecting BigQuery and other storage\n repositories for sensitive data using Sensitive Data Protection](/sensitive-data-protection/docs/inspecting-storage).\n\n- Learn more about [profiling data in an organization, folder, or\n project](/sensitive-data-protection/docs/data-profiles).\n\n- Read the Identity \\& Security blog post [Take charge of your data: using\n Sensitive Data Protection to de-identify and obfuscate sensitive\n information](https://cloud.google.com/blog/products/identity-security/taking-charge-of-your-data-using-cloud-dlp-to-de-identify-and-obfuscate-sensitive-information).\n\nIf you want to redact or otherwise de-identify the sensitive data that the\nSensitive Data Protection scan found, see the following:\n\n- [Inspect text to de-identify sensitive information](/sensitive-data-protection/docs/inspect-sensitive-text-de-identify)\n- [De-identifying sensitive data](/sensitive-data-protection/docs/deidentify-sensitive-data) in the Sensitive Data Protection documentation\n- [AEAD encryption concepts in GoogleSQL](/bigquery/docs/aead-encryption-concepts) for information on encrypting individual values within a table\n- [Protecting data with Cloud KMS keys](/bigquery/docs/customer-managed-encryption) for information on creating and managing your own encryption keys in [Cloud KMS](/kms/docs) to encrypt BigQuery tables"]]