Menggunakan Perlindungan Data Sensitif dengan BigQuery

Halaman ini berisi referensi ke halaman yang memberikan informasi tentang cara menggunakan Perlindungan Data Sensitif dengan BigQuery.

Panduan memulai

Panduan memulai: Menjadwalkan pemindaian inspeksi Perlindungan Data Sensitif
Menjadwalkan inspeksi berkala pada bucket Cloud Storage, tabel BigQuery, atau jenis Datastore. Untuk petunjuk mendetail, lihat Membuat dan menjadwalkan tugas pemeriksaan Perlindungan Data Sensitif.

Panduan cara kerja

Bagian ini menyediakan daftar panduan berbasis tugas yang dikategorikan dan menunjukkan cara menggunakan Perlindungan Data Sensitif dengan BigQuery.

Inspeksi

Memeriksa penyimpanan dan database untuk data sensitif
Buat tugas satu kali yang menelusuri data sensitif di bucket Cloud Storage, tabel BigQuery, atau jenis Datastore.
Membuat dan menjadwalkan tugas pemeriksaan Perlindungan Data Sensitif
Buat dan jadwalkan pemicu tugas yang menelusuri data sensitif di bucket Cloud Storage, tabel BigQuery, atau jenis Datastore. Pemicu tugas mengotomatiskan pembuatan tugas Perlindungan Data Sensitif secara berkala.

Menggunakan hasil pemindaian

Mengirim hasil pemindaian Sensitive Data Protection ke Data Catalog
Pindai tabel BigQuery, lalu kirim temuan ke Data Catalog untuk membuat tag secara otomatis berdasarkan temuan Perlindungan Data Sensitif.
Mengirim hasil pemindaian Sensitive Data Protection ke Security Command Center
Pindai bucket Cloud Storage, tabel BigQuery, atau jenis Datastore, lalu kirim temuan ke Security Command Center.
Menganalisis dan melaporkan temuan Perlindungan Data Sensitif
Gunakan BigQuery untuk menjalankan analisis pada temuan Perlindungan Data Sensitif.
Membuat kueri temuan Perlindungan Data Sensitif di BigQuery
Lihat contoh kueri yang dapat Anda gunakan di BigQuery untuk menganalisis temuan yang diidentifikasi Perlindungan Data Sensitif.

Analisis risiko identifikasi ulang

Mengukur risiko identifikasi ulang dan pengungkapan

Analisis data terstruktur yang disimpan dalam tabel BigQuery dan hitung metrik risiko identifikasi ulang berikut:

Menghitung statistik numerik dan kategoris

Menentukan nilai minimum, maksimum, dan kuantil untuk setiap kolom BigQuery.

Memvisualisasikan risiko re-identifikasi menggunakan Looker Studio

Ukur k-anonimitas set data, lalu visualisasikan di Looker Studio.

Tutorial

Melakukan de-identifikasi data BigQuery pada waktu kueri
Ikuti tutorial langkah demi langkah yang menggunakan fungsi jarak jauh BigQuery untuk melakukan de-identifikasi dan identifikasi ulang data dalam hasil kueri real-time.
De-identifikasi dan mengidentifikasi ulang PII dalam set data berskala besar menggunakan Sensitive Data Protection
Tinjau arsitektur referensi untuk membuat pipeline transformasi data otomatis yang melakukan de-identifikasi data sensitif seperti informasi identitas pribadi (PII).

Praktik terbaik

Amankan data warehouse BigQuery yang menyimpan data rahasia
Ringkasan arsitektur dan praktik terbaik untuk tata kelola data saat membuat, men-deploy, dan mengoperasikan data warehouse di Google Cloud, termasuk de-identifikasi data, penanganan diferensial data rahasia, dan kontrol akses tingkat kolom.

Kontribusi komunitas

Berikut adalah hal-hal yang dimiliki dan dikelola oleh anggota komunitas, bukan oleh tim Perlindungan Data Sensitif. Untuk pertanyaan tentang item ini, hubungi pemiliknya masing-masing.

Membuat tag Data Catalog dengan memeriksa data BigQuery menggunakan Perlindungan Data Sensitif
Periksa data BigQuery menggunakan Cloud Data Loss Prevention API, lalu gunakan Data Catalog API untuk membuat tag tingkat kolom sesuai dengan elemen sensitif yang ditemukan oleh Perlindungan Data Sensitif.
Arsitektur penjadwalan serverless berbasis peristiwa dengan Perlindungan Data Sensitif
Menyiapkan aplikasi penjadwalan tanpa server berbasis peristiwa yang menggunakan Cloud Data Loss Prevention API untuk memeriksa data BigQuery.
Deteksi anomali real-time menggunakan analisis streaming dan layanan AI Google Cloud
Pelajari pola kecerdasan buatan (AI) real-time untuk mendeteksi anomali dalam file log. Bukti konsep ini menggunakan Pub/Sub, Dataflow, BigQuery ML, dan Sensitive Data Protection.
Impor database relasional ke BigQuery dengan Dataflow dan Sensitive Data Protection
Gunakan Dataflow dan Perlindungan Data Sensitif untuk membuat token dan mengimpor data dari database relasional ke BigQuery dengan aman. Contoh ini menjelaskan cara membuat token data PII sebelum data tersebut dibuat persisten.

Harga

Saat memeriksa tabel BigQuery, Anda akan dikenai biaya Perlindungan Data Sensitif, sesuai dengan harga tugas pemeriksaan penyimpanan.

Selain itu, saat Anda menyimpan temuan inspeksi ke tabel BigQuery, biaya BigQuery akan berlaku.