Menggunakan AI dengan aman dan bertanggung jawab

Last reviewed 2025-02-05 UTC

Prinsip ini dalam pilar keamanan Google Cloud Framework dengan Arsitektur yang Baik memberikan rekomendasi untuk membantu Anda mengamankan sistem AI. Rekomendasi ini selaras dengan Secure AI Framework (SAIF) Google, yang memberikan pendekatan praktis untuk mengatasi masalah keamanan dan risiko sistem AI. SAIF adalah framework konseptual yang bertujuan untuk memberikan standar di seluruh industri untuk membangun dan men-deploy AI secara bertanggung jawab.

Ringkasan prinsip

Untuk membantu memastikan bahwa sistem AI Anda memenuhi persyaratan keamanan, privasi, dan kepatuhan, Anda harus mengadopsi strategi menyeluruh yang dimulai dengan desain awal dan diperluas ke deployment dan operasi. Anda dapat menerapkan strategi holistik ini dengan menerapkan enam elemen inti SAIF.

Google menggunakan AI untuk meningkatkan langkah-langkah keamanan, seperti mengidentifikasi ancaman, mengotomatiskan tugas keamanan, dan meningkatkan kemampuan deteksi, sekaligus membuat manusia tetap terlibat dalam keputusan penting.

Google menekankan pendekatan kolaboratif untuk meningkatkan keamanan AI. Pendekatan ini melibatkan kemitraan dengan pelanggan, industri, dan pemerintah untuk meningkatkan panduan SAIF dan menawarkan referensi praktis yang bisa ditindaklanjuti.

Rekomendasi untuk menerapkan prinsip ini dikelompokkan dalam bagian berikut:

Rekomendasi untuk menggunakan AI dengan aman

Untuk menggunakan AI dengan aman, Anda memerlukan kontrol keamanan dasar dan kontrol keamanan khusus AI. Bagian ini memberikan ringkasan rekomendasi untuk memastikan bahwa deployment AI dan ML Anda memenuhi persyaratan keamanan, privasi, dan kepatuhan organisasi Anda. Untuk ringkasan prinsip dan rekomendasi arsitektur yang khusus untuk beban kerja AI dan ML di Google Cloud, lihat perspektif AI dan ML dalam Framework dengan Arsitektur yang Baik.

Menentukan sasaran dan persyaratan yang jelas untuk penggunaan AI

Rekomendasi ini relevan dengan area fokus berikut:

  • Tata kelola, risiko, dan kepatuhan cloud
  • Keamanan AI dan ML

Rekomendasi ini selaras dengan elemen SAIF tentang memahami risiko sistem AI dalam konteks proses bisnis di sekitarnya. Saat Anda mendesain dan mengembangkan sistem AI, penting untuk memahami sasaran bisnis, risiko, dan persyaratan kepatuhan spesifik Anda.

Menjaga keamanan data dan mencegah kehilangan atau kesalahan penanganan

Rekomendasi ini relevan dengan area fokus berikut:

  • Keamanan infrastruktur
  • Pengelolaan akses dan identitas
  • Keamanan data
  • Keamanan aplikasi
  • Keamanan AI dan ML

Rekomendasi ini selaras dengan elemen SAIF berikut:

  • Memperluas fondasi keamanan yang kuat ke ekosistem AI. Elemen ini mencakup pengumpulan data, penyimpanan, kontrol akses, dan perlindungan terhadap data poisoning.
  • Memahami risiko sistem AI dalam konteks. Tekankan keamanan data untuk mendukung tujuan bisnis dan kepatuhan.

Menjaga pipeline AI tetap aman dan andal terhadap modifikasi tidak sah

Rekomendasi ini relevan dengan area fokus berikut:

  • Keamanan infrastruktur
  • Pengelolaan akses dan identitas
  • Keamanan data
  • Keamanan aplikasi
  • Keamanan AI dan ML

Rekomendasi ini selaras dengan elemen SAIF berikut:

  • Memperluas fondasi keamanan yang kuat ke ekosistem AI. Sebagai elemen utama dalam membangun sistem AI yang aman, amankan artefak kode dan model Anda.
  • Menyesuaikan kontrol untuk mempercepat feedback loop. Karena penting untuk mitigasi dan respons insiden, lacak aset dan pipeline Anda.

Men-deploy aplikasi di sistem aman menggunakan alat dan artefak yang aman

Rekomendasi ini relevan dengan area fokus berikut:

  • Keamanan infrastruktur
  • Pengelolaan akses dan identitas
  • Keamanan data
  • Keamanan aplikasi
  • Keamanan AI dan ML

Menggunakan sistem yang aman serta alat dan artefak yang divalidasi dalam aplikasi berbasis AI sejalan dengan elemen SAIF tentang memperluas fondasi keamanan yang kuat ke ekosistem dan rantai pasokan AI. Rekomendasi ini dapat diatasi melalui langkah-langkah berikut:

Melindungi dan memantau input

Rekomendasi ini relevan dengan area fokus berikut:

  • Logging, audit, dan pemantauan
  • Operasi keamanan
  • Keamanan AI dan ML

Rekomendasi ini selaras dengan elemen SAIF tentang perluasan deteksi dan respons untuk menghadirkan AI ke dalam ranah ancaman organisasi. Untuk mencegah masalah, Anda harus mengelola perintah untuk sistem AI generatif, memantau input, dan mengontrol akses pengguna.

Rekomendasi untuk tata kelola AI

Semua rekomendasi di bagian ini relevan dengan area fokus berikut: Tata kelola, risiko, dan kepatuhan cloud.

Google Cloud menawarkan serangkaian alat dan layanan yang andal yang dapat Anda gunakan untuk membangun sistem AI yang bertanggung jawab dan etis. Kami juga menawarkan framework kebijakan, prosedur, dan pertimbangan etis yang dapat memandu pengembangan, penempatan, dan penggunaan sistem AI.

Seperti yang tercermin dalam rekomendasi kami, pendekatan Google untuk tata kelola AI dibimbing oleh prinsip-prinsip berikut:

  • Keadilan
  • Transparansi
  • Akuntabilitas
  • Privasi
  • Keamanan

Menggunakan indikator keadilan

Vertex AI dapat mendeteksi bias selama proses pengumpulan data atau evaluasi pascapelatihan. Vertex AI menyediakan metrik evaluasi model seperti bias data dan bias model untuk membantu Anda mengevaluasi bias pada model.

Metrik ini terkait dengan keadilan di berbagai kategori seperti ras, gender, dan kelas. Namun, menafsirkan deviasi statistik bukanlah tugas yang mudah, karena perbedaan di seluruh kategori mungkin bukan akibat dari bias atau sinyal bahaya.

Menggunakan Vertex Explainable AI

Untuk memahami cara model AI membuat keputusan, gunakan Vertex Explainable AI. Fitur ini membantu Anda mengidentifikasi potensi bias yang mungkin tersembunyi dalam logika model.

Fitur penjelasan ini terintegrasi dengan BigQuery ML dan Vertex AI, yang memberikan penjelasan berbasis fitur. Anda dapat melakukan interpretabilitas di BigQuery ML atau mendaftarkan model Anda di Vertex AI dan melakukan interpretabilitas di Vertex AI.

Melacak silsilah data

Lacak asal dan transformasi data yang digunakan di sistem AI Anda. Pelacakan ini membantu Anda memahami perjalanan data dan mengidentifikasi potensi sumber bias atau error.

Silsilah data adalah fitur Dataplex yang memungkinkan Anda melacak bagaimana data berpindah melalui sistem: tempat asal data, tempat data diteruskan, dan transformasi yang diterapkan pada data.

Menetapkan akuntabilitas

Tetapkan tanggung jawab yang jelas atas pengembangan, deployment, dan hasil sistem AI Anda.

Gunakan Cloud Logging untuk mencatat peristiwa dan keputusan utama yang dibuat oleh sistem AI Anda. Log memberikan rekaman audit untuk membantu Anda memahami performa sistem dan mengidentifikasi area yang perlu ditingkatkan.

Gunakan Error Reporting untuk menganalisis error yang dibuat oleh sistem AI secara sistematis. Analisis ini dapat mengungkap pola yang mengarah pada bias yang mendasari atau area yang memerlukan peningkatan lebih lanjut pada model.

Menerapkan privasi diferensial

Selama pelatihan model, tambahkan derau ke data untuk mempersulit identifikasi setiap titik data, tetapi masih memungkinkan model untuk belajar secara efektif. Dengan SQL di BigQuery, Anda dapat mengubah hasil kueri dengan agregasi pribadi diferensial.