Dokumen dalam Framework Arsitektur: perspektif AI dan ML memberikan ringkasan prinsip dan rekomendasi untuk memastikan bahwa deployment AI dan ML Anda memenuhi persyaratan keamanan dan kepatuhan organisasi Anda. Rekomendasi dalam dokumen ini selaras dengan pilar keamanan Framework Arsitektur.
Deployment workload AI dan ML yang aman adalah persyaratan penting, terutama di lingkungan perusahaan. Untuk memenuhi persyaratan ini, Anda perlu menggunakan pendekatan keamanan menyeluruh yang dimulai dari konsep awal solusi AI dan ML Anda dan meluas ke pengembangan, pen-deployment, dan operasi yang sedang berlangsung. Google Cloud menawarkan alat dan layanan yang andal yang dirancang untuk membantu mengamankan workload AI dan ML Anda.
Menentukan sasaran dan persyaratan yang jelas
Lebih mudah untuk mengintegrasikan kontrol keamanan dan kepatuhan yang diperlukan di awal proses desain dan pengembangan, daripada menambahkan kontrol setelah pengembangan. Sejak awal proses desain dan pengembangan, buat keputusan yang sesuai untuk lingkungan risiko spesifik dan prioritas bisnis spesifik Anda.
Pertimbangkan rekomendasi berikut:
- Identifikasi potensi vektor serangan dan terapkan perspektif keamanan dan kepatuhan sejak awal. Saat Anda mendesain dan mengembangkan sistem AI, terus lacak permukaan serangan, potensi risiko, dan kewajiban yang mungkin Anda hadapi.
- Selaraskan upaya keamanan AI dan ML Anda dengan sasaran bisnis dan pastikan keamanan merupakan bagian integral dari strategi Anda secara keseluruhan. Pahami pengaruh pilihan keamanan Anda terhadap sasaran bisnis utama Anda.
Menjaga keamanan data dan mencegah kehilangan atau kesalahan penanganan
Data adalah aset berharga dan sensitif yang harus dijaga keamanannya. Keamanan data membantu Anda mempertahankan kepercayaan pengguna, mendukung tujuan bisnis, dan memenuhi persyaratan kepatuhan.
Pertimbangkan rekomendasi berikut:
- Jangan mengumpulkan, menyimpan, atau menggunakan data yang tidak benar-benar diperlukan untuk sasaran bisnis Anda. Jika memungkinkan, gunakan data sintetis atau yang sepenuhnya dianonimkan.
- Pantau pengumpulan, penyimpanan, dan transformasi data. Mengelola log untuk semua aktivitas akses dan manipulasi data. Log ini membantu Anda mengaudit akses data, mendeteksi upaya akses yang tidak sah, dan mencegah akses yang tidak diinginkan.
- Terapkan berbagai tingkat akses (misalnya, tidak ada akses, hanya baca, atau tulis) berdasarkan peran pengguna. Pastikan izin ditetapkan berdasarkan prinsip hak istimewa terendah. Pengguna hanya boleh memiliki izin minimum yang diperlukan agar mereka dapat melakukan aktivitas peran mereka.
- Terapkan langkah-langkah seperti enkripsi, perimeter aman, dan pembatasan pergerakan data. Tindakan ini membantu Anda mencegah pemindahan data yang tidak sah dan hilangnya data.
- Lindungi sistem pelatihan ML Anda dari keracunan data.
Menjaga pipeline AI tetap aman dan andal terhadap modifikasi tidak sah
Kode AI dan ML Anda serta pipeline yang ditentukan kode adalah aset penting. Kode yang tidak diamankan dapat dimodifikasi, yang dapat menyebabkan kebocoran data, kegagalan kepatuhan, dan gangguan aktivitas bisnis yang penting. Menjaga keamanan kode AI dan ML Anda membantu memastikan integritas dan nilai model serta output model Anda.
Pertimbangkan rekomendasi berikut:
- Gunakan praktik coding yang aman, seperti pengelolaan dependensi atau validasi dan pembersihan input, selama pengembangan model untuk mencegah kerentanan.
- Lindungi kode pipeline dan artefak model Anda, seperti file, bobot model, dan spesifikasi deployment, dari akses tidak sah. Terapkan tingkat akses yang berbeda untuk setiap artefak berdasarkan peran dan kebutuhan pengguna.
- Terapkan silsilah dan pelacakan aset dan operasi pipeline Anda. Penerapan ini membantu Anda memenuhi persyaratan kepatuhan dan menghindari kompromi pada sistem produksi.
Men-deploy di sistem aman dengan alat dan artefak yang aman
Pastikan kode dan model Anda berjalan di lingkungan aman yang memiliki sistem kontrol akses yang andal dengan jaminan keamanan untuk alat dan artefak yang di-deploy di lingkungan.
Pertimbangkan rekomendasi berikut:
- Latih dan deploy model Anda di lingkungan aman yang memiliki kontrol akses dan perlindungan yang sesuai terhadap penggunaan atau manipulasi yang tidak sah.
- Ikuti panduan Supply-chain Levels for Software Artifacts (SLSA) standar untuk artefak khusus AI Anda, seperti model dan paket software.
- Sebaiknya gunakan image container bawaan yang telah divalidasi dan dirancang khusus untuk workload AI.
Melindungi dan memantau input
Sistem AI memerlukan input untuk membuat prediksi, membuat konten, atau mengotomatiskan tindakan. Beberapa input mungkin menimbulkan risiko atau digunakan sebagai vektor serangan yang harus dideteksi dan dibersihkan. Mendeteksi potensi input berbahaya sejak awal akan membantu Anda menjaga keamanan sistem AI dan membuatnya beroperasi sebagaimana mestinya.
Pertimbangkan rekomendasi berikut:
- Terapkan praktik aman untuk mengembangkan dan mengelola perintah untuk sistem AI generatif, dan pastikan perintah tersebut dipindai untuk mengetahui niat berbahaya.
- Pantau input ke sistem prediktif atau generatif untuk mencegah masalah seperti endpoint atau perintah yang kelebihan beban yang tidak dirancang sistem untuk menanganinya.
- Pastikan hanya pengguna yang dimaksud dari sistem yang di-deploy yang dapat menggunakannya.
Memantau, mengevaluasi, dan bersiap untuk merespons output
Sistem AI memberikan nilai karena menghasilkan output yang meningkatkan, mengoptimalkan, atau mengotomatiskan pengambilan keputusan manusia. Untuk mempertahankan integritas dan kepercayaan sistem dan aplikasi AI, Anda perlu memastikan bahwa output aman dan berada dalam parameter yang diharapkan. Anda juga memerlukan rencana untuk merespons insiden.
Pertimbangkan rekomendasi berikut:
- Pantau output model AI dan ML Anda dalam produksi, dan identifikasi masalah performa, keamanan, dan kepatuhan.
- Evaluasi performa model dengan menerapkan metrik dan langkah keamanan yang andal, seperti mengidentifikasi respons generatif di luar cakupan atau output ekstrem dalam model prediktif. Kumpulkan masukan pengguna tentang performa model.
- Terapkan prosedur pemberitahuan dan respons insiden yang andal untuk mengatasi potensi masalah apa pun.
Kontributor
Penulis:
- Kamilla Kurta | GenAI/ML Specialist Customer Engineer
- Filipe Gracio, PhD | Customer Engineer
- Mohamed Fawzi | Benelux Security and Compliance Lead
Kontributor lainnya:
- Daniel Lees | Cloud Security Architect
- Kumar Dhanagopal | Developer Solusi Lintas Produk
- Marwan Al Shawi | Partner Customer Engineer
- Wade Holmes | Direktur Solusi Global