Secure AI Framework (SAIF) dan Google Cloud

GShield

Secure AI Framework (SAIF) dan Google Cloud

Secure AI Framework (SAIF) dan Google Cloud

Secure AI Framework (SAIF) menawarkan panduan bagi organisasi yang ingin mengamankan sistem AI.

Google telah membuat SAIF.google, termasuk Penilaian Mandiri Risiko SAIF untuk mendukung penerapan SAIF di organisasi, guna membantu membangun dan men-deploy sistem AI dengan aman.

Di bawah ini, kami akan membahas portofolio Google Cloud Security melalui sudut pandang SAIF, dan menunjukkan cara kami dapat membantu organisasi Anda memitigasi potensi risiko AI dengan berbagai solusi dan kontrol cloud.

Cara Kerjanya

Ingin mengatasi risiko yang teridentifikasi dalam Laporan Risiko SAIF Anda? Mulai sekarang juga.

Penggunaan Umum

Pencemaran data

Sebagai bagian dari komitmen Google Cloud terhadap keamanan, model dasar kami memiliki kontrol akses yang ekstensif untuk mencegah penyalinan atau pembacaan tidak sah serta kemampuan deteksi yang canggih untuk memantau tindakan tidak sah.

Google Cloud juga menyediakan kontrol yang dapat dikonfigurasi oleh pelanggan di platform kami untuk melindungi penggunaan model kami atau layanan pihak ketiga Anda sendiri. Kebijakan organisasi dan kontrol layanan VPC mencegah pemindahan data yang tidak sah, serta kontrol Identity and Access Management (IAM) terperinci yang mencegah akses tidak sah.

Pelajari lebih lanjut cara Google Cloud membantu pelanggan melindungi data mereka:

  • Kontrol Layanan VPC - Cegah pemindahan data yang tidak sah dengan membuat perimeter isolasi di sekitar resource cloud, data sensitif, dan jaringan Anda, termasuk kebijakan khusus Vertex AI.
  • Berikan panduan keamanan untuk menerapkan konfigurasi resource mana yang diizinkan atau ditolak dengan Layanan Kebijakan Organisasi.
  • Atur, pantau, dan kelola siklus proses model ML dengan Vertex AI Model Registry.
  • Manajemen postur keamanan data - Kelola model, set data, dan artefak ML terkait untuk keamanan, privasi, dan kepatuhan melalui kebijakan kontrol akses dan kontrol alur.
  • Confidential AI yang didukung oleh Confidential Computing memperluas perlindungan model dan data berbasis hardware dengan confidentiality, integritas, dan isolasi dari CPU ke GPU, sehingga memungkinkan percepatan workload yang penting bagi AI dan machine learning. Baru-baru ini kami mengumumkan dua penawaran Confidential Computing baru yang dirancang khusus untuk melindungi privasi dan confidentiality workload AI/ML: Confidential VMs yang didukung oleh NVIDIA H100 Tensor Core GPU, dan Confidential VMs dengan dukungan Intel Advanced Matrix Extensions (Intel AMX). Pelajari lebih lanjut.
  • Google Privileged Access Management: Mengamankan kepercayaan atas akses data dan kunci enkripsi Anda dengan Persetujuan Akses, Transparansi Akses , dan Key Access Justifications. Google membagikan permintaan akses data pelanggan oleh karyawan Google dan memberi pelanggan kemampuan untuk meminta kontrol yang eksplisit (Persetujuan Akses untuk pelanggan sebagai Penyetuju Banyak Pihak) atau berbasis justifikasi yang ditegakkan secara kriptografis (Key Access Justifications) atas akses data penyedia cloud, termasuk workload AI. Verifikasi kriptografis dan log mendetail menjamin transparansi dan kontrol penuh, sehingga membangun kepercayaan terhadap penanganan Google terhadap data sensitif Anda, termasuk data terkait AI. 

    Sebagai bagian dari komitmen Google Cloud terhadap keamanan, model dasar kami memiliki kontrol akses yang ekstensif untuk mencegah penyalinan atau pembacaan tidak sah serta kemampuan deteksi yang canggih untuk memantau tindakan tidak sah.

    Google Cloud juga menyediakan kontrol yang dapat dikonfigurasi oleh pelanggan di platform kami untuk melindungi penggunaan model kami atau layanan pihak ketiga Anda sendiri. Kebijakan organisasi dan kontrol layanan VPC mencegah pemindahan data yang tidak sah, serta kontrol Identity and Access Management (IAM) terperinci yang mencegah akses tidak sah.

    Pelajari lebih lanjut cara Google Cloud membantu pelanggan melindungi data mereka:

    • Kontrol Layanan VPC - Cegah pemindahan data yang tidak sah dengan membuat perimeter isolasi di sekitar resource cloud, data sensitif, dan jaringan Anda, termasuk kebijakan khusus Vertex AI.
    • Berikan panduan keamanan untuk menerapkan konfigurasi resource mana yang diizinkan atau ditolak dengan Layanan Kebijakan Organisasi.
    • Atur, pantau, dan kelola siklus proses model ML dengan Vertex AI Model Registry.
    • Manajemen postur keamanan data - Kelola model, set data, dan artefak ML terkait untuk keamanan, privasi, dan kepatuhan melalui kebijakan kontrol akses dan kontrol alur.
    • Confidential AI yang didukung oleh Confidential Computing memperluas perlindungan model dan data berbasis hardware dengan confidentiality, integritas, dan isolasi dari CPU ke GPU, sehingga memungkinkan percepatan workload yang penting bagi AI dan machine learning. Baru-baru ini kami mengumumkan dua penawaran Confidential Computing baru yang dirancang khusus untuk melindungi privasi dan confidentiality workload AI/ML: Confidential VMs yang didukung oleh NVIDIA H100 Tensor Core GPU, dan Confidential VMs dengan dukungan Intel Advanced Matrix Extensions (Intel AMX). Pelajari lebih lanjut.
    • Google Privileged Access Management: Mengamankan kepercayaan atas akses data dan kunci enkripsi Anda dengan Persetujuan Akses, Transparansi Akses , dan Key Access Justifications. Google membagikan permintaan akses data pelanggan oleh karyawan Google dan memberi pelanggan kemampuan untuk meminta kontrol yang eksplisit (Persetujuan Akses untuk pelanggan sebagai Penyetuju Banyak Pihak) atau berbasis justifikasi yang ditegakkan secara kriptografis (Key Access Justifications) atas akses data penyedia cloud, termasuk workload AI. Verifikasi kriptografis dan log mendetail menjamin transparansi dan kontrol penuh, sehingga membangun kepercayaan terhadap penanganan Google terhadap data sensitif Anda, termasuk data terkait AI. 

      Perlu dukungan tambahan untuk mengatasi risiko AI seperti pemindahan model yang tidak sah, gangguan sumber model, dan pencemaran data?

      Layanan Konsultasi Google Cloud membantu Anda mencapai postur keamanan AI yang kuat untuk kontrol akses model dan data. 

      • Fondasi cloud yang aman: Membangun fondasi infrastruktur yang kuat dan aman dengan perlindungan yang diperlukan untuk menjalankan workload AI.
      • Akselerator keamanan AI generatif: Pelajari cara menerapkan Secure AI Framework Google dari para spesialis keamanan AI Google untuk melindungi workload AI generatif Anda dari risiko khusus AI.
      • Penguatan keamanan: Desain yang aman dan deployment layanan AI end-to-end menggunakan Infrastructure as Code (IaC).
      • Simulasi ancaman tingkat lanjut: Simulasikan ancaman AI dunia nyata di lingkungan Google Cloud yang terisolasi untuk melatih tim keamanan dan mengevaluasi kesiapan mereka dalam merespons insiden keamanan.

      Hubungi layanan Konsultasi Google Cloud

      Bekerja sama dengan pakar Mandiant untuk membantu Anda memanfaatkan AI dengan aman. 

      • Red Teaming untuk AI: Memvalidasi pertahanan Anda yang melindungi sistem AI dan mennilai kemampuan Anda untuk mendeteksi dan merespons serangan aktif yang melibatkan sistem AI.
      • Mengamankan penggunaan AI: Menilai arsitektur, pertahanan data, dan aplikasi yang dibangun berdasarkan model AI serta mengembangkan model ancaman menggunakan framework keamanan.

      Hubungi Pakar Keamanan Mandiant


      Ingin tahu pertanyaan Penilaian Mandiri Risiko SAIF yang terkait dengan kategori risiko ini?

      • Apakah Anda dapat mendeteksi, menghapus, dan memulihkan perubahan berbahaya atau tidak disengaja dalam data pelatihan, penyesuaian, atau evaluasi Anda? 
      • Apakah Anda memiliki inventaris lengkap dari semua model, set data (untuk pelatihan, penyesuaian, atau evaluasi), dan artefak ML terkait (seperti kode)? 
      • Apakah Anda memiliki kontrol akses yang kuat pada semua model, set data, dan artefak ML terkait untuk meminimalkan, mendeteksi, dan mencegah pembacaan atau penyalinan yang tidak sah? 
      • Apakah Anda dapat memastikan bahwa semua data, model, dan kode yang digunakan untuk melatih, menyesuaikan, atau mengevaluasi model tidak dapat dirusak tanpa terdeteksi selama pengembangan model dan selama deployment?
      • Apakah framework, library, sistem software, dan komponen hardware yang digunakan dalam pengembangan dan deployment model Anda dianalisis dan dilindungi dari kerentanan keamanan?
      Ikuti Penilaian Mandiri Risiko SAIF

        Layanan Denial of ML

        Keamanan adalah prinsip utama Google Cloud dan kami menerapkan pendekatan pertahanan berlapis. Sebagai bagian dari langkah-langkah kami yang kuat, kami memiliki kemampuan yang andal untuk melindungi dari gangguan layanan seperti distributed denial-of-service (DDoS). Kami juga menyediakan kontrol tambahan yang dapat digunakan pelanggan untuk melindungi dari serangan DDoS dan serangan bergaya lapisan aplikasi melalui Cloud Armor.

        Solusi keamanan dan pengelolaan risiko bawaan kami, Security Command Center, melindungi aplikasi Vertex AI dengan kontrol pencegahan dan deteksi. Hal ini mencakup merespons peristiwa keamanan Vertex AI dan simulasi jalur serangan untuk meniru cara penyerang di dunia nyata mengakses dan menyusupi workload Vertex AI.   

        Untuk aplikasi AI, pelanggan juga dapat menggunakan Model Armor untuk memeriksa, mengarahkan, dan melindungi prompt dan respons model dasar. Hal ini dapat membantu pelanggan memitigasi risiko seperti injeksi prompt, jailbreak, konten toksik, dan kebocoran data sensitif. Model Armor akan terintegrasi dengan berbagai produk di Google Cloud, termasuk Vertex AI. Jika ingin mempelajari lebih lanjut akses awal untuk Model Armor, Anda dapat mendaftar di sini atau menonton video on-demand kami.


          Keamanan adalah prinsip utama Google Cloud dan kami menerapkan pendekatan pertahanan berlapis. Sebagai bagian dari langkah-langkah kami yang kuat, kami memiliki kemampuan yang andal untuk melindungi dari gangguan layanan seperti distributed denial-of-service (DDoS). Kami juga menyediakan kontrol tambahan yang dapat digunakan pelanggan untuk melindungi dari serangan DDoS dan serangan bergaya lapisan aplikasi melalui Cloud Armor.

          Solusi keamanan dan pengelolaan risiko bawaan kami, Security Command Center, melindungi aplikasi Vertex AI dengan kontrol pencegahan dan deteksi. Hal ini mencakup merespons peristiwa keamanan Vertex AI dan simulasi jalur serangan untuk meniru cara penyerang di dunia nyata mengakses dan menyusupi workload Vertex AI.   

          Untuk aplikasi AI, pelanggan juga dapat menggunakan Model Armor untuk memeriksa, mengarahkan, dan melindungi prompt dan respons model dasar. Hal ini dapat membantu pelanggan memitigasi risiko seperti injeksi prompt, jailbreak, konten toksik, dan kebocoran data sensitif. Model Armor akan terintegrasi dengan berbagai produk di Google Cloud, termasuk Vertex AI. Jika ingin mempelajari lebih lanjut akses awal untuk Model Armor, Anda dapat mendaftar di sini atau menonton video on-demand kami.


            Perlu dukungan tambahan untuk mengatasi risiko AI seperti penolakan layanan ML dan rekayasa balik model?

            Bekerja sama dengan pakar Mandiant agar Anda dapat memanfaatkan AI dengan aman.

            • Red Teaming untuk AI: Memvalidasi pertahanan Anda yang melindungi sistem AI dan mennilai kemampuan Anda untuk mendeteksi dan merespons serangan aktif yang melibatkan sistem AI.
            • Mengamankan penggunaan AI: Menilai arsitektur, pertahanan data, dan aplikasi yang dibangun berdasarkan model AI serta mengembangkan model ancaman menggunakan framework keamanan.

            Hubungi Pakar Keamanan Mandiant


            Ingin tahu pertanyaan Penilaian Mandiri Risiko SAIF yang terkait dengan kategori risiko ini?

            • Apakah Anda melindungi aplikasi dan model AI generatif dari kueri berbahaya berskala besar dari akun pengguna, perangkat, atau melalui API?
            Ikuti Penilaian Mandiri Risiko SAIF

              Memperkuat postur keamanan AI Anda dengan Google Cloud

              Ingin memahami apa yang membuat pengamanan AI unik? Temukan perbedaan keamanan antara AI dan pengembangan software tradisional.

              Perlu memulai percakapan AI untuk organisasi Anda? Mulailah sekarang dengan tujuh pertanyaan penting yang harus diajukan dan dijawab oleh CISO untuk menggunakan AI dengan aman dan memanfaatkan manfaat keamanannya.

              AI Generatif, Privasi, dan Google Cloud: Siap untuk menangani komponen data AI? Pelajari lebih lanjut pendekatan Google Cloud terhadap privasi dan perlindungan data saat mengembangkan layanan AI generatif.