Framework d'IA sécurisé (SAIF) et Google Cloud

Bouclier avec un G

Framework d'IA sécurisé (SAIF) et Google Cloud

Framework d'IA sécurisé (SAIF) et Google Cloud

Le framework d'IA sécurisé (SAIF) fournit des conseils aux organisations qui souhaitent sécuriser leurs systèmes d'IA.

Google a créé SAIF.google, qui inclut une auto-évaluation des risques SAIF pour soutenir l'implémentation de SAIF dans les entreprises et les aider à créer et déployer des systèmes d'IA de manière sécurisée.

Nous allons maintenant examiner le portefeuille de solutions de sécurité de Google Cloud à travers le prisme du SAIF et voir comment nous pouvons aider votre organisation à atténuer les risques potentiels liés à l'IA grâce à diverses solutions et contrôles cloud.

Fonctionnement

Vous souhaitez traiter les risques identifiés dans votre rapport sur les risques liés à l'utilisation des services Google Cloud ? Lancez-vous dès maintenant.

Utilisations courantes

Empoisonnement des données

Dans le cadre de l'engagement de Google Cloud en faveur de la sécurité, nos modèles de base sont dotés de contrôles d'accès étendus pour empêcher la copie ou la lecture non autorisées, ainsi que de fonctionnalités de détection de pointe pour surveiller les actions non autorisées.

Google Cloud fournit également des commandes que nos clients peuvent configurer sur notre plate-forme pour protéger leur utilisation de nos modèles ou de leurs propres services tiers. Les règles d'entreprise et les contrôles de service VPC empêchent l'exfiltration de données, et les contrôles précis de gestion des identités et des accès (IAM) empêchent les accès non autorisés.

Découvrez comment Google Cloud aide ses clients à protéger leurs données :

  • VPC Service Controls : empêchez l'exfiltration de données en créant des périmètres d'isolation autour de vos ressources cloud, de vos données sensibles et de vos réseaux, y compris des règles spécifiques à Vertex AI.
  • Fournissez des garde-fous de sécurité pour définir les configurations de ressources autorisées ou refusées à l'aide du service de règles d'administration.
  • Organisez, suivez et gérez le cycle de vie des modèles de ML avec Vertex AI Model Registry.
  • Gestion de la sécurité des données : gérez les modèles, les ensembles de données et les artefacts de ML associés en termes de sécurité, de confidentialité et de conformité à l'aide de règles de contrôle des accès et des flux.
  • L'IA confidentielle basée sur l'informatique confidentielle étend la protection matérielle des données et des modèles en assurant la confidentialité, l'intégrité et l'isolation du processeur au GPU, ce qui permet d'accélérer les charges de travail critiques pour l'IA et le machine learning. Nous avons récemment annoncé deux nouvelles offres d'informatique confidentielle spécialement conçues pour protéger la confidentialité des charges de travail d'IA/de ML : les Confidential VMs dotées de GPU NVIDIA H100 Tensor Core et les Confidential VMs compatibles avec les Advanced Matrix Extensions (Intel AMX) d'Intel. En savoir plus
  • Google Privileged Access Management : sécurisez l'accès à vos données et à vos clés de chiffrement grâce à Access Approval, Access Transparency et Key Access Justifications.Google partage les demandes d'accès aux données clientes effectuées par des employés Google et permet aux clients d'exiger des contrôles explicites (approbation de l'accès pour le client en tant que approbateur multipartie) ou basés sur une justification chiffrée (Key Access Justifications) pour l'accès aux données du fournisseur de services cloud, y compris les charges de travail d'IA. La vérification cryptographique et les journaux détaillés garantissent une transparence et un contrôle complets, et renforcent la confiance dans la façon dont Google traite vos données sensibles, y compris les données liées à l'IA.

    Dans le cadre de l'engagement de Google Cloud en faveur de la sécurité, nos modèles de base sont dotés de contrôles d'accès étendus pour empêcher la copie ou la lecture non autorisées, ainsi que de fonctionnalités de détection de pointe pour surveiller les actions non autorisées.

    Google Cloud fournit également des commandes que nos clients peuvent configurer sur notre plate-forme pour protéger leur utilisation de nos modèles ou de leurs propres services tiers. Les règles d'entreprise et les contrôles de service VPC empêchent l'exfiltration de données, et les contrôles précis de gestion des identités et des accès (IAM) empêchent les accès non autorisés.

    Découvrez comment Google Cloud aide ses clients à protéger leurs données :

    • VPC Service Controls : empêchez l'exfiltration de données en créant des périmètres d'isolation autour de vos ressources cloud, de vos données sensibles et de vos réseaux, y compris des règles spécifiques à Vertex AI.
    • Fournissez des garde-fous de sécurité pour définir les configurations de ressources autorisées ou refusées à l'aide du service de règles d'administration.
    • Organisez, suivez et gérez le cycle de vie des modèles de ML avec Vertex AI Model Registry.
    • Gestion de la sécurité des données : gérez les modèles, les ensembles de données et les artefacts de ML associés en termes de sécurité, de confidentialité et de conformité à l'aide de règles de contrôle des accès et des flux.
    • L'IA confidentielle basée sur l'informatique confidentielle étend la protection matérielle des données et des modèles en assurant la confidentialité, l'intégrité et l'isolation du processeur au GPU, ce qui permet d'accélérer les charges de travail critiques pour l'IA et le machine learning. Nous avons récemment annoncé deux nouvelles offres d'informatique confidentielle spécialement conçues pour protéger la confidentialité des charges de travail d'IA/de ML : les Confidential VMs dotées de GPU NVIDIA H100 Tensor Core et les Confidential VMs compatibles avec les Advanced Matrix Extensions (Intel AMX) d'Intel. En savoir plus
    • Google Privileged Access Management : sécurisez l'accès à vos données et à vos clés de chiffrement grâce à Access Approval, Access Transparency et Key Access Justifications.Google partage les demandes d'accès aux données clientes effectuées par des employés Google et permet aux clients d'exiger des contrôles explicites (approbation de l'accès pour le client en tant que approbateur multipartie) ou basés sur une justification chiffrée (Key Access Justifications) pour l'accès aux données du fournisseur de services cloud, y compris les charges de travail d'IA. La vérification cryptographique et les journaux détaillés garantissent une transparence et un contrôle complets, et renforcent la confiance dans la façon dont Google traite vos données sensibles, y compris les données liées à l'IA.

      Vous avez besoin d'aide pour gérer les risques liés à l'IA, comme l'exfiltration de modèles, la falsification de sources de modèles et l'empoisonnement des données ?

      Les services de conseil Google Cloud vous aident à adopter une stratégie de sécurité renforcée pour l'IA en ce qui concerne les contrôles d'accès aux modèles et aux données.

      • Créer des bases de cloud sécurisées : établissez des bases d'infrastructure solides et sécurisées avec les protections nécessaires pour exécuter des charges de travail d'IA.
      • Accélérateur de sécurité pour l'IA générative : découvrez comment les spécialistes de la sécurité de l'IA de Google implémentent le Framework d'IA sécurisé de Google pour protéger leurs charges de travail d'IA générative contre les risques spécifiques à l'IA.
      • Renforcement de la sécurité : sécurisez la conception et le déploiement de services d'IA de bout en bout à l'aide de l'Infrastructure as Code (IaC)
      • Simulations de menaces avancées : simulez des menaces d'IA réelles dans un environnement Google Cloud isolé pour entraîner les équipes de sécurité et évaluer leur capacité à répondre aux incidents de sécurité.

      Contacter les services de conseil Google Cloud

      Faites appel aux experts Mandiant pour vous aider à exploiter l'IA de façon sécurisée.

      • Red Team pour l'IA : validez les mécanismes de défense qui protègent les systèmes d'IA et évaluez votre capacité à détecter et à gérer une attaque active impliquant des systèmes d'IA.
      • Sécuriser l'utilisation de l'IA : évaluer l'architecture, les protections des données et les applications basées sur des modèles d'IA, et développer des modèles de menaces à l'aide de frameworks de sécurité

      Contacter les experts en sécurité de Mandiant


      Vous souhaitez savoir à quelles questions de l'auto-évaluation des risques du SAIF se rapporte cette catégorie de risque ?

      • Êtes-vous en mesure de détecter, de supprimer et de corriger les modifications malveillantes ou accidentelles apportées à vos données d'entraînement, de réglage ou d'évaluation ?
      • Disposez-vous d'un inventaire complet de tous les modèles, ensembles de données (pour l'entraînement, le réglage ou l'évaluation) et artefacts de ML associés (tels que le code) ?
      • Avez-vous mis en place des contrôles d'accès robustes sur tous les modèles, ensembles de données et artefacts de ML associés afin de limiter, de détecter et d'empêcher toute lecture ou copie non autorisée ?
      • Êtes-vous en mesure de garantir que toutes les données, tous les modèles et tout le code utilisés pour entraîner, régler ou évaluer des modèles ne peuvent pas être altérés sans détection pendant le développement et le déploiement du modèle ?
      • Les frameworks, bibliothèques, systèmes logiciels et composants matériels utilisés pour le développement et le déploiement de vos modèles sont-ils analysés pour détecter les failles de sécurité et sont-ils protégés contre ces failles ?
      Passez l'auto-évaluation des risques SAIF

        Déni de service de ML

        La sécurité est un principe clé de Google Cloud, et nous adoptons une approche de défense en profondeur. Dans le cadre de nos mesures robustes, nous disposons de fonctionnalités puissantes pour nous protéger contre les interruptions de service telles que les attaques par déni de service distribué (DDoS). Nous fournissons également des commandes supplémentaires que les clients peuvent utiliser pour se protéger contre ces attaques DDoS et de couche d'application via Cloud Armor.

        Notre solution intégrée de gestion de la sécurité et des risques, Security Command Center, protège les applications Vertex AI grâce à des contrôles préventifs et détectifs. Cela inclut la réponse aux événements de sécurité Vertex AI et la simulation de chemin d'attaque pour simuler la manière dont un pirate informatique pourrait accéder aux charges de travail Vertex AI et les compromettre.   

        Pour les applications d'IA, les clients peuvent également utiliser Model Armor pour inspecter, acheminer et protéger les requêtes et réponses du modèle de fondation. Il peut aider les clients à atténuer les risques liés aux injections de requêtes, aux jailbreaks, aux contenus toxiques et aux fuites de données sensibles. Model Armor s'intégrera aux produits Google Cloud, y compris Vertex AI.Si vous souhaitez en savoir plus sur l'accès anticipé à Model Armor, vous pouvez vous inscrire ici ou regarder notre vidéo à la demande.


          La sécurité est un principe clé de Google Cloud, et nous adoptons une approche de défense en profondeur. Dans le cadre de nos mesures robustes, nous disposons de fonctionnalités puissantes pour nous protéger contre les interruptions de service telles que les attaques par déni de service distribué (DDoS). Nous fournissons également des commandes supplémentaires que les clients peuvent utiliser pour se protéger contre ces attaques DDoS et de couche d'application via Cloud Armor.

          Notre solution intégrée de gestion de la sécurité et des risques, Security Command Center, protège les applications Vertex AI grâce à des contrôles préventifs et détectifs. Cela inclut la réponse aux événements de sécurité Vertex AI et la simulation de chemin d'attaque pour simuler la manière dont un pirate informatique pourrait accéder aux charges de travail Vertex AI et les compromettre.   

          Pour les applications d'IA, les clients peuvent également utiliser Model Armor pour inspecter, acheminer et protéger les requêtes et réponses du modèle de fondation. Il peut aider les clients à atténuer les risques liés aux injections de requêtes, aux jailbreaks, aux contenus toxiques et aux fuites de données sensibles. Model Armor s'intégrera aux produits Google Cloud, y compris Vertex AI.Si vous souhaitez en savoir plus sur l'accès anticipé à Model Armor, vous pouvez vous inscrire ici ou regarder notre vidéo à la demande.


            Besoin d'aide supplémentaire pour gérer les risques liés à l'IA, comme le déni de service de ML et l'ingénierie inverse des modèles ?

            Faites appel aux experts Mandiant pour exploiter l'IA de façon sécurisée.

            • Red Team pour l'IA : validez les mécanismes de défense qui protègent les systèmes d'IA et évaluez votre capacité à détecter et à gérer une attaque active impliquant des systèmes d'IA.
            • Sécuriser l'utilisation de l'IA : évaluer l'architecture, les protections des données et les applications basées sur des modèles d'IA, et développer des modèles de menaces à l'aide de frameworks de sécurité

            Contacter les experts en sécurité de Mandiant


            Vous souhaitez savoir à quelles questions de l'auto-évaluation des risques du SAIF se rapporte cette catégorie de risque ?

            • Protégez-vous vos applications et modèles d'IA générative contre les requêtes malveillantes à grande échelle provenant de comptes utilisateur, d'appareils ou d'API ?
            Passez l'auto-évaluation des risques SAIF

              Renforcez votre stratégie de sécurité pour l'IA avec Google Cloud

              Vous cherchez à comprendre ce qui rend la sécurisation de l'IA unique ? Découvrez les différences de sécurité entre le développement logiciel traditionnel et l'IA.

              Besoin d'entamer la discussion sur l'IA dans votre organisation ? Commencez dès aujourd'hui avec sept questions clés que les RSSI devraient se poser et auxquelles ils devraient répondre pour utiliser l'IA de manière sécurisée et tirer parti de ses avantages en termes de sécurité.

              IA générative, confidentialité et Google Cloud : êtes-vous prêt à vous attaquer aux composants de données de l'IA ? Découvrez l'approche de Google Cloud concernant la confidentialité et la protection des données lors du développement de services d'IA générative.

              • Faites des économies grâce à notre approche transparente concernant la tarification
              • Le paiement à l'usage de Google Cloud permet de réaliser des économies automatiques basées sur votre utilisation mensuelle et des tarifs réduits pour les ressources prépayées. Contactez-nous dès aujourd'hui afin d'obtenir un devis.
              Google Cloud