Framework d'IA sécurisé (SAIF) et Google Cloud
Le framework d'IA sécurisé (SAIF) fournit des conseils aux organisations qui souhaitent sécuriser leurs systèmes d'IA.
Google a créé SAIF.google, qui inclut une auto-évaluation des risques SAIF pour soutenir l'implémentation de SAIF dans les entreprises et les aider à créer et déployer des systèmes d'IA de manière sécurisée.
Nous allons maintenant examiner le portefeuille de solutions de sécurité de Google Cloud à travers le prisme du SAIF et voir comment nous pouvons aider votre organisation à atténuer les risques potentiels liés à l'IA grâce à diverses solutions et contrôles cloud.
Fonctionnement
Vous souhaitez traiter les risques identifiés dans votre rapport sur les risques liés à l'utilisation des services Google Cloud ? Lancez-vous dès maintenant.
Utilisations courantes
Dans le cadre de l'engagement de Google Cloud en faveur de la sécurité, nos modèles de base sont dotés de contrôles d'accès étendus pour empêcher la copie ou la lecture non autorisées, ainsi que de fonctionnalités de détection de pointe pour surveiller les actions non autorisées.
Google Cloud fournit également des commandes que nos clients peuvent configurer sur notre plate-forme pour protéger leur utilisation de nos modèles ou de leurs propres services tiers. Les règles d'entreprise et les contrôles de service VPC empêchent l'exfiltration de données, et les contrôles précis de gestion des identités et des accès (IAM) empêchent les accès non autorisés.
Découvrez comment Google Cloud aide ses clients à protéger leurs données :
Les services de conseil Google Cloud vous aident à adopter une stratégie de sécurité renforcée pour l'IA en ce qui concerne les contrôles d'accès aux modèles et aux données.
Contacter les services de conseil Google Cloud
Faites appel aux experts Mandiant pour vous aider à exploiter l'IA de façon sécurisée.
Contacter les experts en sécurité de Mandiant
Dans le cadre de l'engagement de Google Cloud en faveur de la sécurité, nos modèles de base sont dotés de contrôles d'accès étendus pour empêcher la copie ou la lecture non autorisées, ainsi que de fonctionnalités de détection de pointe pour surveiller les actions non autorisées.
Google Cloud fournit également des commandes que nos clients peuvent configurer sur notre plate-forme pour protéger leur utilisation de nos modèles ou de leurs propres services tiers. Les règles d'entreprise et les contrôles de service VPC empêchent l'exfiltration de données, et les contrôles précis de gestion des identités et des accès (IAM) empêchent les accès non autorisés.
Découvrez comment Google Cloud aide ses clients à protéger leurs données :
Les services de conseil Google Cloud vous aident à adopter une stratégie de sécurité renforcée pour l'IA en ce qui concerne les contrôles d'accès aux modèles et aux données.
Contacter les services de conseil Google Cloud
Faites appel aux experts Mandiant pour vous aider à exploiter l'IA de façon sécurisée.
Contacter les experts en sécurité de Mandiant
La sécurité est un principe clé de Google Cloud, et nous adoptons une approche de défense en profondeur. Dans le cadre de nos mesures robustes, nous disposons de fonctionnalités puissantes pour nous protéger contre les interruptions de service telles que les attaques par déni de service distribué (DDoS). Nous fournissons également des commandes supplémentaires que les clients peuvent utiliser pour se protéger contre ces attaques DDoS et de couche d'application via Cloud Armor.
Notre solution intégrée de gestion de la sécurité et des risques, Security Command Center, protège les applications Vertex AI grâce à des contrôles préventifs et détectifs. Cela inclut la réponse aux événements de sécurité Vertex AI et la simulation de chemin d'attaque pour simuler la manière dont un pirate informatique pourrait accéder aux charges de travail Vertex AI et les compromettre.
Pour les applications d'IA, les clients peuvent également utiliser Model Armor pour inspecter, acheminer et protéger les requêtes et réponses du modèle de fondation. Il peut aider les clients à atténuer les risques liés aux injections de requêtes, aux jailbreaks, aux contenus toxiques et aux fuites de données sensibles. Model Armor s'intégrera aux produits Google Cloud, y compris Vertex AI.Si vous souhaitez en savoir plus sur l'accès anticipé à Model Armor, vous pouvez vous inscrire ici ou regarder notre vidéo à la demande.
Faites appel aux experts Mandiant pour exploiter l'IA de façon sécurisée.
Contacter les experts en sécurité de Mandiant
La sécurité est un principe clé de Google Cloud, et nous adoptons une approche de défense en profondeur. Dans le cadre de nos mesures robustes, nous disposons de fonctionnalités puissantes pour nous protéger contre les interruptions de service telles que les attaques par déni de service distribué (DDoS). Nous fournissons également des commandes supplémentaires que les clients peuvent utiliser pour se protéger contre ces attaques DDoS et de couche d'application via Cloud Armor.
Notre solution intégrée de gestion de la sécurité et des risques, Security Command Center, protège les applications Vertex AI grâce à des contrôles préventifs et détectifs. Cela inclut la réponse aux événements de sécurité Vertex AI et la simulation de chemin d'attaque pour simuler la manière dont un pirate informatique pourrait accéder aux charges de travail Vertex AI et les compromettre.
Pour les applications d'IA, les clients peuvent également utiliser Model Armor pour inspecter, acheminer et protéger les requêtes et réponses du modèle de fondation. Il peut aider les clients à atténuer les risques liés aux injections de requêtes, aux jailbreaks, aux contenus toxiques et aux fuites de données sensibles. Model Armor s'intégrera aux produits Google Cloud, y compris Vertex AI.Si vous souhaitez en savoir plus sur l'accès anticipé à Model Armor, vous pouvez vous inscrire ici ou regarder notre vidéo à la demande.
Faites appel aux experts Mandiant pour exploiter l'IA de façon sécurisée.
Contacter les experts en sécurité de Mandiant