Ce principe du pilier de sécurité du Google Cloud framework Well-Architected fournit des recommandations pour vous aider à sécuriser vos systèmes d'IA. Ces recommandations sont conformes au framework d'IA sécurisé (SAIF) de Google, qui fournit une approche pratique pour répondre aux préoccupations liées à la sécurité et aux risques des systèmes d'IA. Le SAIF est un framework conceptuel qui vise à fournir des normes du secteur pour le développement et le déploiement responsable de l'IA.
Présentation des principes
Pour vous assurer que vos systèmes d'IA répondent à vos exigences de sécurité, de confidentialité et de conformité, vous devez adopter une stratégie globale qui commence par la conception initiale et s'étend au déploiement et aux opérations. Vous pouvez mettre en œuvre cette stratégie globale en appliquant les six éléments fondamentaux du SAIF.
Google utilise l'IA pour améliorer les mesures de sécurité, par exemple en identifiant les menaces, en automatisant les tâches de sécurité et en améliorant les capacités de détection, tout en gardant les humains informés pour les décisions critiques.
Google met l'accent sur une approche collaborative pour améliorer la sécurité de l'IA. Cette approche implique de collaborer avec les clients, les secteurs et les gouvernements pour améliorer les consignes du SAIF et proposer des ressources pratiques et concrètes.
Les recommandations pour mettre en œuvre ce principe sont regroupées dans les sections suivantes:
Recommandations pour utiliser l'IA de manière sécurisée
Pour utiliser l'IA de manière sécurisée, vous avez besoin à la fois de contrôles de sécurité fondamentaux et de contrôles de sécurité spécifiques à l'IA. Cette section présente un aperçu des recommandations pour vous assurer que vos déploiements d'IA et de ML répondent aux exigences de sécurité, de confidentialité et de conformité de votre organisation. Pour obtenir un aperçu des principes et des recommandations d'architecture spécifiques aux charges de travail d'IA et de ML dans Google Cloud, consultez la perspective d'IA et de ML dans le framework Well-Architected.
Définir des objectifs et des exigences clairs pour l'utilisation de l'IA
Cette recommandation s'applique aux axes d'action suivants:
- Gouvernance, risques et conformité dans le cloud
- Sécurité de l'IA et du ML
Cette recommandation s'aligne sur l'élément du SAIF concernant la contextualisation des risques liés aux systèmes d'IA dans les processus métier environnants. Lorsque vous concevez et faites évoluer des systèmes d'IA, il est important de comprendre vos objectifs commerciaux, risques et exigences de conformité spécifiques.
Protéger les données et éviter leur perte ou leur mauvaise utilisation
Cette recommandation s'applique aux axes d'action suivants:
- Sécurité de l'infrastructure
- Gestion de l'authentification et des accès
- Sécurité des données
- Sécurité des applications
- Sécurité de l'IA et du ML
Cette recommandation est conforme aux éléments SAIF suivants:
- Développer des bases solides pour la sécurité de l'écosystème d'IA Cet élément inclut la collecte, le stockage, le contrôle des accès et la protection contre l'empoisonnement des données.
- Contextualisez les risques liés aux systèmes d'IA. Mettre l'accent sur la sécurité des données pour soutenir les objectifs commerciaux et la conformité
Protéger les pipelines d'IA contre les accès non autorisés
Cette recommandation s'applique aux axes d'action suivants:
- Sécurité de l'infrastructure
- Gestion de l'authentification et des accès
- Sécurité des données
- Sécurité des applications
- Sécurité de l'IA et du ML
Cette recommandation est conforme aux éléments SAIF suivants:
- Développer des bases solides pour la sécurité de l'écosystème d'IA Pour établir un système d'IA sécurisé, sécurisez votre code et vos artefacts de modèle.
- Adapter les commandes pour accélérer les boucles de rétroaction Pour la gestion des incidents et l'atténuation des risques, suivez vos composants et les exécutions de pipeline.
Déployer des applications sur des systèmes sécurisés à l'aide d'outils et d'artefacts sécurisés
Cette recommandation s'applique aux axes d'intérêt suivants:
- Sécurité de l'infrastructure
- Gestion de l'authentification et des accès
- Sécurité des données
- Sécurité des applications
- Sécurité de l'IA et du ML
L'utilisation de systèmes sécurisés, d'outils et d'artefacts validés dans les applications basées sur l'IA s'inscrit dans l'élément du SAIF visant à développer des bases de sécurité solides pour l'écosystème et la chaîne d'approvisionnement de l'IA. Pour suivre cette recommandation, procédez comme suit:
- Implémenter un environnement sécurisé pour l'entraînement et le déploiement du ML
- Utiliser des images de conteneurs validées
- Appliquer les consignes sur les niveaux de la chaîne d'approvisionnement pour les artefacts logiciels (SLSA)
Protéger et surveiller les entrées
Cette recommandation s'applique aux axes d'action suivants:
- Journalisation, audit et surveillance
- Opérations de sécurité
- Sécurité de l'IA et du ML
Cette recommandation s'aligne sur l'élément SAIF concernant l'extension de la détection et de la réponse pour intégrer l'IA aux stratégies de protection contre les menaces pesant sur les organisations. Pour éviter les problèmes, il est essentiel de gérer les requêtes pour les systèmes d'IA générative, de surveiller les entrées et de contrôler l'accès des utilisateurs.
Recommandations pour la gouvernance de l'IA
Toutes les recommandations de cette section sont pertinentes pour le axe d'intérêt suivant : gouvernance, risque et conformité cloud.
Google Cloud propose un ensemble robuste d'outils et de services que vous pouvez utiliser pour créer des systèmes d'IA responsables et éthiques. Nous proposons également un framework de règles, de procédures et de considérations éthiques qui peuvent guider le développement, le déploiement et l'utilisation des systèmes d'IA.
Comme indiqué dans nos recommandations, l'approche de Google en matière de gouvernance de l'IA est guidée par les principes suivants:
- Équité
- Transparence
- Responsabilité
- Confidentialité
- Sécurité
Utiliser des indicateurs d'équité
Vertex AI peut détecter les biais lors de la collecte des données ou du processus d'évaluation post-entraînement. Vertex AI fournit des métriques d'évaluation de modèle telles que les biais de données et les biais de modèle pour vous aider à évaluer les biais de votre modèle.
Ces métriques sont liées à l'équité dans différentes catégories, comme l'origine ethnique, le genre et la classe. Toutefois, l'interprétation des écarts statistiques n'est pas un exercice simple, car les différences entre les catégories ne sont pas nécessairement le résultat d'un biais ni un signal de préjudice.
Utiliser Vertex Explainable AI
Pour comprendre comment les modèles d'IA prennent des décisions, utilisez Vertex Explainable AI. Cette fonctionnalité vous aide à identifier les biais potentiels qui pourraient être masqués dans la logique du modèle.
Cette fonctionnalité d'explicabilité est intégrée à BigQuery ML et à Vertex AI, qui fournissent des explications basées sur les caractéristiques. Vous pouvez effectuer l'explicabilité dans BigQuery ML ou enregistrer votre modèle dans Vertex AI et effectuer l'explicabilité dans Vertex AI.
Suivre la traçabilité des données
Suivez l'origine et la transformation des données utilisées dans vos systèmes d'IA. Ce suivi vous aide à comprendre le parcours des données et à identifier les sources potentielles de biais ou d'erreurs.
La traçabilité des données est une fonctionnalité Dataplex qui vous permet de suivre la manière dont les données transitent par vos systèmes: leur origine, la cible de transmission, et les transformations qui leur sont appliquées.
Instaurer la responsabilisation
Définissez des responsabilités claires pour le développement, le déploiement et les résultats de vos systèmes d'IA.
Utilisez Cloud Logging pour consigner les événements clés et les décisions prises par vos systèmes d'IA. Les journaux fournissent une piste d'audit pour vous aider à comprendre les performances du système et à identifier les points à améliorer.
Utilisez Error Reporting pour analyser systématiquement les erreurs commises par les systèmes d'IA. Cette analyse peut révéler des tendances qui pointent vers des biais sous-jacents ou des domaines dans lesquels le modèle doit être affiné.
Implémenter la confidentialité différentielle
Lors de l'entraînement du modèle, ajoutez du bruit aux données afin de rendre difficile l'identification des points de données individuels, tout en permettant au modèle d'apprendre efficacement. Avec le SQL dans BigQuery, vous pouvez transformer les résultats d'une requête à l'aide d'agrégations différentiellement privées.