Ce principe du pilier de sécurité du framework d'architectureGoogle Cloud fournit des recommandations pour vous aider à améliorer la sécurité de vos charges de travail cloud à l'aide de l'IA.
En raison de l'augmentation du nombre et de la sophistication des cyberattaques, il est important de tirer parti du potentiel de l'IA pour améliorer la sécurité. L'IA peut contribuer à réduire le nombre de menaces, à réduire l'effort manuel requis par les professionnels de la sécurité et à compenser la pénurie d'experts dans le domaine de la cybersécurité.
Présentation des principes
Utilisez les capacités d'IA pour améliorer vos systèmes et processus de sécurité existants. Vous pouvez utiliser Gemini dans la sécurité ainsi que les fonctionnalités d'IA intrinsèques intégrées aux services Google Cloud .
Ces fonctionnalités d'IA peuvent transformer la sécurité en fournissant une assistance à chaque étape du cycle de vie de la sécurité. Par exemple, vous pouvez utiliser l'IA pour effectuer les opérations suivantes:
- Analysez et expliquez le code potentiellement malveillant sans avoir à faire de rétro-ingénierie.
- Réduire le travail répétitif des professionnels de la cybersécurité
- Utilisez le langage naturel pour générer des requêtes et interagir avec les données d'événements de sécurité.
- Présentez des informations contextuelles.
- Proposer des recommandations pour des réponses rapides
- Aide à la résolution des événements.
- Récapitulez les alertes à priorité élevée en cas d'erreur de configuration et de faille, en soulignant l'impact potentiel et en recommandant des mesures d'atténuation.
Niveaux d'autonomie de sécurité
L'IA et l'automatisation peuvent vous aider à améliorer la sécurité lorsque vous faites face à des menaces de cybersécurité en constante évolution. En utilisant l'IA pour la sécurité, vous pouvez atteindre des niveaux d'autonomie plus élevés pour détecter et prévenir les menaces, et améliorer votre posture de sécurité globale. Google définit quatre niveaux d'autonomie lorsque vous utilisez l'IA pour la sécurité. Ils décrivent le rôle croissant de l'IA dans l'assistance et la gestion des tâches de sécurité:
- Manuelle: les humains exécutent toutes les tâches de sécurité (prévention, détection, hiérarchisation et réponse) tout au long du cycle de vie de la sécurité.
- Assistée: les outils d'IA, comme Gemini, améliorent la productivité humaine en résumant les informations, en générant des insights et en formulant des recommandations.
- Semi-autonome: l'IA est principalement responsable de nombreuses tâches de sécurité et ne délègue aux humains que lorsque cela est nécessaire.
- Autonome: l'IA agit en tant qu'assistant de confiance qui pilote le cycle de vie de la sécurité en fonction des objectifs et des préférences de votre organisation, avec une intervention humaine minimale.
Recommandations
Les sections suivantes décrivent les recommandations concernant l'utilisation de l'IA pour la sécurité. Les sections indiquent également comment les recommandations s'alignent sur les éléments fondamentaux du framework d'IA sécurisé (SAIF) de Google et comment elles sont pertinentes par rapport aux niveaux d'autonomie de sécurité.
- Améliorer la détection et la réponse aux menaces grâce à l'IA
- Simplifier la sécurité, que vous soyez expert ou non
- Automatiser les tâches de sécurité fastidieuses grâce à l'IA
- Intégrer l'IA aux processus de gestion et de gouvernance des risques
- Implémenter des pratiques de développement sécurisées pour les systèmes d'IA
Améliorer la détection et la gestion des menaces grâce à l'IA
Cette recommandation s'applique aux axes d'action suivants:
- Opérations de sécurité (SecOps)
- Journalisation, audit et surveillance
L'IA peut analyser de grands volumes de données de sécurité, fournir des insights sur le comportement des acteurs de la menace et automatiser l'analyse du code potentiellement malveillant. Cette recommandation est conforme aux éléments SAIF suivants:
- Étendez la détection et la réponse afin d'intégrer l'IA aux stratégies de protection contre les menaces pesant sur votre organisation.
- Automatisez les défenses pour faire face aux menaces existantes comme nouvelles.
Selon votre implémentation, cette recommandation peut être pertinente pour les niveaux d'autonomie suivants:
- Assistée: l'IA aide à analyser et à détecter les menaces.
- Semi-autonome: l'IA assume davantage de responsabilités pour la tâche de sécurité.
Google Threat Intelligence, qui utilise l'IA pour analyser le comportement des acteurs de la menace et le code malveillant, peut vous aider à mettre en œuvre cette recommandation.
Simplifier la sécurité, que vous soyez expert ou non
Cette recommandation s'applique aux axes d'action suivants:
- Opérations de sécurité (SecOps)
- Gouvernance, risques et conformité dans le cloud
Les outils optimisés par l'IA peuvent résumer les alertes et recommander des mesures d'atténuation. Ces fonctionnalités peuvent rendre la sécurité plus accessible à un plus grand nombre de personnes. Cette recommandation est conforme aux éléments SAIF suivants:
- Automatisez les défenses pour faire face aux menaces existantes comme nouvelles.
- Harmoniser les contrôles au niveau de la plate-forme afin de garantir une sécurité homogène dans l'organisation
Selon votre implémentation, cette recommandation peut être pertinente pour les niveaux d'autonomie suivants:
- Assistée: l'IA vous aide à améliorer l'accessibilité des informations de sécurité.
- Semi-autonome: l'IA permet de rendre les pratiques de sécurité plus efficaces pour tous les utilisateurs.
Gemini dans Security Command Center peut fournir des récapitulatifs des alertes en cas d'erreur de configuration et de faille.
Automatiser les tâches de sécurité fastidieuses grâce à l'IA
Cette recommandation s'applique aux axes d'action suivants:
- Sécurité de l'infrastructure
- Opérations de sécurité (SecOps)
- Sécurité des applications
L'IA peut automatiser des tâches telles que l'analyse des logiciels malveillants, la génération de règles de sécurité et l'identification des erreurs de configuration. Ces fonctionnalités peuvent contribuer à réduire la charge de travail des équipes de sécurité et à accélérer les délais de réponse. Cette recommandation est conforme à l'élément du SAIF concernant l'automatisation des défenses pour s'adapter aux menaces nouvelles et existantes.
Selon votre implémentation, cette recommandation peut être pertinente pour les niveaux d'autonomie suivants:
- Assistée: l'IA vous aide à automatiser des tâches.
- Semi-autonome: l'IA est responsable principale des tâches de sécurité et ne demande une assistance humaine que si nécessaire.
Gemini dans Google SecOps peut vous aider à automatiser les tâches fastidieuses en assistant les analystes, en récupérant le contexte pertinent et en vous proposant des recommandations pour la suite.
Intégrer l'IA aux processus de gestion et de gouvernance des risques
Cette recommandation s'applique à la zone de concentration suivante : gouvernance, risques et conformité dans le cloud.
Vous pouvez utiliser l'IA pour créer un inventaire de modèles et des profils de risque. Vous pouvez également utiliser l'IA pour mettre en œuvre des règles concernant la confidentialité des données, les risques cyber et les risques tiers. Cette recommandation est conforme à l'élément du SAIF concernant la contextualisation des risques liés aux systèmes d'IA dans les processus métier environnants.
Selon votre implémentation, cette recommandation peut être pertinente pour le niveau d'autonomie semi-autonome. À ce niveau, l'IA peut orchestrer des agents de sécurité qui exécutent des processus pour atteindre vos objectifs de sécurité personnalisés.
Implémenter des pratiques de développement sécurisées pour les systèmes d'IA
Cette recommandation s'applique aux axes d'action suivants:
- Sécurité des applications
- Sécurité de l'IA et du ML
Vous pouvez utiliser l'IA pour le codage sécurisé, le nettoyage des données d'entraînement et la validation des outils et des artefacts. Cette recommandation est conforme à l'élément du SAIF concernant le développement de bases de sécurité solides pour l'écosystème de l'IA.
Cette recommandation peut s'appliquer à tous les niveaux d'autonomie de sécurité, car un système d'IA sécurisé doit être en place avant que l'IA puisse être utilisée efficacement pour la sécurité. La recommandation est la plus pertinente pour le niveau d'assistance, où les pratiques de sécurité sont renforcées par l'IA.
Pour mettre en œuvre cette recommandation, suivez les consignes Supply-chain Levels for Software Artifacts (SLSA) pour les artefacts d'IA et utilisez des images de conteneur validées.