Corriger les résultats de Security Health Analytics

Cette page fournit une liste de guides de référence et de techniques permettant de corriger les résultats de Security Health Analytics à l'aide de Security Command Center.

Vous devez disposer des rôles IAM (Identity and Access Management) appropriés pour afficher ou modifier les résultats, et pour accéder aux ressources Google Cloud ou les modifier. Si vous rencontrez les erreurs d'autorisation lors de l'accès à Security Command Center console Google Cloud, demandez à votre administrateur une assistance technique. Pour en savoir plus sur les rôles, consultez Contrôle des accès : Pour résoudre les erreurs de ressources, consultez la documentation concernant les produits concernés.

Correction de Security Health Analytics

Cette section inclut des instructions correctives pour tous les résultats d'analyses de l'état de sécurité.

Pour les types de résultats mappés aux benchmarks CIS, les conseils de résolution provenant du Center for Internet Security (CIS), sauf indication contraire. Pour en savoir plus, consultez Détecteurs et conformité.

Désactivation des résultats après correction

Après avoir corrigé une faille ou une mauvaise configuration, Security Health Analytics définit automatiquement l'état du résultat sur INACTIVE la prochaine fois qu'il recherche le résultat. Combien de temps faut-il à Security Health Analytics pour définir un résultat corrigé sur INACTIVE dépend du moment où le résultat est corrigé et de la planification de l'analyse qui détecte le résultat.

Security Health Analytics définit également l'état d'un résultat sur INACTIVE lorsqu'une analyse détecte que la ressource affectée par le résultat est supprimé. Si vous souhaitez supprimer un résultat pour une ressource supprimée de votre écran pendant que Security Health Analytics détecte que la ressource est supprimée, vous pouvez ignorer le résultat. Pour ignorer un résultat, consultez Ignorez des résultats dans Security Command Center.

N'utilisez pas le paramètre Ignorer pour masquer les résultats corrigés pour les ressources existantes. Si le problème se reproduit et que Security Health Analytics restaure l'ACTIVE l'état du résultat, vous ne verrez peut-être pas le résultat réactivé, car les résultats ignorés sont exclus de toute requête de résultat spécifiant NOT mute="MUTED", comme la requête de résultat par défaut.

Pour en savoir plus sur les intervalles d'analyse, consultez Types d'analyses Security Health Analytics.

Access Transparency disabled

Nom de la catégorie dans l'API : ACCESS_TRANSPARENCY_DISABLED

Access Transparency enregistre les accès des employés Google Cloud aux projets de votre organisation pour vous fournir une assistance. Activer Access Transparency pour indiquer qui, depuis Google Cloud, accède à vos les informations, quand et pourquoi. Pour en savoir plus, consultez Access Transparency :

Pour que vous puissiez activer Access Transparency sur un projet, celui-ci doit être associé à un compte de facturation.

Rôles requis

Pour obtenir les autorisations nécessaires pour effectuer cette tâche, demandez à votre de vous accorder le rôle Administrateur Access Transparency (roles/axt.admin) rôle IAM au niveau de l'organisation. Pour en savoir plus sur l'attribution de rôles, consultez la section Gérer les accès.

Ce rôle prédéfini contient les autorisations axt.labels.get et axt.labels.set, qui sont requises pour effectuer cette tâche. Vous pouvez également obtenir ces autorisations avec un rôle personnalisé ou d'autres rôles prédéfinis.

Étapes de résolution

Pour corriger ce résultat, procédez comme suit :

  1. Vérifiez les autorisations au niveau de votre organisation :

    1. Accédez à la page Identity and Access Management console Google Cloud.

      Accéder à Identity and Access Management

    2. Si vous y êtes invité, sélectionnez l'organisation Google Cloud dans le dans le menu de sélection.

  2. Sélectionnez un projet Google Cloud au sein de l'organisation à l'aide du dans le menu de sélection.

    Même si la configuration d'Access Transparency s'effectue sur une page de projet Google Cloud, la fonctionnalité est activée pour l'ensemble de l'organisation.

  3. Accédez à la page IAM et administration > Paramètres.

  4. Cliquez sur Activer Access Transparency.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

AlloyDB auto backup disabled

Nom de la catégorie dans l'API : ALLOYDB_AUTO_BACKUP_DISABLED

Les sauvegardes automatiques ne sont pas activées sur un cluster AlloyDB pour PostgreSQL.

Pour éviter de perdre des données, activez les sauvegardes automatiques pour votre cluster. Pour plus d'informations, consultez Configurer des sauvegardes automatiques supplémentaires.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Cliquez sur un cluster dans la colonne Nom de la ressource.

  3. Cliquez sur Protection des données.

  4. Dans la section Règle de sauvegarde automatique, cliquez sur Modifier dans Sauvegardes automatiques.

  5. Cochez la case Automatiser les sauvegardes.

  6. Cliquez sur Mettre à jour.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

AlloyDB backups disabled

Nom de la catégorie dans l'API : ALLOYDB_BACKUPS_DISABLED

Un cluster AlloyDB pour PostgreSQL ne dispose pas de sauvegardes automatiques ni continues est activé.

Pour éviter de perdre des données, activez les sauvegardes automatiques ou continues pour votre cluster. Pour en savoir plus, consultez Configurer des sauvegardes supplémentaires.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Dans la colonne Nom de la ressource, cliquez sur le nom du cluster concerné. identifiées dans le résultat.

  3. Cliquez sur Protection des données.

  4. Configurez une règle de sauvegarde.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

AlloyDB CMEK disabled

Nom de la catégorie dans l'API : ALLOYDB_CMEK_DISABLED

Un cluster AlloyDB n'utilise pas de clés de chiffrement gérées par le client (CMEK).

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés que Google utilise pour chiffrer vos données, vous permettant ainsi de mieux contrôler vos accès. Pour en savoir plus, consultez À propos des clés CMEK. CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Dans la colonne Nom de la ressource, cliquez sur le nom du cluster concerné. identifiées dans le résultat.

  3. Cliquez sur Créer une sauvegarde. Définissez un ID de sauvegarde.

  4. Cliquez sur Créer.

  5. Dans la section Sauvegarde/Restauration, cliquez sur Restaurer à côté de la Entrée Backup ID que vous avez choisie.

  6. Définissez un nouvel ID de cluster et un nouveau réseau.

  7. Cliquez sur Options de chiffrement avancées. Sélectionnez la clé CMEK à pour chiffrer le nouveau cluster.

  8. Cliquez sur Restaurer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

AlloyDB log min error statement severity

Nom de la catégorie dans l'API : ALLOYDB_LOG_MIN_ERROR_STATEMENT_SEVERITY

Une instance AlloyDB pour PostgreSQL ne dispose pas de l'log_min_error_statement option de base de données définie sur error ou sur une autre valeur recommandée.

L'option log_min_error_statement contrôle si les instructions SQL qui provoquent les conditions d'erreur sont enregistrées dans les journaux du serveur. les instructions SQL des objets ou supérieur sont consignés. Plus le niveau de gravité est élevé, moins il y a de messages sont enregistrés. S'il est défini sur un niveau de gravité trop élevé, il se peut que des messages d'erreur pas être consignés.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Cliquez sur le cluster dans la colonne Nom de la ressource.

  3. Dans la section Instances dans votre cluster, cliquez sur Modifier pour la Compute Engine.

  4. Cliquez sur Options de configuration avancées.

  5. Dans la section Options, définissez le paramètre log_min_error_statement avec l'une des options suivantes recommandées, conformément aux règles de journalisation de votre organisation.

    • debug5
    • debug4
    • debug3
    • debug2
    • debug1
    • info
    • notice
    • warning
    • error
  6. Cliquez sur Mettre à jour l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

AlloyDB log min messages

Nom de la catégorie dans l'API : ALLOYDB_LOG_MIN_MESSAGES

Une instance AlloyDB pour PostgreSQL ne dispose pas de l'log_min_messages option de base de données définie sur warning au minimum.

L'option log_min_messages contrôle les niveaux de message enregistrés les journaux de serveur. Plus le niveau de gravité est élevé, moins le nombre de messages enregistrés est important. Paramètre un seuil trop bas peut entraîner une augmentation de la taille et de la longueur des journaux, ce qui rend difficile la recherche d'erreurs réelles.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Cliquez sur le cluster dans la colonne Nom de la ressource.

  3. Dans la section Instances dans votre cluster, cliquez sur Modifier pour la Compute Engine.

  4. Cliquez sur Options de configuration avancées.

  5. Dans la section Options, définissez le paramètre log_min_messages avec l'une des options suivantes recommandées, conformément aux règles de journalisation de votre organisation.

    • debug5
    • debug4
    • debug3
    • debug2
    • debug1
    • info
    • notice
    • warning
  6. Cliquez sur Mettre à jour l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

AlloyDB log error verbosity

Nom de la catégorie dans l'API : ALLOYDB_LOG_ERROR_VERBOSITY

Une instance AlloyDB pour PostgreSQL ne dispose pas de l'log_error_verbosity l'option de base de données définie sur default ou sur une autre valeur moins restrictive.

L'option log_error_verbosity contrôle la quantité de détails dans les messages consignés. Plus la verbosité est élevée, plus les messages enregistrés contiennent de détails. Nous vous recommandons de définir cette option sur default ou sur une autre valeur moins restrictive.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Cliquez sur le cluster dans la colonne Nom de la ressource.

  3. Dans la section Instances dans votre cluster, cliquez sur Modifier pour la Compute Engine.

  4. Cliquez sur Options de configuration avancées.

  5. Dans la section Options, définissez le paramètre log_error_verbosity avec l'une des options suivantes recommandées, conformément aux règles de journalisation de votre organisation.

    • default
    • verbose
  6. Cliquez sur Mettre à jour l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

AlloyDB Public IP

Nom de la catégorie dans l'API : ALLOYDB_PUBLIC_IP

Une instance de base de données AlloyDB pour PostgreSQL possède une adresse IP publique.

Pour réduire la surface d'attaque de votre organisation, utilisez une adresse IP privée plutôt que publique des adresses IP externes. Les adresses IP privées renforcent la sécurité du réseau et réduisent la latence de votre application.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Dans la colonne Nom de la ressource, cliquez sur le nom du cluster concerné. identifiées dans le résultat.

  3. Dans la section Instances dans votre cluster, cliquez sur Modifier pour la Compute Engine.

  4. Dans la section Connectivité, décochez la case Activer l'adresse IP publique.

  5. Cliquez sur Mettre à jour l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

AlloyDB SSL not enforced

Nom de la catégorie dans l'API : ALLOYDB_SSL_NOT_ENFORCED

Dans une instance de base de données AlloyDB pour PostgreSQL, il n'est pas nécessaire de manière à utiliser SSL.

Pour éviter les fuites de données sensibles en transit via des communications non chiffrées, toutes les connexions entrantes vers votre instance de base de données AlloyDB doivent utiliser SSL. Apprenez-en plus sur la configuration de SSL/TLS.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Dans la colonne Nom de la ressource, cliquez sur le nom du cluster concerné. identifiées dans le résultat.

  3. Dans la section Instances dans votre cluster, cliquez sur Modifier pour la Compute Engine.

  4. Dans la section Sécurité du réseau, cochez la case Exiger le chiffrement SSL

  5. Cliquez sur Mettre à jour l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Admin service account

Nom de la catégorie dans l'API : ADMIN_SERVICE_ACCOUNT

Un compte de service de votre organisation ou de votre projet dispose des rôles Administrateur, Propriétaire ou Éditeur. qui lui est attribuée. Ces rôles disposent d'autorisations étendues et ne doivent pas être attribués à des comptes de service. Pour en savoir plus sur les comptes de service et les rôles disponibles, consultez la page Comptes de service.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page IAM de la console Google Cloud.

    Accéder à la stratégie IAM

  2. Pour chaque compte principal identifié dans le résultat :

    1. Cliquez sur Modifier le compte principal à côté du compte principal.
    2. Pour supprimer les autorisations, cliquez sur Supprimer le rôle à côté de le poste.
    3. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Alpha cluster enabled

Nom de la catégorie dans l'API : ALPHA_CLUSTER_ENABLED

Les fonctionnalités de cluster alpha sont activées pour un cluster Google Kubernetes Engine (GKE).

Les clusters alpha permettent aux utilisateurs de la première heure de tester des charges de travail exploitant de nouvelles fonctionnalités avant leur lancement public. Toutes les fonctionnalités de l'API GKE sont activées sur les clusters alpha, mais ceux-ci ne sont pas couverts par le contrat de niveau de service GKE. Ils ne reçoivent pas de mises à jour de sécurité. Les fonctionnalités de mise à niveau et de réparation automatiques des nœuds y sont désactivées, et ils ne peuvent pas être mis à niveau. Ils sont aussi automatiquement supprimés au bout de 30 jours.

Pour corriger ce résultat, procédez comme suit :

Les clusters alpha ne peuvent pas être désactivés. Vous devez créer un cluster avec les fonctionnalités alpha désactivées.

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur Create (Créer).

  3. Sélectionnez Configurer à côté du type de cluster que vous souhaitez créer.

  4. Sous l'onglet Fonctionnalités, assurez-vous que l'option Activer les fonctionnalités alpha Kubernetes dans ce cluster est désactivée.

  5. Cliquez sur Create (Créer).

  6. Pour déplacer des charges de travail vers le nouveau cluster, consultez la section Migrer des charges de travail vers différents types de machines.

  7. Pour supprimer le cluster d'origine, consultez la section Supprimer un cluster.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

API key APIs unrestricted

Nom de la catégorie dans l'API : API_KEY_APIS_UNRESTRICTED

Certaines clés API sont utilisées à trop grande échelle.

Les clés API sans restriction ne sont pas sécurisées, car elles peuvent être récupérées à partir d'appareils sur lesquels elles sont stockées ou visibles publiquement, par exemple à partir d'un navigateur. Conformément au principe du moindre privilège, configurez les clés API pour n'appeler que les API requises par l'application. Pour en savoir plus, consultez Appliquez des restrictions de clés API.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés API de la console Google Cloud.

    Accéder aux Clés API

  2. Pour chaque clé API :

    1. Dans la section Clés API, sur la ligne de chaque clé API pour laquelle vous devez limiter les API, cliquez sur Actions.
    2. Dans le menu Actions, cliquez sur Modifier la clé API. La page Modifier la clé API s'affiche.
    3. Dans la section Restrictions relatives aux API, sélectionnez Restreindre des API. Le menu déroulant Sélectionner des API s'affiche.
    4. Dans la liste déroulante Sélectionner des API, choisissez les API que vous souhaitez autoriser.
    5. Cliquez sur Enregistrer. L'application des paramètres peut prendre jusqu'à cinq minutes.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

API key apps unrestricted

Nom de la catégorie dans l'API : API_KEY_APPS_UNRESTRICTED

Des clés API sont utilisées de manière non restreinte, autorisant une utilisation par n'importe quelle application non approuvée.

Les clés API sans restriction ne sont pas sécurisées, car elles peuvent être récupérées sur des appareils qui les stockeront ou les rendront visibles au public, par exemple depuis un navigateur. Conformément au principe du moindre privilège, limitez l'utilisation des clés API aux hôtes, référents HTTP et applications de confiance. Pour en savoir plus, consultez Appliquez des restrictions de clés API.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés API de la console Google Cloud.

    Accéder aux Clés API

  2. Pour chaque clé API :

    1. Dans la section Clés API, sur la ligne de chaque clé API pour laquelle restreindre les applications, cliquez sur Actions :
    2. Dans le menu Actions, cliquez sur Modifier la clé API. La page Modifier la clé API s'affiche.
    3. Sur la page Modifier la clé API, sous Restrictions liées aux applications, sélectionnez une catégorie de restriction. Vous pouvez définir une restriction de ce type par clé.
    4. Dans le champ Ajouter un élément, qui s'affiche lorsque vous sélectionnez une restriction, cliquez sur Ajouter un élément pour ajouter des restrictions en fonction des besoins de votre application.
    5. Une fois les éléments ajoutés, cliquez sur Terminé.
    6. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

API key exists

Nom de la catégorie dans l'API : API_KEY_EXISTS

Un projet utilise des clés API au lieu de l'authentification standard.

Les clés API sont moins sécurisées que les autres méthodes d'authentification, car elles sont des chaînes cryptées simples et faciles à découvrir et à utiliser pour les autres. Elles peuvent être récupérées sur des appareils qui les stockeront ou les rendront visibles de tous, par exemple dans un navigateur. De plus, les clés API n'identifient pas de manière unique les utilisateurs ou les applications qui effectuent des requêtes. Vous pouvez également utiliser une requête flux d'authentification, avec comptes de service ou comptes utilisateur.

Pour corriger ce résultat, procédez comme suit :

  1. Assurez-vous que vos applications sont configurées avec une autre forme d'authentification.
  2. Accédez à la page des identifiants d'API dans la console Google Cloud.

    Accéder aux identifiants de l'API

  3. Dans la section Clés API, sur la ligne de chaque clé API dont vous avez besoin cliquez sur Actions .

  4. Dans le menu Actions, cliquez sur Supprimer la clé API.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

API key not rotated

Nom de la catégorie dans l'API : API_KEY_NOT_ROTATED

Une clé API n'a pas subi de rotation depuis plus de 90 jours.

Les clés API n'ont pas de date d'expiration. En cas de vol, la clé peut être utilisée indéfiniment, à moins que le propriétaire du projet ne décide de la révoquer ou d'alterner les clés. En régénérant fréquemment vos clés API, vous réduisez la durée pendant laquelle une clé API volée pourrait être utilisée pour accéder à des données depuis un compte compromis ou résilié. Effectuez une rotation des clés API au moins tous les 90 jours. Pour en savoir plus, consultez Sécurisez une clé API.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés API de la console Google Cloud.

    Accéder aux Clés API

  2. Pour chaque clé API :

    1. Dans la section Clés API, sur la ligne de chaque clé API dont vous avez besoin cliquez sur Actions .
    2. Dans le menu Actions, cliquez sur Modifier la clé API. La page Modifier la clé API s'affiche.
    3. Sur la page Modifier la clé API, si la date figurant dans le champ Date de création date de plus de 90 jours, cliquez sur . Regénérer la valeur clé. Une nouvelle clé est générée.
    4. Cliquez sur Enregistrer.
    5. Pour vous assurer que vos applications continuent à fonctionner sans interruption, mettez-les à jour afin qu'elles utilisent la nouvelle clé API. L'ancienne clé API fonctionne pendant 24 heures avant d'être définitivement désactivée.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Audit config not monitored

Nom de la catégorie dans l'API : AUDIT_CONFIG_NOT_MONITORED

Les métriques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées à la configuration d'audit.

Cloud Audit Logging génère des journaux sur l'activité des administrateurs et les accès aux données, qui permettent d'effectuer des analyses de sécurité, le suivi des modifications des ressources et des audits de conformité. En surveillant les modifications apportées à la configuration d'audit, vous vous assurez que toutes les activités de votre projet peuvent être auditées à tout moment. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. À comprendre votre utilisation du service et ses coûts, consultez Optimisation des coûts: opérations cloud

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, créez des métriques, si nécessaire, et des règles d'alerte :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      protoPayload.methodName="SetIamPolicy"
      AND protoPayload.serviceData.policyDelta.auditConfigDeltas:*

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification lorsque des incidents sont ouverts ou fermés, cochez Envoyer une notification lors de la clôture de l'incident Par défaut, les notifications ne sont envoyées d'incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Audit logging disabled

Nom de la catégorie dans l'API : AUDIT_LOGGING_DISABLED

Ce résultat n'est pas disponible pour les activations au niveau du projet.

Les journaux d'audit sont désactivés pour un ou plusieurs services Google Cloud. un ou plusieurs comptes principaux sont exemptés de la journalisation d'audit des accès aux données.

Activez Cloud Logging pour tous les services afin de suivre l'ensemble des activités d'administration, ainsi que des accès en lecture et en écriture aux données utilisateur. Selon la quantité d'informations, les coûts liés à Cloud Logging peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez Optimisation des coûts: opérations cloud

Si des comptes principaux sont exemptés de la journalisation d'audit des accès aux données sur l'une des la configuration par défaut des journaux d'audit des accès aux données pour des services individuels, supprimez l'exception.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Configuration par défaut des journaux d'audit des accès aux données dans les console Google Cloud.

    Accéder à la configuration par défaut

  2. Dans l'onglet Types de journaux, activez les journaux d'audit des accès aux données dans le la configuration par défaut:

    1. Sélectionnez Lecture administrateur, Lecture de données et Écriture de données.
    2. Cliquez sur Enregistrer.
  3. Dans l'onglet Comptes principaux exemptés, supprimez tous les utilisateurs exemptés du configuration par défaut:

    1. Supprimez chaque compte principal répertorié en cliquant sur Supprimer. à côté de chaque nom.
    2. Cliquez sur Enregistrer.
  4. Accédez à la page Journaux d'audit.

    Accéder aux journaux d'audit

  5. Supprimer tous les comptes principaux exemptés des configurations du journal d'audit des accès aux données de services individuels.

    1. Sous Configuration des journaux d'audit des accès aux données, pour chaque service auquel affiche un compte principal exempté, cliquez sur le service. Un journal d'audit de configuration s'ouvre pour le service.
    2. Dans l'onglet Comptes principaux exemptés, supprimez tous les comptes principaux exemptés. en cliquant sur Supprimer à côté de chaque nom.
    3. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Auto backup disabled

Nom de la catégorie dans l'API : AUTO_BACKUP_DISABLED

Les sauvegardes automatiques ne sont pas activées pour une base de données Cloud SQL.

Pour éviter toute perte de données, activez les sauvegardes automatiques pour vos instances SQL. Pour plus d'informations, consultez la section Créer et gérer des sauvegardes à la demande et automatiques.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Sauvegardes d'instances SQL dans la console Google Cloud.

    Accéder aux sauvegardes d'instance SQL

  2. À côté de Paramètres, cliquez sur Modifier.

  3. Cochez la case Automatiser les sauvegardes.

  4. Dans le menu déroulant, choisissez une période de temps pour la sauvegarde automatique de vos données.

  5. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Auto repair disabled

Nom de la catégorie dans l'API : AUTO_REPAIR_DISABLED

La fonctionnalité de réparation automatique d'un cluster Google Kubernetes Engine (GKE), qui permet de maintenir les nœuds dans un état sain et d'exécution, est désactivée.

Lorsque cette fonction est activée, GKE vérifie périodiquement l'état de chaque nœud de votre cluster. Si les vérifications d'état réalisées sur un nœud échouent de manière consécutive sur une période prolongée, GKE déclenche un processus de réparation pour ce nœud. Pour en savoir plus, consultez la section Réparer automatiquement des nœuds.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur l'onglet Nœuds.

  3. Pour chaque pool de nœuds :

    1. Cliquez sur le nom du pool de nœuds pour accéder à sa page d'informations.
    2. Cliquez sur Modifier.
    3. Dans la section Gestion, sélectionnez Activer la réparation automatique.
    4. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Auto upgrade disabled

Nom de la catégorie dans l'API : AUTO_UPGRADE_DISABLED

La fonctionnalité de mise à niveau automatique des clusters GKE, qui conserve les clusters et les pools de nœuds sur la dernière version stable de Kubernetes, est désactivée.

Pour en savoir plus, consultez la page Mettre à niveau automatiquement des nœuds.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la liste des clusters, cliquez sur le nom du cluster.

  3. Cliquez sur l'onglet Nœuds.

  4. Pour chaque pool de nœuds :

    1. Cliquez sur le nom du pool de nœuds pour accéder à sa page d'informations.
    2. Cliquez sur Modifier.
    3. Sous Gestion, sélectionnez Activer la mise à niveau automatique.
    4. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

BigQuery table CMEK disabled

Nom de la catégorie dans l'API : BIGQUERY_TABLE_CMEK_DISABLED

Une table BigQuery n'est pas configurée pour utiliser une clé de chiffrement gérée par le client (CMEK).

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés utilisées par Google Cloud pour chiffrer vos données, ce qui vous permet de mieux contrôler l'accès à vos données. Pour en savoir plus, consultez la page Protéger des données avec des clés Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

  1. Créez une table protégée par Cloud Key Management Service.
  2. Copiez votre table dans la nouvelle table compatible avec les CMEK.
  3. Supprimez la table d'origine.

Pour définir une clé CMEK par défaut qui chiffre toutes les nouvelles tables d'un ensemble de données, consultez la page Définir une clé par défaut de l'ensemble de données.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Binary authorization disabled

Nom de la catégorie dans l'API : BINARY_AUTHORIZATION_DISABLED

L'autorisation binaire est désactivée sur un cluster GKE.

L'autorisation binaire inclut une fonctionnalité facultative qui protège la sécurité de la chaîne d'approvisionnement en n'autorisant que le déploiement des images de conteneurs signées par des autorités de confiance lors du processus de développement dans le cluster. Grâce au déploiement basé sur la signature, vous contrôlez mieux votre environnement de conteneurs, en vous assurant que seules les images validées peuvent être déployées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la section Sécurité, cliquez sur  Modifier dans la ligne Autorisation binaire.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  3. Dans la boîte de dialogue, sélectionnez Activer l'autorisation binaire.

  4. Cliquez sur Enregistrer les modifications.

  5. Accédez à la page de configuration de l'autorisation binaire.

    Accéder à la page "Autorisation binaire"

  6. Assurez-vous qu'une stratégie exigeant des certificateurs est configurée et que la règle par défaut du projet n'est pas configurée sur Autoriser toutes les images. Pour en savoir plus, consultez Configurer pour GKE.

    Pour vous assurer que les images qui ne respectent pas la stratégie sont autorisées à être déployées et que les violations sont consignées dans Cloud Audit Logs, vous pouvez activer le mode de simulation.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Bucket CMEK disabled

Nom de la catégorie dans l'API : BUCKET_CMEK_DISABLED

Un bucket n'est pas chiffré avec des clés de chiffrement gérées par le client (CMEK).

La définition d'une clé CMEK par défaut sur un bucket vous permet de mieux contrôler l'accès à vos données. Pour en savoir plus, consultez la page Clés de chiffrement gérées par le client.

Pour corriger ce résultat, utilisez CMEK avec un bucket en suivant la procédure Utiliser des clés de chiffrement gérées par le client. CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Bucket IAM not monitored

Nom de la catégorie dans l'API : BUCKET_IAM_NOT_MONITORED

Les métriques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées aux autorisations IAM Cloud Storage.

La surveillance des modifications apportées aux autorisations des buckets Cloud Storage vous permet d'identifier les utilisateurs bénéficiant de droits trop élevés ou les activités suspectes. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. À comprendre votre utilisation du service et ses coûts, consultez Optimisation des coûts: opérations cloud

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      resource.type=gcs_bucket
      AND protoPayload.methodName="storage.setIamPermissions"

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification lorsque des incidents sont ouverts ou fermés, cochez Envoyer une notification lors de la clôture de l'incident Par défaut, les notifications ne sont envoyées d'incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Bucket logging disabled

Nom de la catégorie dans l'API : BUCKET_LOGGING_DISABLED

La journalisation est désactivée dans un bucket de stockage.

Pour faciliter l'analyse des problèmes de sécurité et surveiller l'utilisation de l'espace de stockage, activez les journaux d'accès et les informations de stockage de vos buckets Cloud Storage. Les journaux d'accès fournissent des informations pour toutes les requêtes effectuées sur un bucket spécifié. Les journaux de stockage fournissent des informations sur l'espace de stockage consommé par ce bucket.

Pour corriger ce résultat, configurez la journalisation pour le bucket indiqué par le résultat de Security Health Analytics en suivant le guide Journaux d'accès et journaux de stockage.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Bucket policy only disabled

Nom de la catégorie dans l'API : BUCKET_POLICY_ONLY_DISABLED

L'accès uniforme au niveau du bucket, précédemment appelé "Stratégie du bucket seulement", n'est pas configuré.

L'accès uniforme au niveau du bucket simplifie le contrôle des accès au bucket en désactivant les autorisations au niveau des objets (LCA). Lorsque les autorisations Cloud IAM au niveau du bucket sont activées sur un bucket donné, elles seules définissent l'accès à ce bucket et aux objets qu'il contient. Pour en savoir plus, consultez la section Accès uniforme au niveau du bucket.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page du navigateur Cloud Storage dans la console Google Cloud.

    Accéder au navigateur Cloud Storage

  2. Dans la liste des buckets, cliquez sur le nom du bucket souhaité.

  3. Cliquez sur l'onglet Configuration.

  4. Sous Autorisations, sur la ligne Contrôle des accès, cliquez sur Modifier le modèle de contrôle des accès

  5. Dans la boîte de dialogue, sélectionnez Uniforme.

  6. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Cloud Asset API disabled

Nom de la catégorie dans l'API : CLOUD_ASSET_API_DISABLED

Le service inventaire des éléments cloud n'est pas activé pour le projet.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Bibliothèque d'API de la console Google Cloud.

    Accéder à la bibliothèque d'API

  2. Recherchez Cloud Asset Inventory.

  3. Sélectionnez le résultat correspondant au service API Cloud Asset.

  4. Assurez-vous que API activée s'affiche.

Cluster logging disabled

Nom de la catégorie dans l'API : CLUSTER_LOGGING_DISABLED

La journalisation n'est pas activée pour un cluster GKE.

Pour faciliter l'analyse des problèmes de sécurité et surveiller l'utilisation, activez Cloud Logging sur vos clusters.

Selon la quantité d'informations, les coûts liés à Cloud Logging peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez la page Optimiser les coûts : opérations cloud.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Sélectionnez le cluster répertorié dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Dans la liste déroulante Ancien Stackdriver Logging ou Stackdriver Kubernetes Engine Monitoring, sélectionnez Activé.

    Ces options ne sont pas compatibles. Veillez à utiliser uniquement Stackdriver Kubernetes Engine Monitoring, ou à combiner les options Ancien Stackdriver Logging et Ancien Stackdriver Monitoring.

  5. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Cluster monitoring disabled

Nom de la catégorie dans l'API : CLUSTER_MONITORING_DISABLED

Monitoring est désactivé sur les clusters GKE.

Pour faciliter l'analyse des problèmes de sécurité et surveiller l'utilisation, activez Cloud Monitoring sur vos clusters.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. À comprendre votre utilisation du service et ses coûts, consultez Optimisation des coûts: opérations cloud

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Sélectionnez le cluster répertorié dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Dans la liste déroulante Ancien Legacy Stackdriver Monitoring ou Stackdriver Kubernetes Engine Monitoring, sélectionnez Activé.

    Ces options ne sont pas compatibles. Veillez à utiliser uniquement Stackdriver Kubernetes Engine Monitoring, ou à combiner les options Ancien Stackdriver Monitoring et Ancien Stackdriver Logging.

  5. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Cluster private Google access disabled

Nom de la catégorie dans l'API : CLUSTER_PRIVATE_GOOGLE_ACCESS_DISABLED

Les hôtes de cluster ne sont pas configurés pour utiliser uniquement des adresses IP internes privées afin d'accéder aux API Google.

L'accès privé à Google permet aux instances de machine virtuelle (VM) disposant uniquement d'adresses IP internes privées d'accéder aux adresses IP publiques des API et services Google. Pour plus d'informations, consultez la section Configurer l'accès privé à Google.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux de cloud privés virtuel dans la console Google Cloud.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau souhaité.

  3. Sur la page Détails du réseau VPC, cliquez sur l'onglet Sous-réseaux.

  4. Dans la liste des sous-réseaux, cliquez sur le nom du sous-réseau associé au cluster Kubernetes dans le résultat.

  5. Sur la page Détails du sous-réseau, cliquez sur Modifier.

  6. Dans le champ Accès privé à Google, sélectionnez Activé.

  7. Cliquez sur Enregistrer.

  8. Pour supprimer les adresses IP publiques (externes) des instances de VM dont le seul trafic externe est destiné aux API Google, consultez la section Annuler l'attribution d'une adresse IP externe statique.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Cluster secrets encryption disabled

Nom de la catégorie dans l'API : CLUSTER_SECRETS_ENCRYPTION_DISABLED

Le chiffrement des secrets au niveau de la couche d'application est désactivé sur un cluster GKE.

Le chiffrement des secrets au niveau de la couche d'application garantit que les secrets GKE sont chiffrés à l'aide de clés Cloud KMS. Cette fonctionnalité fournit une couche de sécurité supplémentaire pour les données sensibles, telles que les secrets définis par l'utilisateur et les secrets requis pour le fonctionnement du cluster, par exemple les clés de compte de service, qui sont toutes stockées dans etcd.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés Cloud KMS de la console Google Cloud.

    Accéder à la page Clés Cloud KMS

  2. Examinez vos clés d'application ou créez une clé de chiffrement de base de données (DEK). Pour en savoir plus, consultez la page Créer une clé Cloud KMS.

  3. Accédez à la page des clusters Kubernetes.

    Accéder à la page "Clusters Kubernetes"

  4. Sélectionnez le cluster dans le résultat.

  5. Sous Sécurité, dans le champ Chiffrement des secrets au niveau de la couche d'application : Cliquez sur Modifier le chiffrement des secrets au niveau de la couche d'application.

  6. Sélectionnez la case à cocher Activer le chiffrement des secrets au niveau de la couche d'application, puis choisissez la DEK que vous avez créée.

  7. Cliquez sur Save Changes (Enregistrer les modifications).

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Cluster shielded nodes disabled

Nom de la catégorie dans l'API : CLUSTER_SHIELDED_NODES_DISABLED

Les nœuds GKE protégés ne sont pas activés pour un cluster.

Sans les nœuds GKE protégés, les pirates informatiques peuvent exploiter une faille d'un pod pour exfiltrer les identifiants d'amorçage et usurper l'identité des nœuds de votre cluster. Cette faille peut donner aux pirates informatiques l'accès aux secrets du cluster.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Sélectionnez le cluster dans le résultat.

  3. Sous Sécurité, dans le champ Nœuds GKE protégés, Cliquez sur Modifier les nœuds GKE protégés.

  4. Cochez la case Activer les nœuds GKE protégés.

  5. Cliquez sur Save Changes (Enregistrer les modifications).

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Compute project wide SSH keys allowed

Nom de la catégorie dans l'API : COMPUTE_PROJECT_WIDE_SSH_KEYS_ALLOWED

Les clés SSH à l'échelle du projet permettent de se connecter à toutes les instances du projet.

L'utilisation de clés SSH à l'échelle du projet facilite la gestion des clés SSH. En revanche, si elle est compromise, elle présente un risque pour la sécurité, qui peut avoir une incidence sur toutes les instances d'un projet. Vous devez utiliser des clés SSH spécifiques à l'instance, qui limitent la surface d'attaque si les clés SSH sont compromises. Pour en savoir plus, consultez la page Gérer des clés SSH dans les métadonnées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Sur la page Informations sur l'instance de VM, cliquez sur Modifier.

  4. Sous Clés SSH, sélectionnez Bloquer les clés SSH à l'échelle du projet.

  5. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Compute Secure Boot disabled

Nom de la catégorie dans l'API : COMPUTE_SECURE_BOOT_DISABLED

Le démarrage sécurisé n'est pas activé pour cette VM protégée.

Le démarrage sécurisé permet de protéger vos machines virtuelles contre les rootkits et les bootkits. Compute Engine n'active pas le démarrage sécurisé par défaut, car certains pilotes non signés et logiciels de bas niveau ne sont pas compatibles. Si votre VM n'utilise pas de logiciel incompatible et qu'elle démarre avec le démarrage sécurisé activé, Google recommande l'utilisation de cette fonctionnalité. Si vous utilisez des modules tiers avec des pilotes NVIDIA, assurez-vous qu'ils sont compatibles avec le démarrage sécurisé avant de l'activer.

Pour plus d'informations, consultez la section Démarrage sécurisé.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Sur la page Informations sur l'instance de VM, cliquez sur Arrêter.

  4. Une fois l'instance arrêtée, cliquez sur Modifier.

  5. Sous VM protégée, sélectionnez Activer le démarrage sécurisé.

  6. Cliquez sur Enregistrer.

  7. Cliquez sur Démarrer pour démarrer l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Compute serial ports enabled

Nom de la catégorie dans l'API : COMPUTE_SERIAL_PORTS_ENABLED

Les ports série sont activés pour une instance, ce qui permet de se connecter à la console série de l'instance.

Si vous activez l'accès interactif à la console série sur une instance, les clients peuvent tenter de se connecter à cette instance depuis n'importe quelle adresse IP. Par conséquent, l'accès interactif à la console série doit être désactivé. Pour en savoir plus, consultez la section Activer l'accès pour un projet.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Sur la page Informations sur l'instance de VM, cliquez sur Modifier.

  4. Dans la section Accès à distance, cochez la case Activer la connexion aux ports série.

  5. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Confidential Computing disabled

Nom de la catégorie dans l'API : CONFIDENTIAL_COMPUTING_DISABLED

L'informatique confidentielle n'est pas activée sur une instance Compute Engine.

L'informatique confidentielle ajoute un troisième pilier à la story sur le chiffrement de bout en bout en chiffrant les données pendant qu'ellees sont utilisées. Grâce aux environnements d'exécution confidentiels fournis par l'informatique confidentielle et AMD SEV (Secure Encrypted Virtualization), Google Cloud maintient chiffrés en mémoire le code sensible et les autres données lors de leur traitement.

L'informatique confidentielle ne peut être activée qu'à la création d'une instance. Vous devez donc supprimer l'instance actuelle et en créer une autre.

Pour en savoir plus, consultez Confidential VMs et Compute Engine.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Sur la page Informations sur l'instance de VM, cliquez sur Supprimer.

  4. Créez une Confidential VM à l'aide de la console Google Cloud.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

COS not used

Nom de la catégorie dans l'API : COS_NOT_USED

Les VM Compute Engine n'utilisent pas le système d'exploitation optimisé par conteneur, conçu pour exécuter des conteneurs Docker sur Google Cloud en toute sécurité.

Container-Optimized OS est l'OS recommandé par Google pour héberger et exécuter des conteneurs sur Google Cloud. Le faible encombrement de l'OS minimise les risques liés à la sécurité, et les mises à jour automatiques corrigent les failles au plus vite. Pour en savoir plus, consultez la page Présentation du système d'exploitation optimisé par conteneur.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la liste des clusters, cliquez sur le nom du cluster dans le résultat.

  3. Cliquez sur l'onglet Nœuds.

  4. Pour chaque pool de nœuds :

    1. Cliquez sur le nom du pool de nœuds pour accéder à sa page d'informations.
    2. Cliquez sur Modifier .
    3. Sous Nœuds -> Type d'image, cliquez sur Modifier.
    4. Sélectionnez Système d'exploitation optimisé par conteneur, puis cliquez sur Modifier.
    5. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Custom role not monitored

Nom de la catégorie dans l'API : CUSTOM_ROLE_NOT_MONITORED

Les métriques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées au rôle personnalisé.

IAM fournit des rôles prédéfinis et personnalisés qui accordent l'accès à des ressources Google Cloud spécifiques. En surveillant les activités de création, de suppression et de mise à jour des rôles, vous pouvez identifier les rôles bénéficiant de droits trop élevés à un stade précoce. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. À comprendre votre utilisation du service et ses coûts, consultez Optimisation des coûts: opérations cloud

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      resource.type="iam_role"
      AND (protoPayload.methodName="google.iam.admin.v1.CreateRole"
      OR protoPayload.methodName="google.iam.admin.v1.DeleteRole"
      OR protoPayload.methodName="google.iam.admin.v1.UpdateRole")

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification lorsque des incidents sont ouverts ou fermés, cochez Envoyer une notification lors de la clôture de l'incident Par défaut, les notifications ne sont envoyées d'incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Dataproc CMEK disabled

Nom de la catégorie dans l'API : DATAPROC_CMEK_DISABLED

Un cluster Dataproc a été créé sans chiffrement CMEK de configuration. Avec les CMEK, les clés que vous créez et gérez dans Cloud Key Management Service que Google Cloud utilise pour chiffrer vos données. Vous bénéficiez ainsi de contrôler l'accès à vos données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Cluster Dataproc dans la console Google Cloud.

    Accéder aux clusters Dataproc

  2. Sélectionnez votre projet, puis cliquez sur Créer un cluster.

  3. Dans la section Gérer la sécurité, cliquez sur Chiffrement, puis sélectionnez Clé gérée par le client.

  4. Sélectionnez une clé gérée par le client dans la liste.

    Si vous ne disposez pas d'une clé gérée par le client, vous devez en créer une et l'utiliser. Pour plus plus d'informations, consultez la page Clés de chiffrement gérées par le client.

  5. Assurez-vous que la clé KMS sélectionnée possède la CryptoKey Cloud KMS Chiffreur/Déchiffreur rôle attribué au compte de service du cluster Dataproc ("serviceAccount:service-project_number@compute-system.iam.gserviceaccount.com").

  6. Une fois le cluster créé, migrez toutes vos charges de travail de l'ancien cluster vers le nouveau.

  7. Accédez à "Clusters Dataproc" et sélectionnez votre projet.

  8. Sélectionnez l'ancien cluster et cliquez sur Supprimer le cluster.

  9. Répétez toutes les étapes ci-dessus pour les autres clusters Dataproc disponibles. dans le projet sélectionné.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Dataproc image outdated

Nom de la catégorie dans l'API : DATAPROC_IMAGE_OUTDATED

Un cluster Dataproc a été créé en utilisant une version d'image Dataproc affectée par les failles de sécurité de l'utilitaire Apache Log4j 2 (CVE-2021-44228 et CVE-2021-45046).

Ce détecteur découvre les failles en vérifiant si le champ softwareConfig.imageVersion de la propriété config d'un objet Cluster comporte l'une des versions concernées suivantes :

  • Versions d'image antérieures à 1.3.95.
  • Versions d'images mineures antérieures à 1.4.77, 1.5.53 et 2.0.27.

Le numéro de version d'une image Dataproc personnalisée peut être remplacé manuellement. Étudions les cas de figure suivants :

  • Vous pouvez modifier la version d'une image personnalisée affectée pour qu'elle semble ne pas être affectée. Dans ce cas, le détecteur ne fournit aucun résultat.
  • Vous pouvez remplacer le numéro de version d'une image personnalisée non affectée par celui d'une version connue pour présenter la faille. Dans ce cas, ce détecteur fournit un faux positif. Pour supprimer de tels faux positifs, vous pouvez les ignorer.

Pour corriger ce résultat, recréez et mettez à jour le cluster concerné.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Dataset CMEK disabled

Nom de la catégorie dans l'API : DATASET_CMEK_DISABLED

Un ensemble de données BigQuery n'est pas configuré pour utiliser une clé de chiffrement gérée par le client par défaut (CMEK).

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés utilisées par Google Cloud pour chiffrer vos données, ce qui vous permet de mieux contrôler l'accès à vos données. Pour en savoir plus, consultez la page Protéger des données avec des clés Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

Vous ne pouvez pas basculer une table en place entre les chiffrements par défaut et le chiffrement CMEK. Pour définir une clé CMEK par défaut avec laquelle chiffrer toutes les nouvelles tables de l'ensemble de données, suivez les instructions de la section Définir une clé par défaut de l'ensemble de données.

Définir une clé par défaut ne rechiffre pas rétroactivement les tables actuelles de l'ensemble de données avec une nouvelle clé. Pour utiliser CMEK pour les données existantes, procédez comme suit :

  1. Créez un ensemble de données.
  2. Définissez une clé CMEK par défaut sur l'ensemble de données que vous avez créé.
  3. Pour copier des tables dans l'ensemble de données compatible avec CMEK, suivez les instructions de la section Copier une table.
  4. Une fois les données copiées, supprimer les ensembles de données d'origine.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Default network

Nom de la catégorie dans l'API : DEFAULT_NETWORK

Le réseau par défaut existe dans un projet.

Les réseaux par défaut créent automatiquement des règles de pare-feu et des configurations réseau qui peuvent ne pas être sécurisées. Pour en savoir plus, consultez la section Réseau par défaut.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC de Google Cloud Console.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau par défaut.

  3. Sur la page Détails du réseau VPC, cliquez sur Supprimer le VPC. Réseau.

  4. Pour créer un réseau avec des règles de pare-feu personnalisées, consultez la page Créer des réseaux.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Default service account used

Nom de la catégorie dans l'API : DEFAULT_SERVICE_ACCOUNT_USED

Une instance Compute Engine est configurée pour utiliser le compte de service par défaut.

Le compte de service Compute Engine par défaut dispose du rôle d'éditeur sur le projet, ce qui permet un accès en lecture et en écriture à la plupart des services Google Cloud. Pour vous protéger des élévations de privilèges et des accès non autorisés, n'utilisez pas le compte de service Compute Engine par défaut. À la place, créez un compte de service et ne lui accorder que les autorisations requises par votre instance. Lue Contrôle des accès pour plus d'informations sur les rôles et autorisations.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page "Instances de VM"

  2. Sélectionnez l'instance associée au résultat de Security Health Analytics.

  3. Sur la page Détails de l'instance page qui s'affiche, cliquez sur Arrêter.

  4. Une fois l'instance arrêtée, cliquez sur Modifier.

  5. Dans la section Compte de service, sélectionnez un compte de service différent du compte de service Compute Engine par défaut. Vous devrez peut-être d'abord créer un nouveau compte de service. Pour plus d'informations sur les rôles et les autorisations IAM, consultez la page Contrôle des accès.

  6. Cliquez sur Enregistrer. La nouvelle configuration s'affiche sur la page Détails de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Disk CMEK disabled

Nom de la catégorie dans l'API : DISK_CMEK_DISABLED

Les disques de cette VM ne sont pas chiffrés avec des clés de chiffrement gérées par le client.

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés utilisées par Google Cloud pour chiffrer vos données, ce qui vous permet de mieux contrôler l'accès à vos données. Pour en savoir plus, consultez la page Protéger des ressources avec des clés Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Disques Compute Engine dans la console Google Cloud.

    Accéder à la page Disques Compute Engine

  2. Dans la liste des disques, cliquez sur le nom du disque indiqué dans le résultat.

  3. Sur la page Gérer le disque, cliquez sur Supprimer.

  4. Pour créer un disque avec CMEK activé, consultez la section Chiffrer un nouveau disque persistant avec vos propres clés. CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Disk CSEK disabled

Nom de la catégorie dans l'API : DISK_CSEK_DISABLED

Les disques de cette VM ne sont pas chiffrés avec des clés de chiffrement fournies par le client (CSEK). Les disques des VM critiques doivent être chiffrés avec des clés CSEK.

Dans ce cas, Compute Engine utilisera votre clé afin de protéger les clés générées par Google pour chiffrer et déchiffrer vos données. Pour en savoir plus, consultez la page Clés de chiffrement fournies par le client. CSEK engendre des coûts supplémentaires liés à Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

Supprimer et créer un disque

Vous pouvez chiffrer les nouveaux disques persistants avec votre propre clé, mais pas les disques persistants existants.

  1. Accédez à la page Disques Compute Engine dans la console Google Cloud.

    Accéder à la page Disques Compute Engine

  2. Dans la liste des disques, cliquez sur le nom du disque indiqué dans le résultat.

  3. Sur la page Gérer le disque, cliquez sur Supprimer.

  4. Pour créer un disque avec CSEK activé, consultez la section Chiffrer des disques avec des clés de chiffrement fournies par le client.

  5. Suivez le reste de la procédure pour activer le détecteur.

Activer le détecteur

  1. Accédez à la page Éléments de Security Command Center dans la console Google Cloud.

    Accéder

  2. Dans la section Type de ressource du panneau Filtres rapides, sélectionnez compute.Disk.

    Si compute.Disk ne s'affiche pas, cliquez sur Afficher plus, saisissez Disk dans le champ de recherche, puis cliquez sur Appliquer.

    Le panneau Results (Résultats) est mis à jour pour n'afficher que les instances des Type de ressource compute.Disk.

  3. Dans la colonne Nom à afficher, cochez la case nom du disque que vous souhaitez utiliser avec la CSEK, puis cliquez sur Définir des marques de sécurité

  4. Dans la boîte de dialogue, cliquez sur Ajouter une marque.

  5. Dans le champ key, saisissez enforce_customer_supplied_disk_encryption_keys et, dans le champ valeur, saisissez true.

  6. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

DNS logging disabled

Nom de la catégorie dans l'API : DNS_LOGGING_DISABLED

La surveillance des journaux Cloud DNS offre une visibilité sur les noms DNS demandés par les clients dans le réseau VPC. Ces journaux peuvent être surveillés pour détecter les anomalies de noms de domaine et évalués selon les renseignements sur les menaces. Nous vous recommandons d'activer la journalisation DNS pour les réseaux VPC.

Selon la quantité d'informations, les coûts de journalisation liés à Cloud DNS peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez la section Tarifs de Google Cloud Observability : Cloud Logging.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC de la console Google Cloud.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau VPC.

  3. Créez une règle de serveur (s'il n'en existe pas) ou modifiez une règle existante :

    • Si le réseau ne dispose pas de règle de serveur DNS, procédez comme suit :

      1. Cliquez sur Modifier.
      2. Dans le champ Règle de serveur DNS, cliquez sur Créer une règle de serveur.
      3. Indiquez le nom de la nouvelle règle du serveur.
      4. Définissez Journaux sur Activé.
      5. Cliquez sur Enregistrer.
    • Si le réseau dispose d'une règle de serveur DNS, procédez comme suit :

      1. Dans le champ Règle de serveur DNS, cliquez sur le nom de la règle DNS.
      2. Cliquez sur Modifier la règle.
      3. Définissez Journaux sur Activé.
      4. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

DNSSEC disabled

Nom de la catégorie dans l'API : DNSSEC_DISABLED

Les extensions de sécurité du système de noms de domaine (DNSSEC, Domain Name System Security Extensions) sont désactivées pour les zones Cloud DNS.

DNSSEC valide les réponses DNS et atténue les risques, tels que le piratage DNS et les attaques de type "MITM" (Man-in-the-middle), en signant de manière cryptographique les enregistrements DNS. Vous devez activer DNSSEC. Pour en savoir plus, consultez la page Présentation des extensions de sécurité DNS (DNSSEC).

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Cloud DNS dans la console Google Cloud.

    Accéder aux réseaux Cloud DNS

  2. Recherchez la ligne contenant la zone DNS indiquée dans le résultat.

  3. Cliquez sur le paramètre DNSSEC sur la ligne puis, sous DNSSEC, sélectionnez Activée.

  4. Lisez la boîte de dialogue qui s'affiche. Si vous êtes satisfait, cliquez sur Activer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Egress deny rule not set

Nom de la catégorie dans l'API : EGRESS_DENY_RULE_NOT_SET

Une règle de refus du trafic sortant n'est pas définie sur un pare-feu.

Un pare-feu qui refuse tout trafic réseau de sortie empêche toutes les connexions réseau sortantes indésirables, à l'exception des connexions explicitement autorisées. Pour plus d'informations, consultez la section Cas de sortie.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page Pare-feu

  2. Cliquez sur Create Firewall Rule (Créer une règle de pare-feu).

  3. Attribuez un nom et, éventuellement, une description au pare-feu.

  4. Pour le champ Sens du trafic, sélectionnez Sortie.

  5. Sous Action en cas de correspondance, sélectionnez Refuser.

  6. Dans le menu déroulant Cibles, sélectionnez Toutes les instances du réseau.

  7. Dans le menu déroulant Filtre de destination, sélectionnez Plages d'adresses IP, puis saisissez 0.0.0.0/0 dans la zone Plages d'adresses IP de destination.

  8. Sous Protocoles et ports, sélectionnez Tout refuser.

  9. Cliquez sur Désactiver la règle puis, sous Application, sélectionnez Activée.

  10. Cliquez sur Créer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Essential contacts not configured

Nom de la catégorie dans l'API : ESSENTIAL_CONTACTS_NOT_CONFIGURED

Votre organisation n'a désigné aucune personne ni aucun groupe pour recevoir les notifications de Google Cloud à propos d'événements importants tels que des attaques, des failles les incidents liés aux données dans votre organisation Google Cloud. Nous vous recommandons désigner comme contact essentiel une ou plusieurs personnes ou groupes de votre l'organisation de l'entreprise.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Contacts essentiels dans console Google Cloud.

    Accéder aux contacts essentiels

  2. Assurez-vous que l'organisation apparaît dans le sélecteur de ressources en haut de la page. Le sélecteur de ressources vous indique quel projet, dossier ou organisation pour laquelle vous gérez actuellement les contacts.

  3. Cliquez sur +Ajouter un contact. Le panneau Ajouter un contact s'ouvre.

  4. Dans les champs Adresse e-mail et Confirmer l'adresse e-mail, saisissez l'adresse e-mail. du contact.

  5. Dans la section Catégories de notifications, sélectionnez les catégories de notification que vous souhaitez envoyer au contact de communication. Assurez-vous que les adresses e-mail appropriées sont configurées pour chacune des catégories de notification suivantes :

    1. Juridique
    2. Sécurité
    3. Suspension
    4. Technique
  6. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Firewall not monitored

Nom de la catégorie dans l'API : FIREWALL_NOT_MONITORED

Les statistiques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées aux règles de pare-feu de réseau VPC.

La surveillance des événements de création et de mise à jour des règles de pare-feu vous donne le détail des modifications d'accès au réseau, et vous permet de détecter rapidement les activités suspectes. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. À comprendre votre utilisation du service et ses coûts, consultez Optimisation des coûts: opérations cloud

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      resource.type="gce_firewall_rule"
      AND (protoPayload.methodName:"compute.firewalls.insert"
      OR protoPayload.methodName:"compute.firewalls.patch"
      OR protoPayload.methodName:"compute.firewalls.delete")

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification lorsque des incidents sont ouverts ou fermés, cochez Envoyer une notification lors de la clôture de l'incident Par défaut, les notifications ne sont envoyées d'incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Firewall rule logging disabled

Nom de la catégorie dans l'API : FIREWALL_RULE_LOGGING_DISABLED

La journalisation des règles de pare-feu est désactivée.

La journalisation des règles de pare-feu vous permet de réaliser des audits, des vérifications et des analyses sur les effets de vos règles de pare-feu. Cela peut vous être utile pour auditer l'accès au réseau ou pour identifier le plus tôt possible les cas d'utilisation non approuvée du réseau. Le coût des journaux peut être important. Pour en savoir plus sur la journalisation des règles de pare-feu et son coût, consultez la page Utiliser la journalisation des règles de pare-feu.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu souhaitée.

  3. Cliquez sur Modifier.

  4. Sous Journaux, sélectionnez Activé.

  5. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Flow logs disabled

Nom de la catégorie dans l'API : FLOW_LOGS_DISABLED

Les journaux de flux sont désactivés dans un sous-réseau VPC.

Les journaux de flux VPC enregistrent un échantillon des flux réseau envoyés et reçus par les instances de VM. Ces journaux peuvent être utilisés pour la surveillance et l'investigation des réseaux, l'analyse de la sécurité en temps réel et l'optimisation des dépenses. Pour en savoir plus sur les journaux de flux et leur coût, consultez la page Utiliser des journaux de flux VPC.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC dans Google Cloud Console.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau souhaité.

  3. Sur la page Détails du réseau VPC, cliquez sur l'onglet Sous-réseaux.

  4. Dans la liste des sous-réseaux, cliquez sur le nom du sous-réseau indiqué dans le résultat.

  5. Sur la page Détails du sous-réseau, cliquez sur Modifier.

  6. Sous Journaux de flux, sélectionnez Activé.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Nom de la catégorie dans l'API : VPC_FLOW_LOGS_SETTINGS_NOT_RECOMMENDED

Dans la configuration d'un sous-réseau dans un réseau VPC, le service de journaux de flux VPC désactivée ou n'est pas configurée conformément aux recommandations du benchmark CIS 1.3. Les journaux de flux VPC enregistrent un échantillon des flux réseau envoyés et reçus par les instances de VM, lequel peut être utilisé pour détecter des menaces.

Pour en savoir plus sur les journaux de flux VPC et leur coût, consultez la section Utiliser Journaux de flux VPC

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC dans Google Cloud Console.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau.

  3. Sur la page Détails du réseau VPC, cliquez sur l'onglet Sous-réseaux.

  4. Dans la liste des sous-réseaux, cliquez sur le nom du sous-réseau indiqué dans le résultat.

  5. Sur la page Détails du sous-réseau, cliquez sur Modifier.

  6. Sous Journaux de flux, sélectionnez Activé.

    1. Vous pouvez aussi modifier la configuration des journaux en cliquant sur le bouton Configurer les journaux pour développer l'onglet. Les benchmarks CIS recommandent les paramètres suivants:
      1. Définissez l'intervalle d'agrégation sur 5 secondes.
      2. Dans la case Champs supplémentaires, cochez les Option Inclure les métadonnées.
      3. Définissez le taux d'échantillonnage sur 100%.
      4. Cliquez sur le bouton ENREGISTRER.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Full API access

Nom de la catégorie dans l'API : FULL_API_ACCESS

Une instance Compute Engine est configurée pour utiliser le compte de service par défaut avec un accès complet à toutes les API Google Cloud.

Une instance configurée avec le compte de service par défaut et l'accès à l'API défini sur Autoriser l'accès complet à l'ensemble des API Cloud peut permettre aux utilisateurs d'effectuer des opérations ou des appels d'API pour lesquels ils ne disposent pas autorisations. Pour plus d'informations, consultez la section Compte de service Compute Engine par défaut.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Si l'instance est en cours d'exécution, cliquez sur Arrêter.

  4. Lorsque l'instance est arrêtée, cliquez sur Modifier.

  5. Dans la section Sécurité et accès, sous Comptes de service : sélectionnez Compte de service Compute Engine par défaut.

  6. Sous Niveaux d'accès, sélectionnez Autoriser l'accès par défaut ou Définissez l'accès pour chaque API. Cela limite les API que tout processus ou charge de travail qui utilise le compte de service de VM par défaut.

  7. Si vous avez sélectionné Définir l'accès pour chaque API, procédez comme suit:

    • Désactivez Cloud Platform en le définissant sur Aucun.
    • Activer les API spécifiques requises par le compte de service de VM par défaut y accéder.
  8. Cliquez sur Enregistrer.

  9. Cliquez sur Démarrer pour démarrer l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

HTTP load balancer

Nom de la catégorie dans l'API : HTTP_LOAD_BALANCER

Une instance utilise un équilibreur de charge configuré pour utiliser un proxy HTTP au lieu d'un proxy HTTPS comme cible.

Pour protéger l'intégrité de vos données et empêcher des intrus de falsifier vos communications, configurez vos équilibreurs de charge HTTP(S) de manière à autoriser uniquement le trafic HTTPS. Pour plus d'informations, consultez la page Présentation de l'équilibrage de charge HTTP(S) externe.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Proxies cibles de la console Google Cloud.

    Accéder aux proxys cibles

  2. Dans la liste des proxys cibles, cliquez sur le nom du proxy cible dans le résultat.

  3. Cliquez sur le lien dans la section Mappage d'URL.

  4. Cliquez sur Modifier.

  5. Cliquez sur Frontend configuration (Configuration du frontend).

  6. Supprimez toutes les configurations IP frontend et de port qui autorisent le trafic HTTP et créez-en de nouvelles qui autorisent le trafic HTTPS.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Instance OS login disabled

Nom de la catégorie dans l'API : INSTANCE_OS_LOGIN_DISABLED

OS Login est désactivé sur cette instance Compute Engine.

OS Login active la gestion centralisée des clés SSH avec IAM et désactive les configurations de clés SSH basées sur les métadonnées dans toutes les instances d'un projet. Découvrez comment Configurer OS Login.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Sur la page Détails de l'instance qui s'affiche, cliquez sur  Arrêter.

  4. Une fois l'instance arrêtée, cliquez sur Modifier.

  5. Dans la section Métadonnées personnalisées, assurez-vous que l'élément associé à la clé enable-oslogin a la valeur TRUE.

  6. Cliquez sur Enregistrer.

  7. Cliquez sur Démarrer pour démarrer l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Integrity monitoring disabled

Nom de la catégorie dans l'API : INTEGRITY_MONITORING_DISABLED

La surveillance de l'intégrité est désactivée sur un cluster GKE.

La surveillance de l'intégrité vous permet de contrôler et de valider l'intégrité, au démarrage de l'environnement d'exécution, de vos nœuds protégés avec Cloud Monitoring. Vous pouvez ainsi réagir aux échecs d'intégrité et empêcher le déploiement de nœuds compromis dans le cluster.

Pour corriger ce résultat, procédez comme suit :

Une fois qu'un nœud est provisionné, il ne peut pas être mis à jour pour activer la surveillance de l'intégrité. Vous devez créer un pool de nœuds dans lequel la surveillance de l'intégrité est activée.

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur le nom du cluster dans le résultat.

  3. Cliquez sur Aouter un pool de nœuds.

  4. Dans l'onglet Sécurité, assurez-vous que l'option Activer la surveillance de l'intégrité est activée.

  5. Cliquez sur Create (Créer).

  6. Pour migrer vos charges de travail des pools de nœuds non conformes existants vers les nouveaux pools de nœuds, consultez la page Migrer des charges de travail vers différents types de machines.

  7. Une fois les charges de travail déplacées, supprimez le pool de nœuds non conforme d'origine.

    1. Sur la page du cluster Kubernetes, dans le menu Pools de nœuds, cliquez sur le nom du pool que vous voulez supprimer.
    2. Cliquez sur Supprimer le pool de nœuds.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Intranode visibility disabled

Nom de la catégorie dans l'API : INTRANODE_VISIBILITY_DISABLED

La visibilité intranœud est désactivée pour un cluster GKE.

L'activation de la visibilité intranœud rend le trafic intranœud entre pods visible par la structure de mise en réseau. Grâce à cette fonctionnalité, vous pouvez utiliser la journalisation de flux VPC ou d'autres fonctionnalités de VPC pour surveiller ou contrôler le trafic intranœud. Pour obtenir les journaux, vous devez activer les journaux de flux VPC dans le sous-réseau sélectionné. Pour plus d'informations, consultez la page Utiliser des journaux de flux VPC.

Pour corriger ce résultat, procédez comme suit :

Une fois qu'un nœud est provisionné, il ne peut pas être mis à jour pour activer la surveillance de l'intégrité. Vous devez créer un pool de nœuds dans lequel la surveillance de l'intégrité est activée.

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la section Mise en réseau, cliquez sur Modifier la visibilité intranœud dans la ligne Visibilité intranœud.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  3. Dans la boîte de dialogue, sélectionnez Activer la visibilité intranœud.

  4. Cliquez sur Save Changes (Enregistrer les modifications).

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

IP alias disabled

Nom de la catégorie dans l'API : IP_ALIAS_DISABLED

Un cluster GKE a été créé avec des plages d'adresses IP d'alias désactivées.

Lorsque vous activez les plages d'adresses IP d'alias, les clusters GKE allouent des adresses IP provenant d'un bloc CIDR connu, pour que votre cluster soit évolutif et interagisse plus facilement avec les produits et entités Google Cloud. Pour plus d'informations, consultez la page Présentation des plages d'adresses IP d'alias.

Pour corriger ce résultat, procédez comme suit :

Il n'est pas possible de migrer un cluster existant pour qu'il utilise des adresses IP d'alias. Pour créer un nouveau cluster avec les adresses IP d'alias activées, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur Create (Créer).

  3. Dans le volet de navigation, sous Cluster, cliquez sur Réseau.

  4. Sous Options de mise en réseau avancées, sélectionnez Activer le routage du trafic de VPC natif (utilisation d'une adresse IP d'alias).

  5. Cliquez sur Create (Créer).

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

IP forwarding enabled

Nom de la catégorie dans l'API : IP_FORWARDING_ENABLED

Le transfert IP est activé sur les instances Compute Engine.

Évitez les pertes de données et la divulgation d'informations en désactivant le transfert IP des paquets de données pour vos VM.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cochez la case située à côté du nom de l'instance dans le résultat.

  3. Cliquez sur Supprimer.

  4. Sélectionnez Créer une instance pour créer une instance afin de remplacer celle que vous avez supprimée.

  5. Pour vous assurer que le transfert IP est désactivé, cliquez sur Gestion, disques, réseau, clés SSH, puis sur Réseau.

  6. Sous Interfaces réseau, cliquez sur Modifier.

  7. Sous Transfert IP, dans le menu déroulant, assurez-vous que l'option Désactivé est sélectionnée.

  8. Renseignez les autres paramètres d'instance, puis cliquez sur Créer. Pour en savoir plus, consultez la page Créer et démarrer une instance de VM.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

KMS key not rotated

Nom de la catégorie dans l'API : KMS_KEY_NOT_ROTATED

La rotation n'est pas configurée sur une clé de chiffrement Cloud KMS.

La rotation de vos clés de chiffrement offre régulièrement une protection en cas de compromission d'une clé et limite le nombre de messages chiffrés disponibles à la cryptanalyse pour une version de clé spécifique. Pour en savoir plus, consultez la page Rotation des clés.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés Cloud KMS de la console Google Cloud.

    Accéder à la page Clés Cloud KMS

  2. Cliquez sur le nom du trousseau de clés indiqué dans le résultat.

  3. Cliquez sur le nom de la clé indiquée dans le résultat.

  4. Cliquez sur Modifier la période de rotation.

  5. Définissez la période de rotation sur 90 jours au maximum.

  6. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

KMS project has owner

Nom de la catégorie dans l'API : KMS_PROJECT_HAS_OWNER

Un utilisateur dispose des autorisations roles/Owner sur un projet disposant de clés cryptographiques. Pour en savoir plus, consultez la section Autorisations et rôles.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page "IAM" de Google Cloud Console.

    Accéder à la page IAM

  2. Si nécessaire, sélectionnez le projet dans les résultats.

  3. Pour chaque compte principal auquel le rôle Propriétaire a été attribué :

    1. Cliquez sur Modifier.
    2. Dans le panneau Modifier les autorisations, à côté du rôle Propriétaire, cliquez sur Supprimer.
    3. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

KMS public key

Nom de la catégorie dans l'API : KMS_PUBLIC_KEY

Une clé Cryptokey Cloud KMS ou un trousseau de clés Cloud KMS est public et accessible à tous les internautes. Pour en savoir plus, consultez la page Utiliser IAM avec Cloud KMS.

Pour corriger ce résultat, s'il est lié à une clé Cryptokey :

  1. Accédez à la page des clés de chiffrement dans la console Google Cloud.

    Cryptographic Keys

  2. Sous Nom, sélectionnez le trousseau de clés contenant la clé cryptographique associée au résultat de Security Health Analytics.

  3. Sur la page Informations sur le trousseau qui s'affiche, cochez la case en regard de la clé cryptographique.

  4. Si le PANNEAU D'INFORMATIONS n'apparaît pas, cliquez sur le bouton AFFICHER LE PANNEAU D'INFORMATIONS.

  5. Utilisez la zone de filtre qui précède Rôle / Compte principal pour rechercher les comptes principaux allUsers et allAuthenticatedUsers, puis cliquez sur Supprimer pour supprimer l'accès de ces comptes principaux.

Pour corriger ce résultat, s'il est lié à un trousseau de clés :

  1. Accédez à la page des clés de chiffrement dans la console Google Cloud.

    Cryptographic Keys

  2. Recherchez la ligne contenant le trousseau de clés dans le résultat, puis cochez la case correspondante.

  3. Si le PANNEAU D'INFORMATIONS n'apparaît pas, cliquez sur le bouton AFFICHER LE PANNEAU D'INFORMATIONS.

  4. Utilisez la zone de filtre qui précède Rôle / Compte principal pour rechercher les comptes principaux allUsers et allAuthenticatedUsers, puis cliquez sur Supprimer pour supprimer l'accès de ces comptes principaux.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

KMS role separation

Nom de la catégorie dans l'API : KMS_ROLE_SEPARATION

Ce résultat n'est pas disponible pour les activations au niveau du projet.

Plusieurs autorisations Cloud KMS sont attribuées à un ou plusieurs comptes principaux. Nous vous recommandons de ne pas attribuer simultanément l'autorisation Administrateur Cloud KMS avec d'autres autorisations Cloud KMS. Pour en savoir plus, consultez la section Autorisations et rôles.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page "IAM" de Google Cloud Console.

    Accéder à IAM

  2. Pour chaque compte principal répertorié dans le résultat, procédez comme suit :

    1. Pour vérifier si le rôle a été hérité d'un dossier ou d'une ressource d'organisation, consultez la colonne Héritage. Si la colonne contient un lien vers une ressource parente, cliquez sur ce lien pour accéder à la page IAM de la ressource parente.
    2. Cliquez sur Modifier à côté d'un compte principal.
    3. Pour supprimer les autorisations, cliquez sur Supprimer à côté de Administrateur Cloud KMS. Si vous souhaitez supprimer toutes les autorisations cliquez sur Supprimer à côté de toutes les autres autorisations.
  3. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Legacy authorization enabled

Nom de la catégorie dans l'API : LEGACY_AUTHORIZATION_ENABLED

L'ancienne autorisation est activée sur les clusters GKE.

Dans Kubernetes, le contrôle des accès basé sur les rôles permet de définir des rôles avec des règles contenant un ensemble d'autorisations, et d'accorder des autorisations au niveau du cluster et de l'espace de noms. Ce mécanisme renforce la sécurité en garantissant que les utilisateurs n'ont accès qu'à des ressources spécifiques. Envisagez de désactiver l'ancien contrôle des accès basé sur les attributs (ABAC).

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Sélectionnez le cluster répertorié dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Dans la liste déroulante Ancienne autorisation, sélectionnez Désactivée.

  5. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Legacy metadata enabled

Nom de la catégorie dans l'API : LEGACY_METADATA_ENABLED

Les anciennes métadonnées sont activées sur les clusters GKE.

Le serveur de métadonnées d'instance de Compute Engine expose les anciens points de terminaison /0.1/ et /v1beta1/ qui n'appliquent pas les en-têtes de requête de métadonnées. Il s'agit d'une fonctionnalité des API /v1/ qui rend plus difficile la récupération de métadonnées d'instance par un éventuel pirate informatique. Sauf indication contraire, nous vous recommandons de désactiver ces anciennes API /0.1/ et /v1beta1/.

Pour en savoir plus, consultez la section Désactiver les anciennes API de métadonnées et effectuer une migration.

Pour corriger ce résultat, procédez comme suit :

Vous ne pouvez désactiver les anciennes API de métadonnées que lorsque vous créez un cluster ou lorsque vous ajoutez un nouveau pool de nœuds à un cluster existant. Pour mettre à jour un cluster existant afin de désactiver les anciennes API de métadonnées, consultez la section Migrer des charges de travail vers différents types de machines.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Legacy network

Nom de la catégorie dans l'API : LEGACY_NETWORK

Un ancien réseau existe dans un projet.

Les anciens réseaux ne sont pas recommandés, car de nombreuses nouvelles fonctionnalités de sécurité Google Cloud ne sont pas compatibles avec les anciens réseaux. Utilisez plutôt les réseaux VPC. Pour en savoir plus, consultez la section Anciens réseaux.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC dans Google Cloud Console.

    Accéder aux réseaux VPC

  2. Pour créer un réseau non hérité, cliquez sur Créer un réseau.

  3. Revenez à la page VPC networks (Réseaux VPC).

  4. Dans la liste des réseaux, cliquez sur legacy_network.

  5. Sur la page Détails du réseau VPC, cliquez sur Supprimer le VPC. Réseau.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Load balancer logging disabled

Nom de la catégorie dans l'API : LOAD_BALANCER_LOGGING_DISABLED

La journalisation est désactivée pour le service de backend dans un équilibreur de charge.

L'activation de la journalisation pour un équilibreur de charge vous permet d'afficher le trafic réseau HTTP(S) pour vos applications Web. Pour en savoir plus, consultez Équilibreur de charge.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Cloud Load Balancing console Google Cloud.

    Accéder à Cloud Load Balancing

  2. Cliquez sur le nom de votre équilibreur de charge.

  3. Cliquez sur Modifier.

  4. Cliquez sur Configuration du backend.

  5. Sur la page Configuration du backend, cliquez sur Modifier.

  6. Dans la section Journalisation, sélectionnez Activer la journalisation et choisissez l'option le taux d'échantillonnage de votre projet.

  7. Pour terminer la modification du service de backend, cliquez sur Mettre à jour.

  8. Pour terminer la modification de l'équilibreur de charge, cliquez sur Mettre à jour.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Locked retention policy not set

Nom de la catégorie dans l'API : LOCKED_RETENTION_POLICY_NOT_SET

Une règle de conservation verrouillée n'est pas définie pour les journaux.

Une règle de conservation verrouillée empêche d'écraser des journaux et de supprimer le bucket de journaux. Pour en savoir plus, consultez la page Bucket Verrouiller.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Navigateur de stockage de la console Google Cloud.

    Accéder au navigateur Cloud Storage

  2. Sélectionnez le bucket répertorié dans le résultat de Security Health Analytics.

  3. Sur la page Informations sur le bucket, cliquez sur l'onglet Autorisations.

  4. Si aucune règle de conservation n'a été définie, cliquez sur Définir une règle de conservation.

  5. Indiquez une durée de conservation.

  6. Cliquez sur Enregistrer. La règle de conservation s'affiche dans l'onglet Conservation.

  7. Cliquez sur Verrouiller pour vous assurer que la durée de conservation n'est pas raccourcie ni supprimée.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Log not exported

Nom de la catégorie dans l'API : LOG_NOT_EXPORTED

Aucun récepteur de journaux approprié n'est configuré pour une ressource.

Cloud Logging vous aide à trouver rapidement la cause des problèmes dans votre système et vos applications. Toutefois, la plupart des journaux ne sont conservés par défaut que pendant 30 jours. Exportez des copies de toutes les entrées de journal pour prolonger la période de stockage. Pour en savoir plus, consultez la section Présentation des exportations de journaux.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Routeur de journaux de la console Google Cloud.

    Accéder au Routeur de journaux

  2. Cliquez sur Créer un récepteur.

  3. Pour exporter tous les journaux, laissez les filtres d'inclusion et d'exclusion vides.

  4. Cliquez sur Créer un récepteur.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Master authorized networks disabled

Nom de la catégorie dans l'API : MASTER_AUTHORIZED_NETWORKS_DISABLED

Les réseaux autorisés du plan de contrôle ne sont pas activés sur les clusters GKE.

Les réseaux autorisés du plan de contrôle améliorent la sécurité de votre cluster de conteneurs en empêchant des adresses IP spécifiées d'accéder au plan de contrôle du cluster. Pour en savoir plus, consultez la section Ajouter des réseaux autorisés pour l'accès au plan de contrôle.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Sélectionnez le cluster répertorié dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Dans la liste déroulante Réseaux autorisés pour le plan de contrôle, sélectionnez Activés.

  5. Cliquez sur Add authorized network (Ajouter un réseau autorisé).

  6. Spécifiez les réseaux autorisés que vous souhaitez utiliser.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

MFA not enforced

Nom de la catégorie dans l'API : MFA_NOT_ENFORCED

Ce résultat n'est pas disponible pour les activations au niveau du projet.

L'authentification multifacteur, plus précisément la validation en deux étapes, est désactivée pour certains utilisateurs de votre organisation.

Vous pouvez utiliser l'authentification multifacteur pour protéger les comptes contre les accès non autorisés. C'est l'outil le plus important pour protéger votre organisation en cas d'identifiants de connexion compromis. Pour en savoir plus, consultez la page Protéger votre entreprise avec la validation en deux étapes.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Console d'administration de la console Google Cloud.

    Accéder à la console d'administration

  2. Appliquez la validation en deux étapes pour toutes les unités organisationnelles.

Supprimer les résultats de ce type

Pour supprimer les résultats de ce type, définissez une règle Ignorer qui coupe automatiquement le son les résultats futurs de ce type. Pour en savoir plus, consultez Ignorez des résultats dans Security Command Center.

Bien qu'il ne s'agisse pas d'une méthode recommandée pour supprimer les résultats, vous pouvez également ajouter des marques de sécurité dédiées aux ressources, de sorte que les détecteurs Security Health Analytics les résultats pour ces éléments.

  • Pour empêcher la réactivation de ce résultat, ajoutez la marque de sécurité allow_mfa_not_enforced avec la valeur true à l'élément.
  • Pour ignorer les violations potentielles pour des unités organisationnelles spécifiques, ajoutez la marque de sécurité excluded_orgunits à l'élément avec une liste de chemins d'accès des unités organisationnelles séparés par des virgules dans le champ valeur. Exemple : excluded_orgunits:/people/vendors/vendorA,/people/contractors/contractorA.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Network not monitored

Nom de la catégorie dans l'API : NETWORK_NOT_MONITORED

Les statistiques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées au réseau VPC.

Pour détecter les modifications incorrectes ou non autorisées apportées à la configuration réseau, surveillez les modifications du réseau VPC. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. À comprendre votre utilisation du service et ses coûts, consultez Optimisation des coûts: opérations cloud

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      resource.type="gce_network"
      AND (protoPayload.methodName:"compute.networks.insert"
      OR protoPayload.methodName:"compute.networks.patch"
      OR protoPayload.methodName:"compute.networks.delete"
      OR protoPayload.methodName:"compute.networks.removePeering"
      OR protoPayload.methodName:"compute.networks.addPeering")

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification lorsque des incidents sont ouverts ou fermés, cochez Envoyer une notification lors de la clôture de l'incident Par défaut, les notifications ne sont envoyées d'incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Network policy disabled

Nom de la catégorie dans l'API : NETWORK_POLICY_DISABLED

La stratégie de réseau est désactivée sur les clusters GKE.

La communication entre les pods est ouverte par défaut. Une communication ouverte permet aux pods de se connecter directement aux nœuds, avec ou sans traduction d'adresse réseau. Une ressource NetworkPolicy est semblable à un pare-feu au niveau du pod qui restreint les connexions entre les pods, sauf si la ressource NetworkPolicy autorise explicitement la connexion. Découvrez comment définir une règle de réseau.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur le nom du cluster répertorié dans le résultat de Security Health Analytics.

  3. Sous Mise en réseau, sur la ligne Règle de réseau Kubernetes pour Calico, cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Dans la boîte de dialogue, sélectionnez Activer la règle de réseau Kubernetes pour Calico pour le plan de contrôle. Activez la règle de réseau Kubernetes pour Calico pour les nœuds.

  5. Cliquez sur Save Changes (Enregistrer les modifications).

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Nodepool boot CMEK disabled

Nom de la catégorie dans l'API : NODEPOOL_BOOT_CMEK_DISABLED

Les disques de démarrage de ce pool de nœuds ne sont pas chiffrés avec des clés de chiffrement gérées par le client (CMEK). La fonctionnalité CMEK permet à l'utilisateur de configurer les clés de chiffrement par défaut pour les disques de démarrage d'un pool de nœuds.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la liste des clusters, cliquez sur le nom du cluster dans le résultat.

  3. Cliquez sur l'onglet Nœuds.

  4. Pour chaque pool de nœuds default-pool, cliquez sur Supprimer.

  5. Lorsque vous êtes invité à confirmer votre choix, cliquez sur Supprimer.

  6. Pour créer des pools de nœuds à l'aide de CMEK, consultez la page Utiliser des clés de chiffrement gérées par le client (CMEK). CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Nodepool secure boot disabled

Nom de la catégorie dans l'API : NODEPOOL_SECURE_BOOT_DISABLED

Le démarrage sécurisé est désactivé pour un cluster GKE.

Activez le démarrage sécurisé pour les nœuds GKE protégés afin de valider les signatures numériques des composants de démarrage des nœuds. Pour plus d'informations, consultez la section Démarrage sécurisé.

Pour corriger ce résultat, procédez comme suit :

Une fois un pool de nœuds provisionné, il ne peut plus être mis à jour pour activer le démarrage sécurisé. Vous devez créer un pool de nœuds avec le démarrage sécurisé activé.

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur le nom du cluster dans le résultat.

  3. Cliquez sur Aouter un pool de nœuds.

  4. Dans le menu Pools de nœuds, procédez comme suit :

    1. Cliquez sur le nom du nouveau pool de nœuds pour développer l'onglet.
    2. Sélectionnez Sécurité puis, sous Options protégées, sélectionnez Activer le démarrage sécurisé.
    3. Cliquez sur Create (Créer).
    4. Pour migrer vos charges de travail des pools de nœuds non conformes existants vers les nouveaux pools de nœuds, consultez la page Migrer des charges de travail vers différents types de machines.
    5. Une fois les charges de travail déplacées, supprimez le pool de nœuds non conforme d'origine.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Non org IAM member

Nom de la catégorie dans l'API : NON_ORG_IAM_MEMBER

Un utilisateur externe à votre organisation ou à votre projet dispose d'autorisations IAM sur un projet ou organisation. Découvrez les autorisations IAM.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page "IAM" de Google Cloud Console.

    Accéder à IAM

  2. Cochez les cases correspondant aux utilisateurs externes à votre organisation ou à votre projet.

  3. Cliquez sur Supprimer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Object versioning disabled

Nom de la catégorie dans l'API : OBJECT_VERSIONING_DISABLED

La gestion des versions d'objets n'est pas activée sur un bucket de stockage dans lequel les récepteurs sont configurés.

Pour permettre la récupération des objets supprimés ou écrasés, Cloud Storage propose la fonctionnalité de gestion des versions d'objets. Activez la gestion des versions d'objets pour éviter que vos données Cloud Storage ne soient accidentellement écrasées ou supprimées. Découvrez comment Activer la gestion des versions d'objets.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, utilisez l'indicateur --versioning dans une gcloud storage buckets update avec la valeur appropriée:

    gcloud storage buckets update gs://finding.assetDisplayName --versioning

Remplacez finding.assetDisplayName par le nom du bucket concerné.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open Cassandra port

Nom de la catégorie dans l'API : OPEN_CASSANDRA_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports Cassandra peuvent exposer vos services Cassandra aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service Cassandra sont les suivants :

  • TCP - 7000, 7001, 7199, 8888, 9042, 9160, 61620, 61621

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open ciscosecure websm port

Nom de la catégorie dans l'API : OPEN_CISCOSECURE_WEBSM_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports CiscoSecure/WebSM peuvent exposer vos services CiscoSecure/WebSM à des pirates informatiques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service CiscoSecure/WebSM sont les suivants :

  • TCP - 9090

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open directory services port

Nom de la catégorie dans l'API : OPEN_DIRECTORY_SERVICES_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports d'annuaire risquent d'exposer vos services d'annuaire aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports du service d'annuaire sont les suivants :

  • TCP - 445
  • UDP - 445

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open DNS port

Nom de la catégorie dans l'API : OPEN_DNS_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports DNS peuvent exposer vos services DNS aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service DNS sont les suivants :

  • TCP - 53
  • UDP - 53

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open Elasticsearch port

Nom de la catégorie dans l'API : OPEN_ELASTICSEARCH_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports Elasticsearch peuvent exposer vos services Elasticsearch aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports du service Elasticsearch sont les suivants :

  • TCP - 9200, 9300

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open firewall

Nom de la catégorie dans l'API : OPEN_FIREWALL

Les règles de pare-feu qui autorisent les connexions à partir de toutes les adresses IP (telles que 0.0.0.0/0) ou de tous les ports peuvent exposer inutilement les ressources à des attaques d'origine imprévue. Ces règles doivent être supprimées ou appliquées de façon explicite aux plages d'adresses IP sources ou aux ports prévus. Par exemple, dans les applications destinées à être publiques, envisagez de limiter les ports autorisés à ceux nécessaires à l'application, comme 80 et 443. Si votre application doit autoriser les connexions à partir de tous les ports ou adresses IP, vous pouvez ajouter l'élément à une liste d'autorisation. En savoir plus sur la mise à jour des règles de pare-feu.

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Règles de pare-feu de la console Google Cloud.

    Accéder aux règles de pare-feu

  2. Cliquez sur la règle de pare-feu répertoriée dans le résultat de Security Health Analytics, puis sur Modifier.

  3. Sous Plages d'adresses IP sources, modifiez les valeurs de d'adresse IP pour restreindre la plage d'adresses IP autorisées.

  4. Dans la section Protocoles et ports, sélectionnez Protocoles et ports spécifiés, sélectionnez les protocoles autorisés et saisissez les ports autorisés.

  5. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open FTP port

Nom de la catégorie dans l'API : OPEN_FTP_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports FTP peuvent exposer vos services FTP aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service FTP sont les suivants :

  • TCP - 21

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open group IAM member

Nom de la catégorie dans l'API : OPEN_GROUP_IAM_MEMBER

Un ou plusieurs comptes principaux ayant accès à une organisation, un projet ou un dossier sont des comptes Google Groupes pouvant être associés sans approbation.

Les clients Google Cloud peuvent utiliser des groupes Google pour gérer les rôles et les autorisations des membres de leur organisation, ou appliquer des règles d'accès à des groupes d'utilisateurs. Au lieu d'attribuer des rôles directement aux membres, les administrateurs peuvent attribuer des rôles et des autorisations à des groupes Google, puis ajouter des membres à des groupes spécifiques. Les membres du groupe héritent de l'ensemble des rôles et des autorisations de ce groupe, ce qui leur permet d'accéder à des ressources et à des services spécifiques.

Si un compte Google Groupes ouvert est utilisé comme compte principal dans une liaison IAM, n'importe qui peut hériter du rôle associé en rejoignant le groupe directement ou indirectement (via un sous-groupe). Nous vous recommandons de révoquer les rôles des groupes ouverts ou de limiter l'accès à ces groupes.

Pour corriger ce problème, effectuez l'une des procédures suivantes.

Supprimer le groupe de la stratégie IAM

  1. Accédez à la page "IAM" de Google Cloud Console.

    Accéder à IAM

  2. Si nécessaire, sélectionnez le projet, le dossier ou l'organisation dans le résultat.

  3. Révoquez le rôle de chaque groupe ouvert identifié dans le résultat.

Limiter l'accès aux groupes ouverts

  1. Connectez-vous à Google Groupes.
  2. Mettez à jour les paramètres de chaque groupe ouvert et des sous-groupes associés pour spécifier qui peut rejoindre le groupe et qui doit approuver les demandes.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open HTTP port

Nom de la catégorie dans l'API : OPEN_HTTP_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports HTTP peuvent exposer vos services HTTP aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service HTTP sont les suivants :

  • TCP - 80

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open LDAP port

Nom de la catégorie dans l'API : OPEN_LDAP_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports LDAP peuvent exposer vos services LDAP à des pirates informatiques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service LDAP sont les suivants :

  • TCP - 389, 636
  • UDP - 389

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open Memcached port

Nom de la catégorie dans l'API : OPEN_MEMCACHED_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports Memcached peuvent exposer vos services Memcached aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service Memcached sont les suivants :

  • TCP - 11211, 11214, 11215
  • UDP - 11211, 11214, 11215

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open MongoDB port

Nom de la catégorie dans l'API : OPEN_MONGODB_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports MongoDB peuvent exposer vos services MongoDB aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service MongoDB sont les suivants :

  • TCP - 27017, 27018, 27019

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open MySQL port

Nom de la catégorie dans l'API : OPEN_MYSQL_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports MySQL peuvent exposer vos services MySQL aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service MySQL sont les suivants :

  • TCP - 3306

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open NetBIOS port

Nom de la catégorie dans l'API : `OPEN_NETBIOS_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports NetBIOS peuvent exposer vos services NetBIOS aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports du service NetBIOS sont les suivants :

  • TCP - 137, 138, 139
  • UDP - 137, 138, 139

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open OracleDB port

Nom de la catégorie dans l'API : OPEN_ORACLEDB_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports OracleDB peuvent exposer vos services OracleDB aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service OracleDB sont les suivants :

  • TCP - 1521, 2483, 2484
  • UDP - 2483, 2484

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open POP3 port

Nom de la catégorie dans l'API : OPEN_POP3_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports POP3 peuvent exposer vos services POP3 aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service POP3 sont les suivants :

  • TCP - 110

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open PostgreSQL port

Nom de la catégorie dans l'API : OPEN_POSTGRESQL_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports PostgreSQL peuvent exposer vos services PostgreSQL aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service PostgreSQL sont les suivants :

  • TCP - 5432
  • UDP - 5432

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open RDP port

Nom de la catégorie dans l'API : OPEN_RDP_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports RDP peuvent exposer vos services RDP aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service RDP sont les suivants :

  • TCP - 3389
  • UDP - 3389

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open Redis port

Nom de la catégorie dans l'API : OPEN_REDIS_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports Redis peuvent exposer vos services Redis aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service Redis sont les suivants :

  • TCP - 6379

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open SMTP port

Nom de la catégorie dans l'API : OPEN_SMTP_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports SMTP peuvent exposer vos services SMTP aux pirates informatiques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service SMTP sont les suivants :

  • TCP - 25

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Open SSH port

Nom de la catégorie dans l'API : OPEN_SSH_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports SSH peuvent exposer vos services SSH aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service SSH sont les suivants :

  • SCTP - 22
  • TCP - 22

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open Telnet port

Nom de la catégorie dans l'API : OPEN_TELNET_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports Telnet peuvent exposer vos services Telnet aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service Telnet sont les suivants :

  • TCP - 23

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Org policy Confidential VM policy

Nom de la catégorie dans l'API : ORG_POLICY_CONFIDENTIAL_VM_POLICY

Une ressource Compute Engine n'est pas conforme à la règle d'administration constraints/compute.restrictNonConfidentialComputing. Pour plus d'informations sur cette contrainte de règle d'administration, consultez la section Appliquer des contraintes de règle d'administration.

Le service Confidential VM doit être activé sur cette VM selon les règles définies par votre organisation. Les VM pour lesquelles ce service n'est pas activé n'utilisent pas le chiffrement de la mémoire d'exécution, ce qui les expose à des attaques ciblant cette section de mémoire.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Si la VM ne nécessite pas le service Confidential VM, déplacez-la dans un nouveau dossier ou un nouveau projet.

  4. Si la VM nécessite une Confidential VM, cliquez sur . Supprimer.

  5. Pour créer une instance avec Confidential VM activée, consultez la page Démarrage rapide : créer une instance de Confidential VM.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Org policy location restriction

Nom de la catégorie dans l'API : ORG_POLICY_LOCATION_RESTRICTION

La contrainte de règle d'administration gcp.resourceLocations vous permet de limiter la création de ressources aux régions cloud que vous sélectionnez. Pour en savoir plus, consultez la section Restreindre les emplacements de ressources.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Le détecteur ORG_POLICY_LOCATION_RESTRICTION couvre de nombreux types de ressources et les instructions de correction sont différentes pour chaque ressource. L'approche générale pour corriger les violations de localisation est la suivante :

  1. Copiez, déplacez ou sauvegardez la ressource hors région ou ses données dans une ressource située dans la région. Lisez la documentation sur les services individuels pour obtenir des instructions sur le déplacement des ressources.
  2. Supprimez la ressource d'origine hors région ou ses données.

Cette approche n'est pas possible pour tous les types de ressources. Pour obtenir des conseils, consultez les recommandations personnalisées fournies dans le résultat.

Autres considérations

Lorsque vous corrigez ce résultat, tenez compte des éléments suivants.

Ressources gérées

Le cycle de vie des ressources est parfois géré et contrôlé par d'autres ressources. Par exemple, un groupe d'instances Compute Engine géré crée et détruit des instances Compute Engine conformément à la règle d'autoscaling du groupe d'instances. Si les ressources gérées et de gestion sont couvertes par l'application des emplacements, les deux peuvent être signalées comme ne respectant pas la règle d'administration. La correction des résultats pour les ressources gérées doit être effectuée dans la gestion des ressources pour garantir la stabilité opérationnelle.

Ressources utilisées

Certaines ressources sont utilisées par d'autres ressources. Par exemple, un disque Compute Engine associé à une instance Compute Engine en cours d'exécution est considéré comme utilisé par l'instance. Si la ressource en cours d'utilisation enfreint la règle d'administration de l'emplacement, vous devez vous assurer qu'elle n'est pas utilisée avant de remédier à la violation de l'emplacement.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

OS login disabled

Nom de la catégorie dans l'API : OS_LOGIN_DISABLED

OS Login est désactivé sur cette instance Compute Engine.

OS Login active la gestion centralisée des clés SSH avec IAM et désactive les configurations de clés SSH basées sur les métadonnées dans toutes les instances d'un projet. Découvrez comment Configurer OS Login.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Métadonnées de la console Google Cloud.

    Accéder à la page "Métadonnées"

  2. Cliquez sur Modifier, puis sur Ajouter un élément.

  3. Ajoutez un élément comportant la clé enable-oslogin et la valeur TRUE.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Over privileged account

Nom de la catégorie dans l'API : OVER_PRIVILEGED_ACCOUNT

Ce nœud GKE utilise le nœud de service Compute Engine par défaut, qui dispose d'un accès étendu par défaut et potentiellement de privilèges trop élevés pour exécuter votre cluster GKE.

Pour corriger ce résultat, procédez comme suit :

Suivez les instructions pour Utiliser le principe du moindre privilège pour les comptes de service Google.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Over privileged scopes

Nom de la catégorie dans l'API : OVER_PRIVILEGED_SCOPES

Un compte de service de nœud possède des niveaux d'accès étendus.

Les niveaux d'accès représentent l'ancienne méthode de spécification des autorisations associées à votre instance. Pour réduire le risque d'élévation des privilèges lors d'une attaque, vous devez créer et utiliser un compte de service doté de privilèges minimaux pour exécuter votre cluster GKE.

Pour corriger ce résultat, suivez les instructions de la section Utiliser le principe du moindre privilège pour les comptes de service Google.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Over privileged service account user

Nom de la catégorie dans l'API : OVER_PRIVILEGED_SERVICE_ACCOUNT_USER

Un utilisateur possède les rôles iam.serviceAccountUser ou iam.serviceAccountTokenCreator au niveau du projet, du dossier ou de l'organisation, et non pour un compte de service spécifique.

L'attribution de ces rôles à un utilisateur pour un projet, un dossier ou une organisation permet à cet utilisateur d'accéder à tous les comptes de service existants et futurs de ce champ d'application. Cela peut entraîner une élévation involontaire des privilèges. Pour en savoir plus, consultez la section Autorisations des comptes de service.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page "IAM" de Google Cloud Console.

    Accéder à la page IAM

  2. Si nécessaire, sélectionnez le projet, le dossier ou l'organisation dans le résultat.

  3. Pour chaque compte principal auquel on a attribué roles/iam.serviceAccountUser ou roles/iam.serviceAccountTokenCreator, procédez comme suit :

    1. Cliquez sur Modifier.
    2. Dans le panneau Modifier les autorisations, à côté des rôles, cliquez sur Supprimer.
    3. Cliquez sur Enregistrer.
  4. Suivez ce guide pour autoriser des utilisateurs individuels à emprunter l'identité d'un seul compte de service. Vous devez suivre les instructions du guide pour chaque compte de service pour lequel vous souhaitez autoriser l'emprunt d'identité par les utilisateurs choisis.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Owner not monitored

Nom de la catégorie dans l'API : OWNER_NOT_MONITORED

Les métriques et les alertes de journal ne sont pas configurées pour surveiller les attributions ou les modifications de propriétaire de projet.

Le rôle de propriétaire Cloud IAM dispose du niveau de droits le plus élevé sur un projet. Pour sécuriser vos ressources, configurez des alertes afin d'être averti lorsque de nouveaux propriétaires sont ajoutés ou supprimés. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. À comprendre votre utilisation du service et ses coûts, consultez Optimisation des coûts: opérations cloud

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      (protoPayload.serviceName="cloudresourcemanager.googleapis.com")
      AND (ProjectOwnership OR projectOwnerInvitee)
      OR (protoPayload.serviceData.policyDelta.bindingDeltas.action="REMOVE"
      AND protoPayload.serviceData.policyDelta.bindingDeltas.role="roles/owner")
      OR (protoPayload.serviceData.policyDelta.bindingDeltas.action="ADD"
      AND protoPayload.serviceData.policyDelta.bindingDeltas.role="roles/owner")

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification lorsque des incidents sont ouverts ou fermés, cochez Envoyer une notification lors de la clôture de l'incident Par défaut, les notifications ne sont envoyées d'incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Pod security policy disabled

Nom de la catégorie dans l'API : POD_SECURITY_POLICY_DISABLED

Cet objet PodSecurityPolicy est désactivé sur un cluster GKE.

Une stratégie PodSecurityPolicy est une ressource de contrôleur d'admission qui valide les demandes de création et de mise à jour de pods sur un cluster. Les clusters n'acceptent pas les pods qui ne répondent pas aux conditions définies dans PodSecurityPolicy.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, définissez et autorisez les règles PodSecurityPolicies, puis activez le contrôleur PodSecurityPolicy. Pour obtenir des instructions, consultez la page Utiliser PodSecurityPolicies.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Primitive roles used

Nom de la catégorie dans l'API : PRIMITIVE_ROLES_USED

Un utilisateur possède l'un des rôles de base IAM suivants : roles/owner, roles/editor ou roles/viewer. Ces rôles sont trop permissifs et ne doivent pas être utilisés. Ils doivent plutôt être attribués par projet.

Pour en savoir plus, consultez la page Comprendre les rôles.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page IAM de la console Google Cloud.

    Accéder à la stratégie IAM

  2. Pour chaque utilisateur attribué à un rôle primitif, envisagez plutôt d'utiliser des rôles plus précis.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Private cluster disabled

Nom de la catégorie dans l'API : PRIVATE_CLUSTER_DISABLED

Un cluster GKE possède un cluster privé désactivé.

Les nœuds de clusters privés ne peuvent utiliser que des adresses IP privées. Cette fonctionnalité limite l'accès Internet sortant pour les nœuds. Si un nœud de cluster ne dispose pas d'une adresse IP publique, il n'est pas visible ni exposé sur le réseau Internet public. Vous pouvez toutefois utiliser un équilibreur de charge interne pour acheminer le trafic vers ce nœud. Pour plus d'informations, consultez la section Clusters privés.

Vous ne pouvez pas créer un cluster privé à partir d'un cluster existant. Pour corriger ce résultat, créez un cluster privé :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur Create Cluster (Créer le cluster).

  3. Dans le menu de navigation, sous Cluster, sélectionnez Networking (Mise en réseau).

  4. Sélectionnez la case d'option Private cluster (Cluster privé).

  5. Sous Options de mise en réseau avancées, cochez la case Activer le routage du trafic de VPC natif (utilisation d'une adresse IP d'alias).

  6. Cliquez sur Créer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Private Google access disabled

Nom de la catégorie dans l'API : PRIVATE_GOOGLE_ACCESS_DISABLED

Il existe des sous-réseaux privés sans accès aux API publiques Google.

L'accès privé à Google permet aux instances de VM n'ayant que des adresses IP internes (privées) d'atteindre les adresses IP publiques des API et des services Google.

Pour plus d'informations, consultez la section Configurer l'accès privé à Google.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC dans Google Cloud Console.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau souhaité.

  3. Sur la page Détails du réseau VPC, cliquez sur l'onglet Sous-réseaux.

  4. Dans la liste des sous-réseaux, cliquez sur le nom du sous-réseau associé au cluster Kubernetes dans le résultat.

  5. Sur la page Détails du sous-réseau, cliquez sur Modifier.

  6. Dans le champ Accès privé à Google, sélectionnez Activé.

  7. Cliquez sur Enregistrer.

  8. Pour supprimer les adresses IP publiques (externes) des instances de VM dont le seul trafic externe est destiné aux API Google, consultez la section Annuler l'attribution d'une adresse IP externe statique.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Public bucket ACL

Nom de la catégorie dans l'API : PUBLIC_BUCKET_ACL

Un bucket est public et accessible sur Internet par tous les internautes.

Pour en savoir plus, consultez la page Présentation du contrôle des accès.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Navigateur de stockage de la console Google Cloud.

    Accéder au navigateur Cloud Storage

  2. Sélectionnez le bucket répertorié dans le résultat de Security Health Analytics.

  3. Sur la page Informations sur le bucket, cliquez sur l'onglet Autorisations.

  4. À côté de Afficher par, cliquez sur Rôles.

  5. Dans le champ Filtre, recherchez allUsers et allAuthenticatedUsers.

  6. Cliquez sur Supprimer pour supprimer tous les rôles IAM autorisations accordées à allUsers et allAuthenticatedUsers.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Public Compute image

Nom de la catégorie dans l'API : PUBLIC_COMPUTE_IMAGE

Une image Compute Engine est publique et tous les internautes peuvent y accéder. allUsers représente n'importe quel internaute, tandis que allAuthenticatedUsers représente toute personne authentifiée avec un compte Google. Aucune de ces personnes n'est limitée aux utilisateurs de votre organisation.

Les images Compute Engine peuvent contenir des informations sensibles telles que des clés de chiffrement ou des logiciels sous licence. Ces informations sensibles ne doivent pas être accessibles publiquement. Si vous souhaitez rendre cette image Compute publique, assurez-vous qu'elle ne contient aucune information sensible.

Pour en savoir plus, consultez la page Présentation du contrôle des accès.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Images Compute Engine dans la console Google Cloud.

    Accéder aux images Compute Engine

  2. Cochez la case à côté de l'image public-image (Image publique), puis cliquez sur Afficher le panneau d'informations.

  3. Dans la zone Filtre, recherchez les membres allUsers et allAuthenticatedUsers.

  4. Développez le rôle au sein duquel vous souhaitez supprimer des utilisateurs.

  5. Cliquez sur Supprimer pour supprimer un utilisateur de ce rôle.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Public dataset

Nom de la catégorie dans l'API : PUBLIC_DATASET

Les ensembles de données BigQuery sont publics et accessibles à tous les internautes. Le membre IAM allUsers représente n'importe quel internaute, tandis qu'allAuthenticatedUsers représente toute personne connectée à un service Google. Aucun de ces membres ne se limite aux utilisateurs de votre organisation.

Pour en savoir plus, consultez la page Contrôler l'accès aux ensembles de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Explorateur de la console Google Cloud.

    Accéder à la page "Ensemble de données BigQuery"

  2. Dans la liste des ensembles de données, cliquez sur le nom de celui identifié dans le résultat. Le panneau Informations sur l'ensemble de données s'affiche.

  3. En haut du panneau Informations sur l'ensemble de données, cliquez sur PARTAGE.

  4. Dans le menu déroulant, cliquez sur Autorisations.

  5. Dans le panneau Autorisations d'ensemble de données, saisissez allUsers et allAuthenticatedUsers, puis supprimez l'accès pour ces comptes principaux.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Public IP address

Nom de la catégorie dans l'API : PUBLIC_IP_ADDRESS

Une instance Compute Engine possède une adresse IP publique.

Pour réduire la surface d'attaque de votre organisation, évitez d'attribuer des adresses IP publiques à vos VM. Il se peut que les instances arrêtées déclenchent tout de même un résultat de type "adresse IP publique", par exemple si les interfaces réseau sont configurées pour attribuer une adresse IP publique éphémère au démarrage. Assurez-vous que les configurations réseau pour les instances arrêtées n'incluent pas l'accès externe.

Pour en savoir plus, consultez la section Se connecter en toute sécurité aux instances de VM.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cochez la case située à côté du nom de l'instance dans le résultat.

  3. Cliquez sur Modifier.

  4. Pour chaque interface sous Interfaces réseau, cliquez sur . Modifiez et définissez Adresse IP externe sur Aucune.

  5. Cliquez sur OK, puis sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Public log bucket

Nom de la catégorie dans l'API : PUBLIC_LOG_BUCKET

Ce résultat n'est pas disponible pour les activations au niveau du projet.

Un bucket de stockage est public et utilisé comme récepteur de journaux, ce qui signifie que n'importe qui sur Internet peut accéder aux journaux stockés dans ce bucket. allUsers représente n'importe quel utilisateur sur Internet, tandis que allAuthenticatedUsers représente toute personne connectée à un service Google. Aucun des deux ne se limite aux utilisateurs de votre organisation.

Pour en savoir plus, consultez la page Présentation du contrôle des accès.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page du navigateur Cloud Storage dans la console Google Cloud.

    Accéder au navigateur Cloud Storage

  2. Dans la liste des buckets, cliquez sur le nom du bucket indiqué dans le résultat.

  3. Cliquez sur l'onglet Autorisations.

  4. Supprimez allUsers et allAuthenticatedUsers de la liste des comptes principaux.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Public SQL instance

Nom de la catégorie dans l'API : PUBLIC_SQL_INSTANCE

Votre instance SQL comprend 0.0.0.0/0 comme réseau autorisé. Cela signifie que des clients IPv4 peuvent traverser le pare-feu du réseau et tenter de se connecter à votre instance, y compris des clients que vous ne souhaitiez pas autoriser. Les clients ont toujours besoin d'identifiants valides pour se connecter à votre instance.

Pour plus d'informations, consultez la section Autoriser avec des réseaux autorisés.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans le panneau de navigation, cliquez sur Connexions.

  5. Sous Réseaux autorisés, supprimez 0.0.0.0/0 et ajoutez des adresses IP ou des plages d'adresses IP spécifiques que vous souhaitez autoriser à se connecter à votre instance.

  6. Cliquez sur OK, puis sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Pubsub CMEK disabled

Nom de la catégorie dans l'API : PUBSUB_CMEK_DISABLED

Un sujet Pub/Sub n'est pas chiffré avec des clés de chiffrement gérées par le client (CMEK).

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés que Google utilise pour chiffrer vos données, vous permettant ainsi de mieux contrôler vos accès.

Pour corriger ce résultat, supprimez le sujet existant et créez-en un autre :

  1. Accédez à la page Sujets de Pub/Sub dans la console Google Cloud.

    Accéder aux sujets

  2. Si nécessaire, sélectionnez le projet contenant le sujet Pub/Sub.

  3. Cochez la case située à côté du sujet répertorié dans le résultat, puis cliquez sur Supprimer.

  4. Pour créer un sujet Pub/Sub avec CMEK activé, consultez la page Utiliser des clés de chiffrement gérées par le client. CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

  5. Publier les résultats ou d'autres données sur le sujet Pub/Sub pour lequel les CMEK sont activés.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Route not monitored

Nom de la catégorie dans l'API : ROUTE_NOT_MONITORED

Les statistiques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées à la route de réseau VPC.

Les routes Google Cloud sont une série de destinations et de sauts qui définissent le chemin du trafic réseau entre une instance de VM et une adresse IP de destination. En surveillant les modifications apportées aux tables de routage, vous pouvez vous assurer que tout le trafic VPC transite par un chemin attendu.

Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. À comprendre votre utilisation du service et ses coûts, consultez Optimisation des coûts: opérations cloud

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      resource.type="gce_route"
      AND (protoPayload.methodName:"compute.routes.delete"
      OR protoPayload.methodName:"compute.routes.insert")

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification lorsque des incidents sont ouverts ou fermés, cochez Envoyer une notification lors de la clôture de l'incident Par défaut, les notifications ne sont envoyées d'incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Redis role used on org

Nom de la catégorie dans l'API : REDIS_ROLE_USED_ON_ORG

Ce résultat n'est pas disponible pour les activations au niveau du projet.

Un rôle IAM Redis est attribué au niveau de l'organisation ou du dossier.

Les rôles Redis IAM suivants ne doivent être attribués que par projet, et non au niveau de l'organisation ou du dossier :

  • roles/redis.admin
  • roles/redis.viewer
  • roles/redis.editor

Pour en savoir plus, consultez la page Contrôle des accès et autorisations.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page IAM de la console Google Cloud.

    Accéder à la stratégie IAM

  2. Supprimez les rôles IAM Redis indiqués dans le résultat et ajoutez-les à chaque projet.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Release channel disabled

Nom de la catégorie dans l'API : RELEASE_CHANNEL_DISABLED

Un cluster GKE n'est pas abonné à une version disponible.

Abonnez-vous à une version disponible pour automatiser les mises à niveau de version sur le cluster GKE. Ces fonctionnalités réduisent également la complexité de la gestion des versions en termes de nombre de fonctionnalités et de niveau de stabilité requis. Pour en savoir plus, consultez la page Versions disponibles.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la section Paramètres de base du cluster, cliquez sur Mettre à niveau le cluster. version maître sur la ligne Version disponible.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  3. Dans la boîte de dialogue, sélectionnez Version disponible, puis la version disponible à laquelle vous souhaitez vous abonner.

    Si la version du plan de contrôle de votre cluster ne peut pas être mise à niveau vers une version disponible, cette version peut être désactivée.

  4. Cliquez sur Save Changes (Enregistrer les modifications).

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

RSASHA1 for signing

Nom de la catégorie dans l'API : RSASHA1_FOR_SIGNING

RSASHA1 est utilisé pour la signature de clé dans les zones Cloud DNS. L'algorithme utilisé pour la signature des clés ne doit pas être faible.

Pour corriger ce résultat, remplacez l'algorithme par un algorithme recommandé en suivant le guide Utiliser les options de signature avancées.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Service account key not rotated

Nom de la catégorie dans l'API : SERVICE_ACCOUNT_KEY_NOT_ROTATED

Ce résultat n'est pas disponible pour les activations au niveau du projet.

La clé d'un compte de service géré par l'utilisateur n'a pas subi de rotation depuis plus de 90 jours.

En général, les clés de compte de service gérées par l'utilisateur doivent être alternées au moins tous les 90 jours pour garantir que les données ne sont pas accessibles avec une ancienne clé qui aurait été perdue, compromise ou volée. Pour en savoir plus, consultez la page Effectuer une rotation des clés de compte de service pour réduire le risque de sécurité causé par les clés piratées.

Si vous avez généré vous-même la paire de clés publique/privée, stocké la clé privée dans un module de sécurité matérielle (HSM) et importé la clé publique dans Google, vous n'aurez peut-être pas besoin pour effectuer une rotation de la clé tous les 90 jours. Au lieu de cela, vous pouvez alterner la clé si vous pensez qu'elle a peut-être été compromise.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Comptes de service dans la console Google Cloud.

    Accéder à la page "Comptes de service"

  2. Si nécessaire, sélectionnez le projet indiqué dans le résultat.

  3. Dans la liste des comptes de service, recherchez le compte de service indiqué dans et cliquez sur Supprimer. Avant de continuer, déterminez l'impact que la suppression d'un compte de service pourrait avoir sur vos ressources de production.

  4. Créez une clé de compte de service pour remplacer la clé supprimée. Pour plus pour en savoir plus, consultez Créer des clés de compte de service

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Service account role separation

Nom de la catégorie dans l'API : SERVICE_ACCOUNT_ROLE_SEPARATION

Ce résultat n'est pas disponible pour les activations au niveau du projet.

Plusieurs autorisations de compte de service ont été attribuées à un ou plusieurs comptes principaux de votre organisation. Aucun compte ne doit disposer simultanément de Administrateur de compte de service et d'autres autorisations de compte de service. Pour en savoir plus sur les comptes de service et les rôles disponibles, consultez la page Comptes de service.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page IAM de la console Google Cloud.

    Accéder à IAM

  2. Pour chaque compte principal répertorié dans le résultat, procédez comme suit :

    1. Pour vérifier si le rôle a été hérité d'un dossier ou d'une ressource d'organisation, consultez la colonne Héritage. Si la colonne contient un lien vers une ressource parente, cliquez sur ce lien pour accéder à la page IAM de la ressource parente.
    2. Cliquez sur Modifier à côté d'un compte principal.
    3. Pour supprimer les autorisations, cliquez sur Supprimer à côté de Administrateur de compte de service. Si vous souhaitez supprimer tous les comptes de service les autorisations, cliquez sur Supprimer à côté de toutes les autres autorisations.
  3. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Shielded VM disabled

Nom de la catégorie dans l'API : SHIELDED_VM_DISABLED

La VM protégée est désactivée sur cette instance Compute Engine.

Les VM protégées sont des machines virtuelles (VM) hébergées sur Google Cloud Platform, renforcées par un ensemble de paramètres de sécurité conçus pour éliminer les rootkits et les bootkits. Les VM protégées permettent de garantir que le bootloader et le micrologiciel sont signés et validés. En savoir plus sur les VM protégées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page "Instances de VM"

  2. Sélectionnez l'instance associée au résultat de Security Health Analytics.

  3. Sur la page Détails de l'instance qui s'affiche, cliquez sur Arrêter.

  4. Une fois l'instance arrêtée, cliquez sur Modifier.

  5. Dans la section VM protégée, cochez les options Activer vTPM et Activer la surveillance de l'intégrité pour activer la VM protégée.

  6. Si vous n'utilisez aucun pilote personnalisé ou non signé, vous pouvez également activer le démarrage sécurisé.

  7. Cliquez sur Enregistrer. La nouvelle configuration s'affiche sur la page Détails de l'instance.

  8. Cliquez sur Démarrer pour démarrer l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL CMEK disabled

Nom de la catégorie dans l'API : SQL_CMEK_DISABLED

Une instance de base de données SQL n'utilise pas de clés de chiffrement gérées par le client (CMEK).

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés que Google utilise pour chiffrer vos données, vous permettant ainsi de mieux contrôler vos accès. Pour en savoir plus, consultez la présentation des clés CMEK de votre produit : Cloud SQL pour MySQL, Cloud SQL pour PostgreSQL ou Cloud SQL pour SQL Server. CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Supprimer.

  4. Pour créer une instance sur laquelle CMEK est activé, suivez les instructions permettant de configurer CMEK pour votre produit :

    1. Cloud SQL pour MySQL
    2. Cloud SQL pour PostgreSQL
    3. Cloud SQL pour SQL Server

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL contained database authentication

Nom de la catégorie dans l'API : SQL_CONTAINED_DATABASE_AUTHENTICATION

L'option de base de données contenant l'authentification de base de données n'est pas défini sur Désactivé pour une instance de base de données Cloud SQL pour SQL Server.

L'option contained database authentication (authentification de la base de données autonome) permet de créer ou d'associer des bases de données autonomes au moteur de base de données. Une base de données autonome contient tous les paramètres et métadonnées nécessaires à la définition de la base de données et ne possède aucune dépendance de configuration sur l'instance du moteur de base de données où elle est installée.

L'activation de cet indicateur n'est pas recommandée pour les raisons suivantes :

  • Les utilisateurs peuvent se connecter à la base de données sans authentification au niveau du moteur.
  • L'isolation de la base de données du moteur permet de déplacer la base de données vers une autre instance SQL Server.

Les bases de données autonomes sont confrontées à des menaces uniques qui doivent être comprises et contrées par les administrateurs de moteur de base de données SQL Server. La plupart des menaces résultent du processus d'authentification USER WITH PASSWORD (utilisateur avec mot de passe), ce qui déplace la limite d'authentification du moteur de base de données jusqu'à la base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données contained database authentication (authentification de la base de données autonome) avec la valeur Désactivé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL cross DB ownership chaining

Nom de la catégorie dans l'API : SQL_CROSS_DB_OWNERSHIP_CHAINING

L'indicateur de base de données cross dbproperty chainchaining n'est pas défini sur Désactivé pour une instance de base de données Cloud SQL pour SQL Server.

L'option cross db ownership chaining (chaînage de propriété entre les bases de données) vous permet de contrôler le chaînage de propriété entre les bases de données au niveau de la base de données, ou d'autoriser ce chaînage pour toutes les instructions de base de données.

Il n'est pas recommandé d'activer cette option, sauf si toutes les bases de données hébergées par l'instance SQL Server participent à un chaînage de propriété entre les bases de données et que vous connaissez les implications de ce paramètre sur la sécurité.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données cross db ownership chaining (chaînage de propriété entre les bases de données) avec la valeur Désactivé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL external scripts enabled

Nom de la catégorie dans l'API : SQL_EXTERNAL_SCRIPTS_ENABLED

L'indicateur de base de données Scripts externes activés n'est pas défini sur Off pour une instance de base de données Cloud SQL pour SQL Server.

Lorsqu'il est activé, ce paramètre permet d'exécuter des scripts avec certaines extensions de langage distant. Étant donné que cette fonctionnalité peut avoir un impact négatif sur la sécurité du système, nous vous recommandons de la désactiver.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Indicateurs de base de données, définissez l'indicateur de base de données scripts externes activés avec la valeur Off.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL instance not monitored

Nom de la catégorie dans l'API : SQL_INSTANCE_NOT_MONITORED

Ce résultat n'est pas disponible pour les activations au niveau du projet.

Les métriques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées à l'instance Cloud SQL.

Une mauvaise configuration des options des instances SQL peut entraîner des risques de sécurité. La désactivation des options de sauvegarde automatique et de haute disponibilité peut avoir un impact sur la continuité de l'activité et ne pas limiter les réseaux autorisés peut augmenter l'exposition aux réseaux non approuvés. La surveillance des modifications apportées à la configuration de l'instance SQL vous permet de réduire le temps nécessaire à la détection et à la correction des erreurs de configuration.

Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. À comprendre votre utilisation du service et ses coûts, consultez Optimisation des coûts: opérations cloud

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      protoPayload.methodName="cloudsql.instances.update"
      OR protoPayload.methodName="cloudsql.instances.create"
      OR protoPayload.methodName="cloudsql.instances.delete"

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification lorsque des incidents sont ouverts ou fermés, cochez Envoyer une notification lors de la clôture de l'incident Par défaut, les notifications ne sont envoyées d'incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL local infile

Nom de la catégorie dans l'API : SQL_LOCAL_INFILE

L'option de base de données local_infile n'est pas définie sur Désactivé pour une instance de base de données Cloud SQL pour MySQL. En raison de problèmes de sécurité associés à l'indicateur local_infile, vous devez le désactiver. Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données local_infile avec la valeur Désactivé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log checkpoints disabled

Nom de la catégorie dans l'API : SQL_LOG_CHECKPOINTS_DISABLED

L'option log_disconnections de la base de données n'est pas définie sur Activé pour une instance de base de données Cloud SQL pour PostgreSQL.

L'activation de log_checkpoints entraîne la journalisation des points de contrôle et des points de redémarrage dans le journal du serveur. Certaines statistiques sont incluses dans les messages de journal, par exemple le nombre de tampons écrits et le temps passé à les écrire.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_checkpoints avec la valeur Activé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log connections disabled

Nom de la catégorie dans l'API : SQL_LOG_CONNECTIONS_DISABLED

L'option log_disconnections de la base de données n'est pas définie sur Activé pour une instance de base de données Cloud SQL pour PostgreSQL.

L'activation du paramètre log_connections entraîne la journalisation des tentatives de connexions au serveur et des authentifications client réussies. Les journaux peuvent être utiles pour résoudre des problèmes et confirmer les tentatives de connexion au serveur inhabituelles.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_connections avec la valeur Activé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log disconnections disabled

Nom de la catégorie dans l'API : SQL_LOG_DISCONNECTIONS_DISABLED

L'option log_disconnections de la base de données Cloud SQL pour PostgreSQL n'est pas définie sur Activé.

L'activation du paramètre log_disconnections crée des entrées de journal à la fin de chaque session. Les journaux sont utiles pour résoudre les problèmes et confirmer une activité inhabituelle sur une période donnée. Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_disconnections avec la valeur Activé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log duration disabled

Nom de la catégorie dans l'API : SQL_LOG_DURATION_DISABLED

L'option log_duration de la base de données Cloud SQL pour PostgreSQL n'est pas définie sur Activé.

Lorsque log_duration est activé, ce paramètre entraîne la journalisation de l'heure et de la durée d'exécution de chaque instruction terminée à consigner. Surveiller le temps que prend l'exécution des requêtes peut s'avérer crucial pour identifier les requêtes lentes et résoudre les problèmes de base de données.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_duration sur Activée.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log error verbosity

Nom de la catégorie dans l'API : SQL_LOG_ERROR_VERBOSITY

Une instance de base de données Cloud SQL pour PostgreSQL ne dispose pas L'option de base de données log_error_verbosity est définie sur default ou verbose.

L'option log_error_verbosity contrôle la quantité de détails des messages consignés. Plus la verbosité est élevée, plus les messages enregistrés contiennent de détails. Nous vous recommandons de définir cette option sur default (par défaut) ou verbose (détaillé).

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez log_error_verbosity. l'option de base de données sur default (par défaut) ou verbose (détaillé).

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log lock waits disabled

Nom de la catégorie dans l'API : SQL_LOG_LOCK_WAITS_DISABLED

L'option de base de données log_lock_waits n'est pas définie sur Activé pour une instance de base de données Cloud SQL pour PostgreSQL.

L'activation du paramètre log_lock_waits crée des entrées de journal lorsque le temps nécessaire à l'acquisition d'un verrou par une session est supérieur au délai deadlock_timeout. Les journaux sont utiles pour déterminer si les temps de verrouillage causent de mauvaises performances.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_lock_waits sur Activé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log min duration statement enabled

Nom de la catégorie dans l'API : SQL_LOG_MIN_DURATION_STATEMENT_ENABLED

L'indicateur de base de données log_min_duration_statement n'est pas défini sur -1 pour une instance de base de données Cloud SQL pour PostgreSQL.

L'option log_min_duration_statement entraîne la journalisation des instructions SQL dont la durée d'exécution dépasse un seuil spécifié. Envisagez de désactiver ce paramètre, car les instructions SQL peuvent contenir des informations sensibles qui ne doivent pas être consignées. Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_min_duration_statement sur la valeur -1.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log min error statement

Nom de la catégorie dans l'API : SQL_LOG_MIN_ERROR_STATEMENT

L'option log_min_error_statement n'est pas définie correctement pour une instance de base de données Cloud SQL pour PostgreSQL.

L'option log_min_error_statement détermine si les instructions SQL provoquant des conditions d'erreur sont enregistrées dans les journaux du serveur. Les instructions SQL présentant un niveau de gravité supérieur ou égal à celui spécifié sont consignées avec les messages associés aux instructions en état d'erreur. Plus le niveau de gravité est élevé, moins le nombre de messages enregistrés est important.

Si l'option log_min_error_statement n'est pas définie sur la valeur souhaitée, il est possible que certains messages ne soient pas classés comme messages d'erreur. Un niveau de gravité défini sur une valeur trop basse a pour effet d'augmenter le nombre de messages et de rendre plus difficile l'identification des erreurs réelles. Si un niveau de gravité est défini sur une valeur trop élevée, il est possible que les messages correspondant à des erreurs réelles ne soient pas consignés.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_min_error_statement sur l'une des valeurs recommandées suivantes, en fonction de la stratégie de journalisation de votre organisation.

    • debug5
    • debug4
    • debug3
    • debug2
    • debug1
    • info
    • notice
    • warning
    • error
  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log min error statement severity

Nom de la catégorie dans l'API : SQL_LOG_MIN_ERROR_STATEMENT_SEVERITY

L'option log_min_error_statement n'est pas définie correctement pour une instance de base de données Cloud SQL pour PostgreSQL.

L'option log_min_error_statement détermine si les instructions SQL provoquant des conditions d'erreur sont enregistrées dans les journaux du serveur. Les instructions SQL présentant un niveau de gravité égal à celui spécifié ou plus strifct sont consignées avec les messages associés aux instructions en état d'erreur. Plus le niveau de gravité est strict, moins le nombre de messages enregistrés est important.

Si l'option log_min_error_statement n'est pas définie sur la valeur souhaitée, il est possible que certains messages ne soient pas classés comme messages d'erreur. Un niveau de gravité défini sur une valeur trop basse a pour effet d'augmenter le nombre de messages et de rendre plus difficile l'identification des erreurs réelles. Un niveau de gravité trop élevé (trop strict) peut empêcher la consignation des messages d'erreur pour des erreurs réelles.

Nous vous recommandons de définir cette option sur error ou plus strict.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_min_error_statement sur l'une des valeurs recommandées suivantes, en fonction de la stratégie de journalisation de votre organisation.

    • error
    • log
    • fatal
    • panic
  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log min messages

Nom de la catégorie dans l'API : SQL_LOG_MIN_MESSAGES

Une instance de base de données Cloud SQL pour PostgreSQL ne dispose pas L'option de base de données log_min_messages est définie sur au minimum warning.

L'option log_min_messages contrôle les niveaux de message enregistrés les journaux de serveur. Plus le niveau de gravité est élevé, moins le nombre de messages enregistrés est important. Paramètre un seuil trop bas peut entraîner une augmentation de la taille et de la longueur des journaux, ce qui rend difficile la recherche d'erreurs réelles.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez le paramètre l'option de base de données log_min_messages avec l'un des éléments suivants ; recommandées, conformément aux règles de journalisation de votre organisation.

    • debug5
    • debug4
    • debug3
    • debug2
    • debug1
    • info
    • notice
    • warning
  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log executor stats enabled

Nom de la catégorie dans l'API : SQL_LOG_EXECUTOR_STATS_ENABLED

Une instance de base de données Cloud SQL pour PostgreSQL ne dispose pas L'option de base de données log_executor_stats est définie sur Désactivé.

Lorsque l'option log_executor_stats est activée, les performances de l'exécuteur sont incluses dans les journaux PostgreSQL pour chaque requête. Ce réglage peut s'avérer utile pour le dépannage, mais peut aussi augmenter considérablement la quantité de journaux et altérer les performances.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez la base de données log_executor_stats. sur Désactivé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log hostname enabled

Nom de la catégorie dans l'API : `SQL_LOG_HOSTNAME_ENABLED

L'indicateur de base de données log_hostname n'est pas défini sur 0 pour une instance de base de données Cloud SQL pour PostgreSQL.

Lorsque l'indicateur log_hostname est activé, le nom de l'hôte connecté est enregistré. Par défaut, les messages de journal de connexion n'affichent que l'adresse IP. Ce paramètre peut s'avérer utile pour le dépannage. Toutefois, cela peut avoir une incidence sur les performances du serveur. En effet, pour chaque instruction consignée, une résolution DNS est requise pour convertir une adresse IP en nom d'hôte.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_hostname sur Off.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log parser stats enabled

Nom de la catégorie dans l'API : SQL_LOG_PARSER_STATS_ENABLED

L'indicateur de base de données log_parser_stats n'est pas défini sur Off pour une instance de base de données Cloud SQL pour PostgreSQL.

Lorsque l'option log_parser_stats est activée, les statistiques de performances de l'analyseur sont incluses dans les journaux PostgreSQL pour chaque requête. Ce réglage peut s'avérer utile pour le dépannage, mais peut aussi augmenter considérablement la quantité de journaux et altérer les performances.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_parser_stats sur Off (Désactivée).

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log planner stats enabled

Nom de la catégorie dans l'API : SQL_LOG_PLANNER_STATS_ENABLED

L'indicateur de base de données log_planner_stats n'est pas défini sur Off pour une instance de base de données Cloud SQL pour PostgreSQL.

Lorsque l'option log_planner_stats est activée, une méthode de profilage brut permettant de consigner les statistiques de performances du planificateur PostgreSQL est utilisée. Ce réglage peut s'avérer utile pour le dépannage, mais peut aussi augmenter considérablement la quantité de journaux et altérer les performances.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_planner_stats sur Off.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log statement

Nom de la catégorie dans l'API : SQL_LOG_STATEMENT

Une instance de base de données Cloud SQL pour PostgreSQL ne dispose pas L'option de base de données log_statement est définie sur ddl.

La valeur de cette option contrôle quelles sont les instructions SQL qui sont consignées dans les journaux. La journalisation permet de résoudre les problèmes opérationnels et d'effectuer des analyses forensiques. Si cette option n'est pas définie sur la bonne valeur, des informations pertinentes peuvent être ignorées ou perdues dans un trop grand nombre de messages. Une valeur de ddl (toutes les instructions de définition de données) est recommandée, sauf indication contraire dans la stratégie de journalisation de votre organisation.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez la base de données log_statement. sur ddl.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log statement stats enabled

Nom de la catégorie dans l'API : SQL_LOG_STATEMENT_STATS_ENABLED

L'indicateur de base de données log_statement_stats n'est pas défini sur Off pour une instance de base de données Cloud SQL pour PostgreSQL.

Lorsque l'option log_statement_stats est activé, des statistiques de performance de bout en bout sont incluses dans les journaux PostgreSQL pour chaque requête. Ce réglage peut s'avérer utile pour le dépannage, mais peut aussi augmenter considérablement la quantité de journaux et altérer les performances.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Indicateurs de base de données, définissez l'option de base de données log_statement_stats sur Off.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL log temp files

Nom de la catégorie dans l'API : SQL_LOG_TEMP_FILES

L'indicateur de base de données log_temp_files n'est pas défini sur 0 pour une instance de base de données Cloud SQL pour PostgreSQL.

Des fichiers temporaires peuvent être créés pour les tris, les hachages et les résultats de requête temporaires. Lorsque l'option log_temp_files est définie sur 0, tous les fichiers temporaires sont journalisés. Cela permet d'identifier d'éventuels problèmes de performances. Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_temp_files sur 0.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL no root password

Nom de la catégorie dans l'API : SQL_NO_ROOT_PASSWORD

Une instance de base de données MySQL ne possède pas de mot de passe défini pour le compte racine. Vous devez ajouter un mot de passe à l'instance de base de données MySQL. Pour en savoir plus, consultez la page Utilisateurs MySQL.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Sur la page Détails de l'instance qui s'affiche, sélectionnez l'onglet Utilisateurs.

  4. À côté de l'utilisateur root, cliquez sur Plus , puis sélectionnez Modifier le mot de passe.

  5. Saisissez un nouveau mot de passe sécurisé, puis cliquez sur OK.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL public IP

Nom de la catégorie dans l'API : SQL_PUBLIC_IP

Une base de données Cloud SQL possède une adresse IP publique.

Pour réduire la surface d'attaque de votre organisation, les bases de données Cloud SQL ne doivent pas posséder d'adresses IP publiques. Les adresses IP privées offrent une sécurité réseau améliorée et une latence réduite pour votre application.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Dans le menu de gauche, cliquez sur Connexions.

  4. Cliquez sur l'onglet Mise en réseau et décochez la case Adresse IP publique.

  5. Si l'instance n'est pas déjà configurée pour utiliser une adresse IP privée, consultez la page Configurer une adresse IP privée pour une instance existante.

  6. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL remote access enabled

Nom de la catégorie dans l'API : SQL_REMOTE_ACCESS_ENABLED

L'indicateur de base de données remote access n'est pas défini sur Off pour une instance de base de données Cloud SQL pour SQL Server.

Lorsqu'il est activé, ce paramètre permet d'exécuter des procédures stockées localement à partir de serveurs distants ou des procédures stockées à distance à partir d'un serveur local. Cette fonctionnalité peut être utilisée de manière abusive pour lancer une attaque par déni de service (DoS) sur les serveurs distants en redirigeant le traitement des requêtes vers une cible. Pour éviter les abus, nous vous recommandons de désactiver ce paramètre.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options, définissez remote access sur Off.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL skip show database disabled

Nom de la catégorie dans l'API : SQL_SKIP_SHOW_DATABASE_DISABLED

L'option skip_show_database de la base de données Cloud SQL pour MySQL n'est pas définie sur Activée.

Lorsqu'elle est activée, cette option empêche les utilisateurs d'employer l'instruction SHOW DATABASES s'ils ne disposent pas du droit SHOW DATABASES. Avec ce paramètre, les utilisateurs sans autorisation explicite ne peuvent pas voir les bases de données appartenant à d'autres utilisateurs. Nous vous recommandons d'activer cette option.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options, définissez skip_show_database sur On.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL trace flag 3625

Nom de la catégorie dans l'API : SQL_TRACE_FLAG_3625

L'indicateur de base de données 3625 (trace flag) (Activé) est défini sur On pour une instance de base de données Cloud SQL pour SQL Server.

Cette option limite la quantité d'informations renvoyées aux utilisateurs qui ne sont pas membres du rôle serveur fixe sysadmin, en masquant les paramètres de certains messages d'erreur à l'aide d'astérisques (******). Pour éviter la divulgation d'informations sensibles, nous vous recommandons d'activer cette option.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Indicateurs de base de données, définissez 3625 sur On.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL user connections configured

Nom de la catégorie dans l'API : SQL_USER_CONNECTIONS_CONFIGURED

L'option de base de données user connections est configurée sur une instance de base de données Cloud SQL pour SQL Server.

L'option Connexions utilisateur spécifie le nombre maximal de connexions utilisateur simultanées autorisé sur une instance de SQL Server. Comme il s'agit d'une option dynamique (auto-configuration), SQL Server ajuste automatiquement le nombre maximal de connexions utilisateur jusqu'à atteindre la valeur maximale autorisée. La valeur par défaut est 0, ce qui signifie que jusqu'à 32 767 connexions utilisateur sont autorisées. Pour cette raison, nous vous déconseillons de configurer l'option de base de données user connections.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Indicateurs de base de données, cliquez sur Supprimer à côté de user connections.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL user options configured

Nom de la catégorie dans l'API : SQL_USER_OPTIONS_CONFIGURED

L'option de base de données user options est configurée sur une instance de base de données Cloud SQL pour SQL Server.

Ce paramètre remplace les valeurs globales par défaut des options SET pour tous les utilisateurs. Étant donné que les utilisateurs et les applications peuvent supposer que les options SET par défaut de la base de données sont en cours d'utilisation, modifier ces options peut entraîner des résultats inattendus. Pour cette raison, nous vous déconseillons de configurer l'option de base de données user options.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Indicateurs de base de données, cliquez sur Supprimer à côté de user options.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SQL weak root password

Nom de la catégorie dans l'API : SQL_WEAK_ROOT_PASSWORD

Une instance de base de données MySQL possède un mot de passe peu sécurisé défini pour le compte racine. Vous devez définir un mot de passe sécurisé pour l'instance. Pour en savoir plus, consultez la page Utilisateurs MySQL.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Sur la page Détails de l'instance qui s'affiche, sélectionnez l'onglet Utilisateurs.

  4. À côté de l'utilisateur root, cliquez sur Plus , puis sélectionnez Modifier le mot de passe.

  5. Saisissez un nouveau mot de passe sécurisé, puis cliquez sur OK.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

SSL not enforced

Nom de la catégorie dans l'API : SSL_NOT_ENFORCED

Une instance de base de données Cloud SQL ne nécessite pas que toutes les connexions entrantes utilisent SSL.

Pour éviter la fuite de données sensibles pendant leur transit via des communications non chiffrées, toutes les connexions entrantes à votre instance de base de données SQL doivent utiliser le protocole SSL. Apprenez-en plus sur la configuration de SSL/TLS.

Pour corriger ce résultat, autorisez uniquement les connexions SSL pour vos instances SQL :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Dans l'onglet Connexions, cliquez sur Autoriser uniquement les connexions SSL ou Exigez des certificats client de confiance. Pour en savoir plus, consultez Appliquez le chiffrement SSL/TLS.

  4. Si vous avez sélectionné Exiger des certificats client de confiance, créez un client certificat. Pour en savoir plus, consultez Créez un certificat client.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Too many KMS users

Nom de la catégorie dans l'API : TOO_MANY_KMS_USERS

Limitez à trois le nombre d'utilisateurs principaux autorisés à utiliser des clés cryptographiques. Les rôles prédéfinis suivants accordent des autorisations permettant de chiffrer, déchiffrer ou signer des données à l'aide de clés cryptographiques :

  • roles/owner
  • roles/cloudkms.cryptoKeyEncrypterDecrypter
  • roles/cloudkms.cryptoKeyEncrypter
  • roles/cloudkms.cryptoKeyDecrypter
  • roles/cloudkms.signer
  • roles/cloudkms.signerVerifier

Pour en savoir plus, consultez la section Autorisations et rôles.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés Cloud KMS de la console Google Cloud.

    Accéder à la page Clés Cloud KMS

  2. Cliquez sur le nom du trousseau de clés indiqué dans le résultat.

  3. Cliquez sur le nom de la clé indiquée dans le résultat.

  4. Cochez la case à côté de la version principale, puis cliquez sur Afficher le panneau d'informations.

  5. Réduisez à trois ou moins le nombre de comptes principaux autorisés à chiffrer, déchiffrer ou signer des données. Pour révoquer les autorisations, cliquez sur Supprimer à côté de chaque compte principal.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

User managed service account key

Nom de la catégorie dans l'API : USER_MANAGED_SERVICE_ACCOUNT_KEY

Un utilisateur gère une clé de compte de service. Les clés de compte de service constituent un risque pour la sécurité si elles ne sont pas gérées correctement. Dans la mesure du possible, vous devez choisir une alternative plus sécurisée aux clés de compte de service. Si vous devez vous authentifier avec une clé de compte de service, vous êtes responsable de la sécurité de la clé privée et des autres opérations décrites sur la page Bonnes pratiques pour gérer les clés de compte de service. Si vous ne parvenez pas à créer une clé de compte de service, la création de clé de compte de service peut être désactivée pour votre organisation. Pour en savoir plus, consultez la page Gérer les ressources d'organisation sécurisées par défaut.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Comptes de service dans la console Google Cloud.

    Accéder à la page "Comptes de service"

  2. Si nécessaire, sélectionnez le projet indiqué dans le résultat.

  3. Supprimez les clés de compte de service gérées par l'utilisateur indiquées dans le résultat, si elles ne sont pas utilisées par une application.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Weak SSL policy

Nom de la catégorie dans l'API : WEAK_SSL_POLICY

Une instance Compute Engine est associée à une règle SSL faible ou utilise l'API Google Cloud stratégie SSL par défaut avec une version TLS antérieure à 1.2.

Les équilibreurs de charge HTTPS et SSL utilisent des règles SSL pour déterminer le protocole et les suites de chiffrement utilisés dans les connexions TLS établies entre les utilisateurs et Internet. Ces connexions chiffrent les données sensibles pour empêcher les personnes malveillantes d'y accéder. Une règle SSL faible permet aux clients utilisant des versions obsolètes de TLS de se connecter à une suite de chiffrement ou un protocole moins sécurisés. Pour obtenir la liste des suites de chiffrement recommandées et obsolètes, consultez la page des paramètres TLS iana.org.

Pour les activations du niveau Premium de Security Command Center au niveau du projet, ce résultat n'est disponible que si le niveau Standard est activé dans le l'organisation parente.

Les mesures correctives pour ce résultat diffèrent selon qu'il a été déclenchée par l'utilisation d'une règle SSL Google Cloud par défaut ou qui autorise une suite de chiffrement faible ou une version TLS minimale antérieure à 1.2. Suivez la procédure ci-dessous qui correspond au déclencheur du résultat.

Correction des règles SSL Google Cloud par défaut

  1. Accédez à la page Proxies cibles de la console Google Cloud.

    Accéder aux proxys cibles

  2. Recherchez le proxy cible indiqué dans le résultat et notez les règles de transfert dans la colonne Utilisée par.

  3. Pour créer une règle SSL, consultez la page Utiliser des règles SSL. La règle doit avoir une version TLS minimale de 1.2 et un profil moderne ou restreint.

  4. Pour utiliser un profil personnalisé, assurez-vous que les suites de chiffrement suivantes sont désactivées :

    • TLS_RSA_WITH_AES_128_GCM_SHA256
    • TLS_RSA_WITH_AES_256_GCM_SHA384
    • TLS_RSA_WITH_AES_128_CBC_SHA
    • TLS_RSA_WITH_AES_256_CBC_SHA
    • TLS_RSA_WITH_3DES_EDE_CBC_SHA
  5. Appliquez la règle SSL à chaque règle de transfert que vous avez notée précédemment.

Correction autorisée pour la suite de chiffrement faible ou la version TLS de niveau inférieur

  1. Dans la console Google Cloud, accédez à la page Règles SSL .

    Accéder aux règles SSL

  2. Recherchez l'équilibreur de charge indiqué dans la colonne Utilisé par.

  3. Cliquez sous le nom de la règle.

  4. Cliquez sur Modifier.

  5. Modifier Version minimale de TLS : TLS 1.2 et Profil : moderne ou restreint.

  6. Pour utiliser un profil personnalisé, assurez-vous que les suites de chiffrement suivantes sont désactivées:

    • TLS_RSA_WITH_AES_128_GCM_SHA256
    • TLS_RSA_WITH_AES_256_GCM_SHA384
    • TLS_RSA_WITH_AES_128_CBC_SHA
    • TLS_RSA_WITH_AES_256_CBC_SHA
    • TLS_RSA_WITH_3DES_EDE_CBC_SHA
  7. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Web UI enabled

Nom de la catégorie dans l'API : WEB_UI_ENABLED

L'interface utilisateur Web de GKE (tableau de bord) est activée.

L'interface Web de Kubernetes est protégée par un compte de service Kubernetes hautement privilégié, qui peut être utilisé de manière abusive s'il est compromis. Si vous utilisez déjà la console Google Cloud, l'interface Web de Kubernetes étend inutilement votre surface d'attaque. Découvrez comment désactiver l'interface Web de Kubernetes.

Pour corriger ce résultat, désactivez l'interface Web de Kubernetes :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur le nom du cluster répertorié dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Cliquez sur Modules complémentaires. La section se développe pour afficher les modules complémentaires disponibles.

  5. Dans la liste déroulante Tableau de bord Kubernetes, sélectionnez Désactivé.

  6. Cliquez sur Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Workload Identity disabled

Nom de la catégorie dans l'API : WORKLOAD_IDENTITY_DISABLED

Workload Identity est désactivé sur un cluster GKE.

Workload Identity est la solution recommandée pour accéder aux services Google Cloud à partir de GKE, car elle propose des propriétés de sécurité renforcée et simplifie la gestion. Son activation permet de protéger certaines métadonnées système potentiellement sensibles contre les charges de travail d'utilisateur exécutées sur votre cluster. En savoir plus sur la Dissimulation de métadonnées.

Pour corriger ce résultat, suivez le guide Activer Workload Identity sur un cluster.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Corriger les erreurs de configuration AWS

AWS Cloud Shell Full Access Restricted

Nom de la catégorie dans l'API : ACCESS_AWSCLOUDSHELLFULLACCESS_RESTRICTED

AWS CloudShell est un moyen pratique d'exécuter des commandes CLI sur des services AWS. Une stratégie IAM gérée ("AWSCloudShellFullAccess") offre un accès complet à Cloud Shell, qui permet d'importer et de télécharger des fichiers entre le système local d'un utilisateur et l'environnement Cloud Shell. Dans l'environnement CloudShell, un utilisateur dispose d'autorisations sudo et peut accéder à Internet. Il est donc possible d'installer un logiciel de transfert de fichiers (par exemple) et de déplacer les données de Cloud Shell vers des serveurs Internet externes.

Recommandation: Assurez-vous que l'accès à AWSCloudShellFullAccess est limité

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Ouvrez la console IAM sur https://console.aws.amazon.com/iam/
  2. Dans le volet de gauche, sélectionnez "Stratégies"
  3. Recherchez et sélectionnez AWSCloudShellFullAccess
  4. Dans l'onglet "Entités associées", cochez la case de chaque élément et sélectionnez "Dissocier" pour chaque élément.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Access Keys Rotated Every 90 Days or Less

Nom de la catégorie dans l'API : ACCESS_KEYS_ROTATED_90_DAYS_LESS

Les clés d'accès sont constituées d'un ID de clé d'accès et d'une clé d'accès secrète, qui permettent de signer les requêtes programmatiques que vous envoyez à AWS. Les utilisateurs AWS ont besoin de leurs propres clés d'accès pour effectuer des appels programmatiques vers AWS depuis l'interface de ligne de commande AWS (CLI AWS), Tools for Windows PowerShell, les SDK AWS ou des appels HTTP directs à l'aide des API pour des services AWS individuels. Il est recommandé d'alterner régulièrement toutes les clés d'accès.

Recommandation: Assurez-vous que les clés d'accès sont alternées tous les 90 jours au maximum

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Accédez à la console de gestion (https://console.aws.amazon.com/iam).
  2. Cliquez sur Users.
  3. Cliquez sur Security Credentials.
  4. En tant qu'administrateur
     : cliquez sur Make Inactive pour les clés qui n'ont pas été remplacées depuis 90 jours.
  5. En tant qu'utilisateur IAM
     : cliquez sur Make Inactive ou Delete pour les clés qui n'ont pas été alternées ni utilisées depuis 90 jours.
  6. Cliquez sur Create Access Key.
  7. Mettre à jour l'appel programmatique avec les nouveaux identifiants de clé d'accès

CLI AWS

  1. Tant que la première clé d'accès est toujours active, créez-en une deuxième, qui est active par défaut. Exécutez la commande suivante :
aws iam create-access-key

À ce stade, l'utilisateur dispose de deux clés d'accès actives.

  1. Mettez à jour l'ensemble des applications et des outils pour qu'ils utilisent la nouvelle clé d'accès.
  2. Déterminez si la première clé d'accès est toujours utilisée à l'aide de la commande suivante:
aws iam get-access-key-last-used
  1. Une approche consiste à attendre plusieurs jours, puis à vérifier si l'ancienne clé d'accès est utilisée avant de continuer.

Même si l'étape 3 indique que l'ancienne clé n'est pas utilisée, il est recommandé de ne pas supprimer immédiatement la première clé d'accès. À la place, définissez l'état de la première clé d'accès sur "Inactive" à l'aide de la commande suivante:

aws iam update-access-key
  1. Utilisez uniquement la nouvelle clé d'accès pour vérifier que vos applications fonctionnent. Tous les outils et applications qui utilisent toujours la clé d'accès d'origine cesseront de fonctionner à ce stade, car ils n'ont plus accès aux ressources AWS. Si vous trouvez une application ou un outil de ce type, vous pouvez redéfinir son état sur "Actif" pour réactiver la première clé d'accès. Revenez ensuite à l'étape 2 et mettez à jour cette application pour qu'elle utilise la nouvelle clé.

  2. Après un certain temps pour vous assurer que toutes les applications et tous les outils ont été mis à jour, vous pouvez supprimer la première clé d'accès à l'aide de la commande suivante:

aws iam delete-access-key

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

All Expired Ssl Tls Certificates Stored Aws Iam Removed

Nom de la catégorie dans l'API : ALL_EXPIRED_SSL_TLS_CERTIFICATES_STORED_AWS_IAM_REMOVED

Pour activer les connexions HTTPS à votre site Web ou à votre application dans AWS, vous avez besoin d'un certificat de serveur SSL/TLS. Vous pouvez utiliser ACM ou IAM pour stocker et déployer des certificats de serveur.
N'utilisez IAM comme gestionnaire de certificats que lorsque vous devez accepter les connexions HTTPS dans une région non compatible avec ACM. IAM chiffre vos clés privées de manière sécurisée et stocke la version chiffrée dans l'espace de stockage des certificats SSL IAM. IAM accepte le déploiement de certificats de serveur dans toutes les régions, mais vous devez obtenir votre certificat auprès d'un fournisseur externe pour l'utiliser avec AWS. Vous ne pouvez pas importer de certificat ACM dans IAM. De plus, vous ne pouvez pas gérer vos certificats à partir de la console IAM.

Recommandation: Assurez-vous que tous les certificats SSL/TLS expirés et stockés dans AWS IAM sont supprimés

Pour corriger ce problème, procédez comme suit:

Console AWS

Il n'est actuellement pas possible de supprimer des certificats arrivés à expiration via AWS Management Console. Pour supprimer les certificats SSL/TLS stockés dans IAM via l'API AWS, utilisez l'interface de ligne de commande (CLI).

CLI AWS

Pour supprimer un certificat expiré, exécutez la commande suivante en remplaçant CERTIFICATE_NAME par le nom du certificat à supprimer:

aws iam delete-server-certificate --server-certificate-name <CERTIFICATE_NAME>

Lorsque la commande précédente aboutit, elle ne renvoie aucun résultat.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Autoscaling Group Elb Healthcheck Required

Nom de la catégorie dans l'API : AUTOSCALING_GROUP_ELB_HEALTHCHECK_REQUIRED

Cela permet de vérifier si les groupes Auto Scaling associés à un équilibreur de charge utilisent les vérifications d'état Elastic Load Balancing.

Cela permet au groupe de déterminer l'état d'une instance en fonction des tests supplémentaires fournis par l'équilibreur de charge. Les vérifications de l'état d'Elastic Load Balancing peuvent vous aider à garantir la disponibilité des applications qui utilisent des groupes Auto Scaling EC2.

Recommandation: Vérifiez que tous les groupes d'autoscaling associés à un équilibreur de charge utilisent des vérifications de l'état

Pour corriger ce problème, procédez comme suit:

Console AWS

Activer les vérifications d'état Elastic Load Balancing

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sous "Autoscaling", sélectionnez "Groupes d'autoscaling".
  3. Cochez la case correspondant à votre groupe.
  4. Sélectionnez "Modifier".
  5. Sous "Vérifications d'état", sélectionnez "ELB" pour "Type de vérification d'état".
  6. Dans le champ "Délai de grâce pour la vérification de l'état", saisissez 300.
  7. En bas de la page, sélectionnez "Mettre à jour".

Pour en savoir plus sur l'utilisation d'un équilibreur de charge avec un groupe Auto Scaling, consultez le guide de l'utilisateur d'AWS Auto Scaling.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Auto Minor Version Upgrade Feature Enabled Rds Instances

Nom de la catégorie dans l'API : AUTO_MINOR_VERSION_UPGRADE_FEATURE_ENABLED_RDS_INSTANCES

Assurez-vous que l'indicateur de mise à niveau automatique des versions mineures est activé pour les instances de base de données RDS afin qu'elles reçoivent automatiquement les mises à niveau mineures du moteur pendant la période de maintenance spécifiée. Ainsi, les instances RDS peuvent bénéficier des nouvelles fonctionnalités, des corrections de bugs et des correctifs de sécurité pour leurs moteurs de base de données.

Recommandation: Assurez-vous que la fonctionnalité de mise à niveau automatique des versions mineures est activée pour les instances RDS

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à la console de gestion AWS et accédez au tableau de bord RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le panneau de navigation de gauche, cliquez sur Databases.
  3. Sélectionnez l'instance RDS à mettre à jour.
  4. Cliquez sur le bouton Modify situé en haut à droite.
  5. Sur la page Modify DB Instance: <instance identifier>, dans la section Maintenance, sélectionnez Auto minor version upgrade, puis cliquez sur la case d'option Yes.
  6. En bas de la page, cliquez sur Continue, cochez "Appliquer immédiatement" pour appliquer les modifications immédiatement ou sélectionnez Apply during the next scheduled maintenance window pour éviter tout temps d'arrêt.
  7. Examinez les modifications, puis cliquez sur Modify DB Instance. L'état de l'instance doit passer de "Disponible" à "Modification", puis de nouveau à "Disponible". Une fois la fonctionnalité activée, l'état Auto Minor Version Upgrade devrait passer à Yes.

CLI AWS

  1. Exécutez la commande describe-db-instances pour lister tous les noms d'instances de base de données RDS disponibles dans la région AWS sélectionnée:
aws rds describe-db-instances --region <regionName> --query 'DBInstances[*].DBInstanceIdentifier'
  1. La sortie de la commande doit renvoyer chaque identifiant d'instance de base de données.
  2. Exécutez la commande modify-db-instance pour modifier la configuration de l'instance RDS sélectionnée. Cette commande appliquera les modifications immédiatement. Supprimez --apply-immediately pour appliquer les modifications lors du prochain intervalle de maintenance planifié et éviter tout temps d'arrêt:
aws rds modify-db-instance --region <regionName> --db-instance-identifier <dbInstanceIdentifier> --auto-minor-version-upgrade --apply-immediately
  1. Le résultat de la commande doit révéler les nouvelles métadonnées de configuration de l'instance RDS et vérifier la valeur du paramètre AutoMinorVersionUpgrade.
  2. Exécutez la commande describe-db-instances pour vérifier si la fonctionnalité de mise à niveau automatique des versions mineures a bien été activée:
aws rds describe-db-instances --region <regionName> --db-instance-identifier <dbInstanceIdentifier> --query 'DBInstances[*].AutoMinorVersionUpgrade'
  1. Le résultat de la commande doit renvoyer l'état actuel de la fonctionnalité défini sur true, la fonctionnalité est enabled et les mises à niveau mineures du moteur seront appliquées à l'instance RDS sélectionnée.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Aws Config Enabled All Regions

Nom de la catégorie dans l'API : AWS_CONFIG_ENABLED_ALL_REGIONS

AWS Config est un service Web qui gère la configuration des ressources AWS compatibles de votre compte et vous fournit des fichiers journaux. Les informations enregistrées incluent l'élément de configuration (ressource AWS), les relations entre les éléments de configuration (ressources AWS) et toute modification de configuration entre les ressources. Il est recommandé d'activer AWS Config dans toutes les régions.

Recommandation: Assurez-vous que la configuration AWS est activée dans toutes les régions

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Sélectionnez la région sur laquelle vous souhaitez vous concentrer en haut à droite de la console
  2. Cliquez sur "Services".
  3. Configuration du clic
  4. Si un enregistreur de configuration est activé dans cette région, vous devez accéder à la page "Paramètres" à partir du menu de navigation de gauche. Si aucun enregistreur de configuration n'est encore activé dans cette région, vous devez sélectionner "Commencer".
  5. Sélectionnez "Enregistrer toutes les ressources compatibles dans cette région".
  6. Choisissez d'inclure des ressources globales (ressources IAM)
  7. Spécifiez un bucket S3 dans le même compte ou dans un autre compte AWS géré
  8. Créer un sujet SNS à partir du même compte AWS ou d'un autre compte AWS géré

CLI AWS

  1. Assurez-vous qu'il existe un bucket S3, un sujet SNS et un rôle IAM appropriés conformément aux conditions préalables à AWS Config Service.
  2. Exécutez la commande suivante pour créer un enregistreur de configuration:
aws configservice put-configuration-recorder --configuration-recorder name=default,roleARN=arn:aws:iam::012345678912:role/myConfigRole --recording-group allSupported=true,includeGlobalResourceTypes=true
  1. Créez en local un fichier de configuration de canal de distribution qui spécifie les attributs du canal de distribution, en respectant les prérequis précédemment configurés:
{
 "name": "default",
 "s3BucketName": "my-config-bucket",
 "snsTopicARN": "arn:aws:sns:us-east-1:012345678912:my-config-notice",
 "configSnapshotDeliveryProperties": {
 "deliveryFrequency": "Twelve_Hours"
 }
}
  1. Exécutez la commande suivante pour créer un canal de distribution, en référençant le fichier de configuration JSON créé à l'étape précédente:
aws configservice put-delivery-channel --delivery-channel file://deliveryChannel.json
  1. Démarrez l'enregistreur de configuration en exécutant la commande suivante :
aws configservice start-configuration-recorder --configuration-recorder-name default

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Aws Security Hub Enabled

Nom de la catégorie dans l'API : AWS_SECURITY_HUB_ENABLED

Security Hub collecte les données de sécurité de tous les comptes, services et produits tiers partenaires compatibles AWS. Il vous aide à analyser vos tendances de sécurité et à identifier les problèmes de sécurité les plus prioritaires. Lorsque vous activez le Centre de sécurité, il commence à consommer, agréger, organiser et hiérarchiser les résultats des services AWS que vous avez activés, tels qu'Amazon GuardDuty, Amazon Inspector et Amazon Macie. Vous pouvez également activer les intégrations avec les produits de sécurité partenaires AWS.

Recommandation: Assurez-vous qu'AWS Security Hub est activé

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Utilisez les identifiants de l'identité IAM pour vous connecter à la console du Centre de sécurité.
  2. Lorsque vous ouvrez la console du centre de sécurité pour la première fois, sélectionnez "Activer le centre de sécurité AWS".
  3. Sur la page d'accueil, vous trouverez la liste des normes de sécurité compatibles avec le Centre de sécurité.
  4. Sélectionnez "Activer le Centre de sécurité".

CLI AWS

  1. Exécutez la commande enable-security-hub. Pour activer les normes par défaut, incluez --enable-default-standards.
aws securityhub enable-security-hub --enable-default-standards
  1. Pour activer le centre de sécurité sans utiliser les normes par défaut, incluez --no-enable-default-standards.
aws securityhub enable-security-hub --no-enable-default-standards

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Cloudtrail Logs Encrypted Rest Using Kms Cmks

Nom de la catégorie dans l'API : CLOUDTRAIL_LOGS_ENCRYPTED_REST_USING_KMS_CMKS

AWS CloudTrail est un service Web qui enregistre les appels aux API AWS pour un compte, et met ces journaux à la disposition des utilisateurs et des ressources conformément aux stratégies IAM. AWS Key Management Service (KMS) est un service géré qui permet de créer et de contrôler les clés de chiffrement utilisées pour chiffrer les données de compte, et utilise des modules de sécurité matériels (HSM) pour protéger la sécurité des clés de chiffrement. Les journaux CloudTrail peuvent être configurés de façon à exploiter le chiffrement côté serveur (SSE) et les clés principales créées par le client (CMK) KMS pour mieux protéger les journaux CloudTrail. Il est recommandé de configurer CloudTrail de manière à utiliser SSE-KMS.

Recommandation: Assurez-vous que les journaux CloudTrail sont chiffrés au repos à l'aide de CMK KMS

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à la console de gestion AWS et ouvrez la console CloudTrail à l'adresse https://console.aws.amazon.com/cloudtrail.
  2. Dans le volet de navigation de gauche, sélectionnez Trails .
  3. Clic sur un sentier
  4. Dans la section S3, cliquez sur le bouton "Modifier" (icône en forme de crayon).
  5. Cliquez sur Advanced.
  6. Sélectionnez une clé CMK existante dans le KMS key Idmenu déroulant
    - Remarque: Assurez-vous que la clé CMK se trouve dans la même région que le bucket S3
    - Remarque: Vous devez appliquer une stratégie de clé KMS sur la clé CMK sélectionnée afin que CloudTrail en tant que service puisse chiffrer et déchiffrer des fichiers journaux à l'aide de la clé CMK fournie. Cliquez ici pour savoir comment modifier la stratégie de clé CMEK sélectionnée.
  7. Cliquez sur Save.
  8. Un message de notification s'affiche, indiquant que vous devez disposer des autorisations de déchiffrement sur la clé KMS spécifiée pour déchiffrer les fichiers journaux.
  9. Cliquez sur Yes.

CLI AWS

aws cloudtrail update-trail --name <trail_name> --kms-id <cloudtrail_kms_key>
aws kms put-key-policy --key-id <cloudtrail_kms_key> --policy <cloudtrail_kms_key_policy>

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Cloudtrail Log File Validation Enabled

Nom de la catégorie dans l'API : CLOUDTRAIL_LOG_FILE_VALIDATION_ENABLED

La validation du fichier journal CloudTrail crée un fichier de condensé signé numériquement qui contient un hachage de chaque journal que CloudTrail écrit dans S3. Ces fichiers récapitulatifs permettent de déterminer si un fichier journal a été modifié, supprimé ou inchangé après l'envoi du journal par CloudTrail. Il est recommandé d'activer la validation de fichier sur tous les CloudTrails.

Recommandation: Assurez-vous que la validation du fichier journal CloudTrail est activée

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à AWS Management Console et ouvrez la console IAM à l'adresse https://console.aws.amazon.com/cloudtrail.
  2. Cliquez sur Trails dans le volet de navigation de gauche.
  3. Clic sur un sentier cible
  4. Dans la section General details, cliquez sur edit.
  5. Dans la section Advanced settings
  6. Cochez la case d'activation sous Log file validation.
  7. Cliquez sur Save changes.

CLI AWS

aws cloudtrail update-trail --name <trail_name> --enable-log-file-validation

Notez que la validation périodique des journaux à l'aide de ces condensés peut être effectuée en exécutant la commande suivante:

aws cloudtrail validate-logs --trail-arn <trail_arn> --start-time <start_time> --end-time <end_time>

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Cloudtrail Trails Integrated Cloudwatch Logs

Nom de la catégorie dans l'API : CLOUDTRAIL_TRAILS_INTEGRATED_CLOUDWATCH_LOGS

AWS CloudTrail est un service Web qui enregistre les appels d'API AWS effectués dans un compte AWS donné. Les informations enregistrées incluent l'identité de l'appelant de l'API, l'heure de l'appel d'API, l'adresse IP source de l'appelant de l'API, les paramètres de requête et les éléments de réponse renvoyés par le service AWS. CloudTrail utilise Amazon S3 pour le stockage et la diffusion des fichiers journaux. Les fichiers journaux sont donc stockés de manière durable. En plus de capturer les journaux CloudTrail dans un bucket S3 spécifié pour une analyse à long terme, vous pouvez effectuer une analyse en temps réel en configurant CloudTrail pour qu'il envoie des journaux à CloudWatch Logs. Pour un sentier activé dans toutes les régions d'un compte, CloudTrail envoie les fichiers journaux de toutes ces régions à un groupe de journaux CloudWatch Logs. Il est recommandé d'envoyer les journaux CloudTrail à CloudWatch Logs.

Remarque : L'objectif de cette recommandation est de s'assurer que l'activité du compte AWS est enregistrée, surveillée et signalée de manière appropriée. Les journaux CloudWatch offrent un moyen natif d'y parvenir à l'aide des services AWS, mais ils n'empêchent pas l'utilisation d'une autre solution.

Recommandation: Assurez-vous que les pistes CloudTrail sont intégrées aux journaux CloudWatch

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à la console CloudTrail à l'adresse https://console.aws.amazon.com/cloudtrail/.
  2. Sélectionnez l'Trail à mettre à jour.
  3. Faites défiler l'écran vers le bas jusqu'à CloudWatch Logs.
  4. Cliquez sur Edit.
  5. Sous CloudWatch Logs, cochez la case Enabled.
  6. Sous Log Group, choisissez un nouveau groupe de journaux ou sélectionnez un groupe existant
  7. Modifiez Log group name pour qu'il corresponde au chemin CloudTrail ou choisissez le groupe CloudWatch existant.
  8. Sous IAM Role, cliquez sur "Nouveau" ou sélectionnez un élément existant.
  9. Modifiez Role name pour qu'il corresponde à CloudTrail ou choisissez le rôle IAM existant.
  10. Cliquez sur "Enregistrer les modifications".

CLI AWS

aws cloudtrail update-trail --name <trail_name> --cloudwatch-logs-log-group-arn <cloudtrail_log_group_arn> --cloudwatch-logs-role-arn <cloudtrail_cloudwatchLogs_role_arn>

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Cloudwatch Alarm Action Check

Nom de la catégorie dans l'API : CLOUDWATCH_ALARM_ACTION_CHECK

Permet de vérifier si Amazon Cloudwatch a défini des actions lorsqu'une alarme passe de l'état "OK" à "ALARM" et "INSUFFICIENT_DATA".

Il est très important de configurer des actions pour l'état ALARM dans les alarmes Amazon CloudWatch afin de déclencher une réponse immédiate lorsque les métriques surveillées ne respectent pas les seuils.
Il permet une résolution rapide des problèmes, réduit les temps d'arrêt et permet une correction automatisée, ainsi que le maintien de l'état du système et la prévention des pannes.

Les alarmes ont au moins une action.
Les alarmes ont au moins une action lorsqu'elles passent à l'état "INSUFFICIENT_DATA". de tout autre état.
(Facultatif) Les alarmes ont au moins une action lorsque le message "OK" est activé. de tout autre état.

Recommandation: Vérifie si les alarmes CloudWatch ont au moins une action d'alarme, une action INSUFFICIENT_DATA ou une action OK activée.

Pour corriger ce problème, procédez comme suit:

Console AWS

Pour configurer les actions d'ALARM pour vos alarmes Amazon CloudWatch, procédez comme suit.

  1. Ouvrez la console Amazon CloudWatch à l'adresse https://console.aws.amazon.com/cloudwatch/.
  2. Dans le volet de navigation, sous "Alarmes", sélectionnez "Toutes les alarmes".
  3. Sélectionnez l'alarme Amazon CloudWatch que vous souhaitez modifier, puis "Actions" et sélectionnez "Modifier".
  4. Dans le menu de gauche, sélectionnez l'option "Étape 2 : Configurer les actions facultatives".
  5. Pour le "Déclencheur d'état d'alarme" sélectionnez l'option "Dans l'alarme" pour configurer une action basée sur une ALARM.
  6. Pour envoyer une notification à un sujet SNS que vous venez de créer, sélectionnez "Créer un sujet".
  7. Dans la boîte de dialogue "Créer un sujet..." spécifiez un nom de sujet SNS unique.
  8. Dans "Points de terminaison de messagerie qui recevront la notification..." spécifiez une ou plusieurs adresses e-mail.
  9. Sélectionnez ensuite "Créer un sujet". pour créer le sujet Amazon SNS requis.
  10. En bas à droite, sélectionnez "Suivant", "Suivant". et choisissez "Mettre à jour l'alarme" pour appliquer les modifications.
  11. Ouvrez votre client de messagerie et, dans l'e-mail de Notifications AWS, cliquez sur le lien pour confirmer votre abonnement au sujet SNS en question.
  12. Répétez les étapes 4 à 11, puis à l'étape 5, en sélectionnant "OK". et « Données insuffisantes » pour le paramètre "Déclencheur d'état d'alarme" pour configurer des actions pour ces deux états.
  13. Répétez le processus pour toutes les autres alarmes CloudWatch de la même région AWS.
  14. Répétez le processus pour toutes les autres alarmes CloudWatch dans toutes les autres régions AWS.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Cloudwatch Log Group Encrypted

Nom de la catégorie dans l'API : CLOUDWATCH_LOG_GROUP_ENCRYPTED

Cette vérification permet de s'assurer que les journaux CloudWatch sont configurés avec KMS.

Les données des groupes de journaux sont toujours chiffrées dans CloudWatch Logs. Par défaut, CloudWatch Logs utilise le chiffrement côté serveur pour les données des journaux au repos. Vous pouvez également utiliser AWS Key Management Service pour ce chiffrement. Dans ce cas, le chiffrement est effectué à l'aide d'une clé KMS AWS. Le chiffrement à l'aide d'AWS KMS est activé au niveau du groupe de journaux en associant une clé KMS à un groupe de journaux, soit lorsque vous le créez, soit après sa création.

Recommandation: Vérifiez que tous les groupes de journaux dans Amazon CloudWatch sont chiffrés avec KMS

Pour en savoir plus, consultez la section Chiffrer les données de journal dans les journaux CloudWatch à l'aide d'AWS Key Management Service du guide de l'utilisateur Amazon CloudWatch.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

CloudTrail CloudWatch Logs Enabled

Nom de la catégorie dans l'API : CLOUD_TRAIL_CLOUD_WATCH_LOGS_ENABLED

Cette commande vérifie si les pistes CloudTrail sont configurées pour envoyer des journaux à CloudWatch Logs. Le contrôle échoue si la propriété CloudWatchLogsLogGroupArn du sentier est vide.

CloudTrail enregistre les appels d'API AWS effectués dans un compte donné. Les informations enregistrées incluent les suivantes:

  • Identité de l'appelant de l'API
  • Heure de l'appel d'API
  • Adresse IP source de l'appelant de l'API
  • Paramètres de la requête
  • Les éléments de réponse renvoyés par le service AWS

CloudTrail utilise Amazon S3 pour le stockage et la diffusion des fichiers journaux. Vous pouvez capturer les journaux CloudTrail dans un bucket S3 spécifié pour les analyser à long terme. Pour effectuer une analyse en temps réel, vous pouvez configurer CloudTrail afin d'envoyer les journaux aux journaux CloudWatch.

Pour un sentier activé dans toutes les régions d'un compte, CloudTrail envoie les fichiers journaux de toutes ces régions à un groupe de journaux CloudWatch Logs.

Le Centre de sécurité vous recommande d'envoyer les journaux CloudTrail à CloudWatch Logs. Notez que cette recommandation vise à s'assurer que l'activité du compte est enregistrée, surveillée et alertée de manière appropriée. Vous pouvez utiliser les journaux CloudWatch pour configurer cela avec vos services AWS. Cette recommandation n'exclut pas l'utilisation d'une autre solution.

L'envoi de journaux CloudTrail à CloudWatch Logs facilite la journalisation de l'activité en temps réel et historique basée sur l'utilisateur, l'API, la ressource et l'adresse IP. Vous pouvez utiliser cette approche pour définir des alarmes et des notifications en cas d'activité anormale ou sensible du compte.

Recommandation: Vérifie que toutes les pistes CloudTrail sont configurées pour envoyer des journaux à AWS CloudWatch

Pour intégrer CloudTrail à CloudWatch Logs, consultez la section Envoyer des événements à CloudWatch Logs dans le guide de l'utilisateur AWS CloudTrail.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

No AWS Credentials in CodeBuild Project Environment Variables

Nom de la catégorie dans l'API : CODEBUILD_PROJECT_ENVVAR_AWSCRED_CHECK

Cette opération vérifie si le projet contient les variables d'environnement AWS_ACCESS_KEY_ID et AWS_SECRET_ACCESS_KEY.

Les identifiants d'authentification AWS_ACCESS_KEY_ID et AWS_SECRET_ACCESS_KEY ne doivent jamais être stockés en texte clair, car cela pourrait entraîner une exposition involontaire des données et un accès non autorisé.

Recommandation: Vérifie que tous les projets contenant les variables d'environnement AWS_ACCESS_KEY_ID et AWS_SECRET_ACCESS_KEY ne sont pas en texte brut

Pour supprimer des variables d'environnement d'un projet CodeBuild, consultez Modifier les paramètres d'un projet de compilation dans AWS CodeBuild du guide de l'utilisateur AWS CodeBuild. Assurez-vous que rien n'est sélectionné pour les variables d'environnement.

Vous pouvez stocker des variables d'environnement contenant des valeurs sensibles dans AWS Systems Manager Parameter Store ou AWS Secrets Manager, puis les récupérer à partir de votre spécification de compilation. Pour obtenir des instructions, consultez la zone intitulée "Important" dans la section "Environnement" du guide de l'utilisateur AWS CodeBuild.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Codebuild Project Source Repo Url Check

Nom de la catégorie dans l'API : CODEBUILD_PROJECT_SOURCE_REPO_URL_CHECK

Cette option vérifie si l'URL du dépôt source Bitbucket d'un projet AWS CodeBuild contient des jetons d'accès personnels ou un nom d'utilisateur et un mot de passe. Le contrôle échoue si l'URL du dépôt source Bitbucket contient des jetons d'accès personnels ou un nom d'utilisateur et un mot de passe.

Les identifiants de connexion ne doivent pas être stockés ni transmis en texte clair, et ne doivent pas apparaître dans l'URL du dépôt source. Au lieu de jetons d'accès personnels ou d'identifiants de connexion, accédez à votre fournisseur source dans CodeBuild et modifiez l'URL de votre dépôt source pour qu'elle ne contienne que le chemin d'accès vers l'emplacement du dépôt Bitbucket. L'utilisation de jetons d'accès personnels ou d'identifiants de connexion peut entraîner une exposition accidentelle des données ou un accès non autorisé.

Recommandation: Vérifiez que tous les projets utilisant GitHub ou Bitbucket comme source ont recours à OAuth

Vous pouvez mettre à jour votre projet CodeBuild pour utiliser OAuth.

Pour supprimer l'authentification de base/le jeton d'accès personnel (GitHub) de la source du projet CodeBuild

  1. Ouvrez la console CodeBuild à l'adresse https://console.aws.amazon.com/codebuild/.
  2. Choisissez le projet de compilation contenant des jetons d'accès personnels ou un nom d'utilisateur et un mot de passe.
  3. Dans Modifier, choisissez Source.
  4. Choisissez "Se déconnecter de GitHub / Billard".
  5. Choisissez "Se connecter via OAuth", puis "Se connecter à GitHub / Bitre".
  6. Lorsque vous y êtes invité, sélectionnez "Autoriser" si nécessaire.
  7. Reconfigurez l'URL de votre dépôt et les autres paramètres de configuration si nécessaire.
  8. Sélectionnez la source de mise à jour.

Pour en savoir plus, consultez les exemples basés sur des cas d'utilisation de CodeBuild dans le guide de l'utilisateur AWS CodeBuild.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Credentials Unused 45 Days Greater Disabled

Nom de la catégorie dans l'API : CREDENTIALS_UNUSED_45_DAYS_GREATER_DISABLED

Les utilisateurs AWS IAM peuvent accéder aux ressources AWS à l'aide de différents types d'identifiants, tels que des mots de passe ou des clés d'accès. Nous vous recommandons de désactiver ou de supprimer tous les identifiants qui n'ont pas été utilisés depuis au moins 45 jours.

Recommandation: Assurez-vous que les identifiants inutilisés pendant au moins 45 jours sont désactivés

Pour corriger ce résultat, procédez comme suit :

Console AWS

Procédez comme suit pour gérer les mots de passe inutilisés (accès à la console utilisateur IAM)

  1. Connectez-vous à la console AWS Management Console:
  2. Cliquez sur Services.
  3. Cliquez sur IAM.
  4. Cliquez sur Users.
  5. Cliquez sur Security Credentials.
  6. Sélectionnez l'utilisateur dont la valeur du champ "Console last sign-in" est supérieure à 45 jours
  7. Cliquez sur Security credentials.
  8. Dans la section Sign-in credentials, Console password cliquez sur Manage.
  9. Sous "Accès à la console", sélectionnez Disable
    . 10. Cliquez sur Apply.

Pour désactiver les clés d'accès, procédez comme suit:

  1. Connectez-vous à la console AWS Management Console:
  2. Cliquez sur Services.
  3. Cliquez sur IAM.
  4. Cliquez sur Users.
  5. Cliquez sur Security Credentials.
  6. Sélectionnez toutes les clés d'accès qui datent de plus de 45 jours et qui ont été utilisées.
    - Cliquez sur Make Inactive.
  7. Sélectionnez toutes les clés d'accès datant de plus de 45 jours et qui n'ont pas été utilisées.
    - Cliquez sur "X" pour Delete.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Default Security Group Vpc Restricts All Traffic

Nom de la catégorie dans l'API : DEFAULT_SECURITY_GROUP_VPC_RESTRICTS_ALL_TRAFFIC

Un VPC est fourni avec un groupe de sécurité par défaut dont les paramètres initiaux refusent tout trafic entrant, autorisent tout trafic sortant et autorisent tout trafic entre les instances attribuées au groupe de sécurité. Si vous ne spécifiez pas de groupe de sécurité lorsque vous lancez une instance, l'instance est automatiquement attribuée à ce groupe de sécurité par défaut. Les groupes de sécurité fournissent un filtrage avec état du trafic réseau entrant/sortant vers les ressources AWS. Il est recommandé que le groupe de sécurité par défaut restreigne tout le trafic.

Le groupe de sécurité par défaut du VPC par défaut de chaque région doit être mis à jour pour être conforme. Tout VPC nouvellement créé contiendra automatiquement un groupe de sécurité par défaut qui devra être corrigé pour se conformer à cette recommandation.

REMARQUE:Lors de la mise en œuvre de cette recommandation, la journalisation de flux VPC est inestimable pour déterminer l'accès au port du moindre privilège requis pour que les systèmes fonctionnent correctement, car elle peut consigner toutes les acceptations et tous les refus de paquets qui se produisent dans les groupes de sécurité actuels. Cela réduit considérablement le principal obstacle à l'ingénierie du moindre privilège : identifier le nombre minimal de ports requis par les systèmes de l'environnement. Même si la recommandation de journalisation de flux VPC de ce benchmark n'est pas adoptée comme mesure de sécurité permanente, elle doit être utilisée lors de toute période de découverte et d'ingénierie pour les groupes de sécurité du moindre privilège.

Recommandation: Assurez-vous que le groupe de sécurité par défaut de chaque VPC limite tout le trafic

Membres du groupe de sécurité

Procédez comme suit pour implémenter l'état prescrit:

  1. Identifier les ressources AWS qui existent dans le groupe de sécurité par défaut
  2. Créer un ensemble de groupes de sécurité du moindre privilège pour ces ressources
  3. Placez les ressources dans ces groupes de sécurité
  4. Supprimez les ressources indiquées à la question 1 du groupe de sécurité par défaut

État du groupe de sécurité

  1. Connectez-vous à la console de gestion AWS sur https://console.aws.amazon.com/vpc/home.
  2. Répétez les étapes suivantes pour tous les VPC, y compris le VPC par défaut dans chaque région AWS:
  3. Dans le volet de gauche, cliquez sur Security Groups.
  4. Pour chaque groupe de sécurité par défaut, procédez comme suit:
  5. Sélectionnez le groupe de sécurité default
  6. Cliquez sur l'onglet Inbound Rules.
  7. Supprimer les règles entrantes
  8. Cliquez sur l'onglet Outbound Rules.
  9. Supprimez toutes les règles sortantes.

Recommandations :

Les groupes IAM vous permettent de modifier le champ "name". Après avoir corrigé les règles de groupe par défaut pour tous les VPC de toutes les régions, modifiez ce champ pour ajouter un texte semblable à "NE PAS UTILISER NE PAS AJOUTER DE RÈGLES"

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Dms Replication Not Public

Nom de la catégorie dans l'API : DMS_REPLICATION_NOT_PUBLIC

Vérifie si les instances de réplication AWS DMS sont publiques. Pour ce faire, il examine la valeur du champ PubliclyAccessible.

Une instance de réplication privée possède une adresse IP privée à laquelle vous ne pouvez pas accéder en dehors du réseau de réplication. Une instance de réplication doit disposer d'une adresse IP privée lorsque les bases de données source et cible se trouvent sur le même réseau. Le réseau doit également être connecté au VPC de l'instance de réplication à l'aide d'un VPN, d'AWS Direct Connect ou de l'appairage de VPC. Pour en savoir plus sur les instances de réplication publiques et privées, consultez la section Instances de réplication publiques et privées du guide de l'utilisateur d'AWS Database Migration Service.

Vous devez également vous assurer que l'accès à la configuration de votre instance AWS DMS est limité aux seuls utilisateurs autorisés. Pour ce faire, limitez l'accès des utilisateurs Autorisations IAM permettant de modifier les paramètres et les ressources AWS DMS.

Recommandation: Vérifie si les instances de réplication AWS Database Migration Service sont publiques

Vous ne pouvez pas modifier le paramètre d'accès public d'une instance de réplication DMS après l'avoir créée. Pour modifier le paramètre d'accès public, supprimez votre instance actuelle, puis recréez-la. Ne sélectionnez pas l'option "Accès public".

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Do Setup Access Keys During Initial User Setup All Iam Users Console

Nom de la catégorie dans l'API : DO_SETUP_ACCESS_KEYS_DURING_INITIAL_USER_SETUP_ALL_IAM_USERS_CONSOLE

Par défaut, aucune case n'est cochée dans la console AWS lorsque vous créez un utilisateur IAM. Lors de la création des identifiants utilisateur IAM, vous devez déterminer le type d'accès dont ils ont besoin.

Accès par programmation: l'utilisateur IAM peut avoir besoin d'effectuer des appels d'API, d'utiliser la CLI AWS ou d'utiliser Tools for Windows PowerShell. Dans ce cas, créez une clé d'accès (ID de clé d'accès et clé d'accès secrète) pour cet utilisateur.

Accès à la console de gestion AWS: si l'utilisateur doit accéder à la console de gestion AWS, créez un mot de passe pour cet utilisateur.

Recommandation: Ne configurez pas de clés d'accès lors de la configuration initiale de l'utilisateur pour tous les utilisateurs IAM disposant d'un mot de passe de console

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à la console AWS Management Console:
  2. Cliquez sur Services.
  3. Cliquez sur IAM.
  4. Cliquez sur Users.
  5. Cliquez sur Security Credentials.
  6. En tant qu'administrateur
    - Cliquez sur le (Delete) X pour les clés qui ont été créées en même temps que le profil utilisateur, mais qui n'ont pas été utilisées.
  7. En tant qu'utilisateur IAM
    - Cliquez sur le (Delete) X pour les clés qui ont été créées en même temps que le profil utilisateur, mais qui n'ont pas été utilisées.

CLI AWS

aws iam delete-access-key --access-key-id <access-key-id-listed> --user-name <users-name>

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Dynamodb Autoscaling Enabled

Nom de la catégorie dans l'API : DYNAMODB_AUTOSCALING_ENABLED

Cela permet de vérifier si une table Amazon DynamoDB peut faire évoluer sa capacité de lecture et d'écriture en fonction des besoins. Cette commande est acceptée si la table utilise le mode capacité à la demande ou le mode provisionné avec l'autoscaling configuré. Le scaling de la capacité en fonction de la demande évite de limiter les exceptions, ce qui contribue à maintenir la disponibilité de vos applications.

Les tables DynamoDB en mode capacité à la demande ne sont limitées que par les quotas de table par défaut de débit DynamoDB. Pour augmenter ces quotas, vous pouvez déposer une demande d'assistance via l'assistance AWS.

Les tables DynamoDB en mode provisionné avec le scaling automatique ajustent de manière dynamique la capacité de débit provisionnée en fonction des modèles de trafic. Pour en savoir plus sur la limitation des requêtes DynamoDB, consultez la section "Request throttling and intensive capacity" (Limitation des requêtes et capacité d'utilisation intensive) du guide du développeur Amazon DynamoDB.

Recommandation: Les tables DynamoDB doivent automatiquement adapter la capacité en fonction de la demande

Pour obtenir des instructions détaillées sur l'activation du scaling automatique DynamoDB sur des tables existantes en mode capacité, consultez la section Activer l'autoscaling DynamoDB sur les tables existantes du guide du développeur Amazon DynamoDB.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Dynamodb In Backup Plan

Nom de la catégorie dans l'API : DYNAMODB_IN_BACKUP_PLAN

Cette commande évalue si une table DynamoDB est couverte par un plan de sauvegarde. Le contrôle échoue si une table DynamoDB n'est pas couverte par un plan de sauvegarde. Cette commande n'évalue que les tables DynamoDB qui sont à l'état ACTIVE.

Les sauvegardes vous aident à récupérer plus rapidement après un incident de sécurité. Elles renforcent également la résilience de vos systèmes. Inclure des tables DynamoDB dans un plan de sauvegarde vous permet de protéger vos données contre toute perte ou suppression accidentelle.

Recommandation : Les tables DynamoDB doivent être couvertes par un plan de sauvegarde

Pour ajouter une table DynamoDB à un plan de sauvegarde AWS Backup, consultez Assigned resources to a backup plan (Attribuer des ressources à un plan de sauvegarde) dans le guide du développeur AWS Backup.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Dynamodb Pitr Enabled

Nom de la catégorie dans l'API : DYNAMODB_PITR_ENABLED

La récupération à un moment précis (PITR) est l'un des mécanismes disponibles pour sauvegarder les tables DynamoDB.

Une sauvegarde à un moment précis est conservée pendant 35 jours. Si vous avez besoin d'une conservation plus longue, consultez Configurer des sauvegardes planifiées pour Amazon DynamoDB à l'aide d'une sauvegarde AWS de la documentation AWS.

Recommandation: Vérifie que la récupération à un moment précis (PITR) est activée pour toutes les tables AWS DynamoDB

Pour corriger ce problème, procédez comme suit:

Terraform

Pour définir la récupération à un moment précis pour les tables DynamoDB, définissez le bloc point_in_time_recovery:

resource "aws_dynamodb_table" "example" {
  # ... other configuration ...
  point_in_time_recovery {
    enabled = true
  }
}

Console AWS

Activer la récupération à un moment précis DynamoDB pour une table existante

  1. Ouvrez la console DynamoDB à l'adresse https://console.aws.amazon.com/dynamodb/.
  2. Choisissez la table que vous souhaitez utiliser, puis choisissez "Sauvegardes".
  3. Dans la section "Récupération à un moment précis", sous "État", sélectionnez "Activer".
  4. Sélectionnez à nouveau Activer pour confirmer la modification.

CLI AWS

aws dynamodb update-continuous-backups \
  --table-name "GameScoresOnDemand" \
  --point-in-time-recovery-specification "PointInTimeRecoveryEnabled=true"

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Dynamodb Table Encrypted Kms

Nom de la catégorie dans l'API : DYNAMODB_TABLE_ENCRYPTED_KMS

Vérifie si toutes les tables DynamoDB sont chiffrées avec une clé KMS gérée par le client (autre que celle par défaut).

Recommandation: Vérifiez que toutes les tables DynamoDB sont chiffrées avec AWS Key Management Service (KMS)

Pour corriger ce problème, procédez comme suit:

Terraform

Pour corriger ce contrôle, créez une clé KMS AWS et utilisez-la pour chiffrer la ressource DynamoDB qui enfreint les règles.

resource "aws_kms_key" "dynamodb_encryption" {
  description         = "Used for DynamoDB encryption configuration"
  enable_key_rotation = true
}

resource "aws_dynamodb_table" "example" {
  # ... other configuration ...
  server_side_encryption {
    enabled     = true
    kms_key_arn = aws_kms_key.dynamodb_encryption.arn
  }
}

Console AWS

En supposant qu'une clé KMS AWS existe pour chiffrer DynamoDB.

Pour remplacer le chiffrement d'une table DynamoDB par une clé KMS gérée et détenue par le client.

  1. Ouvrez la console DynamoDB à l'adresse https://console.aws.amazon.com/dynamodb/.
  2. Choisissez le tableau que vous souhaitez utiliser, puis choisissez "Paramètres supplémentaires".
  3. Sous "Chiffrement", sélectionnez "Gérer le chiffrement".
  4. Pour "Chiffrement au repos", sélectionnez "Stocké dans votre compte, et détenu et géré par vous".
  5. Sélectionnez la clé AWS à utiliser. Enregistrez les modifications.

CLI AWS

aws dynamodb update-table \
  --table-name <value> \
  --sse-specification "Enabled=true,SSEType=KMS,KMSMasterKeyId=<kms_key_arn>"

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Ebs Optimized Instance

Nom de la catégorie dans l'API : EBS_OPTIMIZED_INSTANCE

Vérifiez si l'optimisation EBS est activée pour vos instances EC2 pouvant être optimisées

Recommandation: Vérifiez que l'optimisation EBS est activée pour toutes les instances compatibles

Pour configurer les paramètres des instances optimisées pour EBS, consultez la section Instances optimisées pour Amazon EBS du guide de l'utilisateur Amazon EC2.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ebs Snapshot Public Restorable Check

Nom de la catégorie dans l'API : EBS_SNAPSHOT_PUBLIC_RESTORABLE_CHECK

Vérifie si les instantanés Amazon Elastic Block Store ne sont pas publics. Le contrôle échoue si les instantanés Amazon EBS peuvent être restaurés par n'importe qui.

Les instantanés EBS sont utilisés pour sauvegarder les données de vos volumes EBS dans Amazon S3 à un moment précis. Vous pouvez utiliser les instantanés pour restaurer les états précédents des volumes EBS. Il est rarement acceptable de partager un instantané en mode public. En général, la décision de partager un instantané publiquement a été prise par erreur ou sans en comprendre parfaitement les conséquences. Cette vérification permet de s'assurer que ce partage était entièrement planifié et intentionnel.

Recommandation: Les instantanés Amazon EBS ne doivent pas pouvoir être restaurés publiquement

Pour corriger ce problème, procédez comme suit:

Console AWS

Pour résoudre ce problème, mettez à jour votre instantané EBS afin de le rendre privé au lieu de le rendre public.

Pour rendre privé un instantané EBS public, procédez comme suit:

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sous "Elastic Block Store", sélectionnez le menu "Snapshots" (Instantanés), puis choisissez votre instantané public.
  3. Dans "Actions", choisissez "Modifier les autorisations".
  4. Choisissez "Privé".
  5. (Facultatif) Ajoutez les numéros de compte AWS des comptes autorisés avec lesquels partager votre instantané, puis sélectionnez "Add Permission" (Ajouter une autorisation).
  6. Sélectionnez "Enregistrer".

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Ebs Volume Encryption Enabled All Regions

Nom de la catégorie dans l'API : EBS_VOLUME_ENCRYPTION_ENABLED_ALL_REGIONS

Elastic Compute Cloud (EC2) prend en charge le chiffrement au repos lors de l'utilisation du service EBS (Elastic Block Store). Bien qu'il soit désactivé par défaut, il est possible de forcer le chiffrement lors de la création de volumes EBS.

Recommandation: Assurez-vous que le chiffrement de volume EBS est activé dans toutes les régions

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à AWS Management Console et ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Sous Account attributes, cliquez sur EBS encryption.
  3. Cliquez sur Manage.
  4. Cochez la case Enable.
  5. Cliquez sur Update EBS encryption.
  6. Répétez l'opération pour chaque région nécessitant la modification.

Remarque : Le chiffrement de volume EBS est configuré par région.

CLI AWS

  1. Exécuter
aws --region <region> ec2 enable-ebs-encryption-by-default
  1. Vérifiez que "EbsEncryptionByDefault": true s'affiche.
  2. Répétez chaque région nécessitant la modification.

Remarque:Le chiffrement de volume EBS est configuré par région.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ec2 Instances In Vpc

Nom de la catégorie dans l'API : EC2_INSTANCES_IN_VPC

Amazon VPC offre plus de fonctionnalités de sécurité que EC2 Classic. Il est recommandé que tous les nœuds appartiennent à un VPC Amazon.

Recommandation: s'assure que toutes les instances appartiennent à un VPC

Pour corriger ce problème, procédez comme suit:

Terraform

Si vous avez défini des instances EC2 classiques dans Terraform, vous pouvez modifier vos ressources pour qu'elles fassent partie d'un VPC. Cette migration dépend d'une architecture qui répond le mieux à vos besoins. Voici un exemple Terraform simple qui illustre un EC2 publiquement exposé dans un VPC.

  resource "aws_vpc" "example_vpc" {
    cidr_block = "10.0.0.0/16"
  }

  resource "aws_subnet" "example_public_subnet" {
    vpc_id            = aws_vpc.example_vpc.id
    cidr_block        = "10.0.1.0/24"
    availability_zone = "1a"
  }

  resource "aws_internet_gateway" "example_igw" {
    vpc_id = aws_vpc.example_vpc.id
  }

  resource "aws_key_pair" "example_key" {
    key_name   = "web-instance-key"
    public_key = "ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQD3F6tyPEFEzV0LX3X8BsXdMsQz1x2cEikKDEY0aIj41qgxMCP/iteneqXSIFZBp5vizPvaoIR3Um9xK7PGoW8giupGn+EPuxIA4cDM4vzOqOkiMPhz5XK0whEjkVzTo4+S0puvDZuwIsdiW9mxhJc7tgBNL0cYlWSYVkz4G/fslNfRPW5mYAM49f4fhtxPb5ok4Q2Lg9dPKVHO/Bgeu5woMc7RY0p1ej6D4CKFE6lymSDJpW0YHX/wqE9+cfEauh7xZcG0q9t2ta6F6fmX0agvpFyZo8aFbXeUBr7osSCJNgvavWbM/06niWrOvYX2xwWdhXmXSrbX8ZbabVohBK41 email@example.com"
  }

  resource "aws_security_group" "web_sg" {
    name   = "http and ssh"
    vpc_id = aws_vpc.some_custom_vpc.id

    ingress {
      from_port   = 80
      to_port     = 80
      protocol    = "tcp"
      cidr_blocks = ["0.0.0.0/0"]
    }

    ingress {
      from_port   = 22
      to_port     = 22
      protocol    = "tcp"
      cidr_blocks = ["0.0.0.0/0"]
    }

    egress {
      from_port   = 0
      to_port     = 0
      protocol    = -1
      cidr_blocks = ["0.0.0.0/0"]
    }
  }

  resource "aws_instance" "web" {
    ami                    = <ami_id>
    instance_type          = <instance_flavor>
    key_name               = aws_key_pair.example_key.name
    monitoring             = true
    subnet_id              = aws_subnet.example_public_subnet.id
    vpc_security_group_ids = [aws_security_group.web_sg.id]
    metadata_options {
      http_tokens = "required"
    }
  }

Console AWS

Pour migrer votre EC2 Classic vers un VPC, consultez Migrer d'EC2-Classic vers un VPC

CLI AWS

Cet exemple de CLI AWS illustre la même infrastructure définie avec Terraform. Il s'agit d'un exemple simple d'instance EC2 exposée publiquement dans un VPC

Créer un VPC

  aws ec2 create-vpc \
  --cidr-block 10.0.0.0/16

Créer un sous-réseau public

  aws ec2 create-subnet \
  --availability-zone 1a \
  --cidr-block 10.0.1.0/24 \
  --vpc-id <id_from_create-vpc_command>

Créer une passerelle Internet

  aws ec2 create-internet-gateway

Associer la passerelle Internet au VPC

  aws ec2 attach-internet-gateway \
  --internet-gateway-id <id_from_create-internet-gateway_command> \
  --vpc-id <id_from_create-vpc_command>

Créer une paire de clés : votre clé privée sera enregistrée dans /.ssh/web-instance-key.pem

  aws ec2 create-key-pair \
  --key-name web-instance-key \
  --query "KeyMaterial" \
  --output text > ~/.ssh/web-instance-key.pem && \
  chmod 400 ~/.ssh/web-instance-key.pem

Créer un groupe de sécurité

  aws ec2 create-security-group \
  --group-name "http and ssh" \
  --vpc-id <id_from_create-vpc_command>

Créer des règles de groupe de sécurité : pour restreindre l'accès, définissez un CIDR plus restreint pour SSH sur le port 22.

  aws ec2 authorize-security-group-ingress \
  --group-id <id_from_create-security-group_command>
  --protocol tcp \
  --port 80 \
  --cidr 0.0.0.0/0

  aws ec2 authorize-security-group-ingress \
  --group-id <id_from_create-security-group_command>
  --protocol tcp \
  --port 22 \
  --cidr 0.0.0.0/0

  aws ec2 authorize-security-group-egress \
  --group-id <id_from_create-security-group_command>
  --protocol -1 \
  --port 0 \
  --cidr 0.0.0.0/0

Créez une instance EC2

  aws ec2 run-instances \
  --image-id <ami_id> \
  --instance-type <instance_flavor> \
  --metadata-options "HttpEndpoint=enabled,HttpTokens=required" \
  --monitoring true \
  --key-name web-instance-key \
  --subnet-id <id_from_create-subnet_command> \
  --security-group-ids <id_from_create-security-group_command>

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Ec2 Instance No Public Ip

Nom de la catégorie dans l'API : EC2_INSTANCE_NO_PUBLIC_IP

Les instances EC2 disposant d'une adresse IP publique présentent un risque accru de compromission. Il est recommandé de ne pas configurer les instances EC2 avec une adresse IP publique.

Recommandation: s'assure qu'aucune instance ne dispose d'une adresse IP publique

Pour corriger ce problème, procédez comme suit:

Terraform

Utilisez l'argument associate_public_ip_address = false avec la ressource aws_instance pour vous assurer que les instances EC2 sont provisionnées sans adresse IP publique

resource "aws_instance" "no_public_ip" {
  ...
  associate_public_ip_address = false
}

Console AWS

Par défaut, l'attribut d'adressage public IPv4 est défini sur "false" pour les sous-réseaux autres que ceux par défaut, et cet attribut sur "true" pour les sous-réseaux par défaut. Une exception est un sous-réseau non par défaut créé par l'assistant de lancement d'instance Amazon EC2. L'assistant définit l'attribut sur "true". Vous pouvez modifier cet attribut à l'aide de la console Amazon VPC.

Modifier le comportement d'adressage IPv4 public de votre sous-réseau

  1. Ouvrez la console Amazon VPC à l'adresse https://console.aws.amazon.com/vpc/.
  2. Dans le volet de navigation, sélectionnez Sous-réseaux.
  3. Sélectionnez votre sous-réseau, puis cliquez sur Actions, Edit subnet settings (Actions, Modifier les paramètres du sous-réseau).
  4. Si elle est cochée, la case Activer l'attribution automatique des adresses IPv4 publiques demande une adresse IPv4 publique pour toutes les instances lancées dans le sous-réseau sélectionné. Cochez ou décochez la case selon vos besoins, puis sélectionnez Enregistrer.

CLI AWS

La commande suivante exécute une instance EC2 dans un sous-réseau par défaut sans lui associer d'adresse IP publique.

aws ec2 run-instances \
--image-id <ami_id> \
--instance-type <instance_flavor> \
--no-associate-public-ip-address \
--key-name MyKeyPair

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Ec2 Managedinstance Association Compliance Status Check

Nom de la catégorie dans l'API : EC2_MANAGEDINSTANCE_ASSOCIATION_COMPLIANCE_STATUS_CHECK

Une association de gestionnaire d'état est une configuration attribuée à vos instances gérées. La configuration définit l'état que vous souhaitez conserver sur vos instances. Par exemple, une association peut spécifier que le logiciel antivirus doit être installé et exécuté sur vos instances, ou que certains ports doivent être fermés. Les instances EC2 associées à AWS Systems Manager sont gérées par Systems Manager, ce qui facilite l'application de correctifs, la correction des erreurs de configuration et la réponse aux événements de sécurité.

Recommandation: Vérifie l'état de conformité de l'association AWS Systems Manager

Pour corriger ce problème, procédez comme suit:

Terraform

L'exemple suivant montre comment créer une instance EC2 simple, un document AWS Systems Manager (SSM) et une association entre SSM et l'instance EC2. Les documents compatibles sont de type Command et Policy.

resource "aws_instance" "web" {
  ami           = "<iam_id>"
  instance_type = "<instance_flavor>"
}

resource "aws_ssm_document" "check_ip" {
  name          = "check-ip-config"
  document_type = "Command"

  content = <<DOC
  {
    "schemaVersion": "1.2",
    "description": "Check ip configuration of a Linux instance.",
    "parameters": {

    },
    "runtimeConfig": {
      "aws:runShellScript": {
        "properties": [
          {
            "id": "0.aws:runShellScript",
            "runCommand": ["ifconfig"]
          }
        ]
      }
    }
  }
DOC
}

resource "aws_ssm_association" "check_ip_association" {
  name = aws_ssm_document.check_ip.name

  targets {
    key    = "InstanceIds"
    values = [aws_instance.web.id]
  }
}

Console AWS

Pour en savoir plus sur la configuration des associations avec AWS Systems Manager à l'aide de la console, consultez la section Creating Associations (Créer des associations) dans la documentation AWS Systems Manager.

CLI AWS

Créer un document SSM

aws ssm create-document \
--name <document_name> \
--content  file://path/to-file/document.json \
--document-type "Command"

Créer une association SSM

aws ssm create-association \
--name <association_name> \
--targets "Key=InstanceIds,Values=<instance-id-1>,<instance-id-2>"

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Ec2 Managedinstance Patch Compliance Status Check

Nom de la catégorie dans l'API : EC2_MANAGEDINSTANCE_PATCH_COMPLIANCE_STATUS_CHECK

Cette commande vérifie si l'état de conformité de l'association AWS Systems Manager est COMPLIANT ou NON_COMPLIANT après l'exécution de l'association sur une instance. Le contrôle échoue si l'état de conformité de l'association est NON_COMPLIANT.

Une association de gestionnaire d'état est une configuration attribuée à vos instances gérées. La configuration définit l'état que vous souhaitez conserver sur vos instances. Par exemple, une association peut spécifier que le logiciel antivirus doit être installé et exécuté sur vos instances ou que certains ports doivent être fermés.

Une fois que vous avez créé une ou plusieurs associations de gestionnaire d'état, vous avez immédiatement accès aux informations sur l'état de conformité. Vous pouvez afficher l'état de conformité dans la console ou en réponse aux commandes de CLI AWS ou aux actions correspondantes de l'API Systems Manager. Pour les associations, "Conformité de la configuration" indique l'état de conformité ("Conforme" ou "Non conforme"). Il indique également le niveau de gravité attribué à l'association (Critique ou Moyenne, par exemple).

Pour en savoir plus sur la conformité des associations avec le gestionnaire d'état, consultez À propos de la conformité des associations avec le gestionnaire d'état dans le guide de l'utilisateur d'AWS Systems Manager.

Recommandation: Vérifiez l'état de conformité des correctifs AWS Systems Manager

Une association échouée peut être liée à différents éléments, y compris aux cibles et aux noms de documents SSM. Pour résoudre ce problème, vous devez d'abord identifier et examiner l'association en consultant l'historique des associations. Pour savoir comment afficher l'historique des associations, consultez la section Afficher l'historique des associations du guide de l'utilisateur d'AWS Systems Manager.

Après examen, vous pouvez modifier l'association pour corriger le problème identifié. Vous pouvez modifier une association pour spécifier un nouveau nom, une nouvelle planification, un nouveau niveau de gravité ou de nouvelles cibles. Une fois que vous avez modifié une association, AWS Systems Manager crée une version. Pour obtenir des instructions sur la modification d'une association, consultez la section Editing and create a new version of an association (Modifier et créer une version d'une association) du guide de l'utilisateur AWS Systems Manager.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Ec2 Metadata Service Allows Imdsv2

Nom de la catégorie dans l'API : EC2_METADATA_SERVICE_ALLOWS_IMDSV2

Lors de l'activation du service de métadonnées sur des instances AWS EC2, les utilisateurs ont la possibilité d'utiliser le service de métadonnées d'instance (IMDSv1, méthode de requête/réponse) ou le service de métadonnées d'instance (IMDSv2, méthode orientée session).

Recommandation: Assurez-vous que le service de métadonnées EC2 autorise uniquement IMDSv2

Depuis la console:
1. Connectez-vous à AWS Management Console et ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/
2. Dans le menu "Instances", sélectionnez "Instances".
3. Pour chaque instance, sélectionnez l'instance, puis cliquez sur Actions > Permet de modifier les options de métadonnées d'instance.
4. Si le service de métadonnées d'instance est activé, définissez IMDSv2 sur "Required" (Obligatoire).

Depuis la ligne de commande:

aws ec2 modify-instance-metadata-options --instance-id <instance_id> --http-tokens required

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ec2 Volume Inuse Check

Nom de la catégorie dans l'API : EC2_VOLUME_INUSE_CHECK

Identifier et supprimer les volumes EBS (Elastic Block Store) non associés (non utilisés) dans votre compte AWS afin de réduire le coût de votre facture AWS mensuelle. Supprimer les volumes EBS inutilisés réduit également le risque de fuite de données confidentielles/sensibles depuis vos locaux. De plus, cette commande vérifie également si les instances EC2 archivées sont configurées pour supprimer des volumes à l'arrêt.

Par défaut, les instances EC2 sont configurées pour supprimer les données de tous les volumes EBS associés à l'instance et pour supprimer le volume EBS racine de l'instance. Toutefois, tous les volumes EBS non racines associés à l'instance, au lancement ou lors de l'exécution, sont conservés par défaut après l'arrêt.

Recommandation: Vérifiez si les volumes EBS sont associés aux instances EC2 et configurés pour être supprimés à l'arrêt de l'instance

Pour corriger ce problème, procédez comme suit:

Terraform

Pour éviter ce scénario avec Terraform, créez des instances EC2 avec des blocs EBS intégrés. Ainsi, tous les blocs EBS associés à l'instance (pas seulement la racine) seront supprimés à l'arrêt de l'instance, l'attribut ebs_block_device.delete_on_termination étant défini par défaut sur true.

resource "aws_instance" "web" {
    ami                    = <ami_id>
    instance_type          = <instance_flavor>
    ebs_block_device {
      delete_on_termination = true # Default
      device_name           = "/dev/sdh"
    }

Console AWS

Pour supprimer un volume EBS à l'aide de la console

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sélectionnez Volumes.
  3. Sélectionnez le volume à supprimer, puis Actions > Supprimer le volume.
  4. Remarque: Si l'option "Supprimer le volume" est grisée, cela signifie que le volume est associé à une instance. Vous devez dissocier le volume de l'instance avant de pouvoir le supprimer.
  5. Dans la boîte de dialogue de confirmation, sélectionnez Supprimer.

CLI AWS

Cet exemple de commande supprime un volume disponible dont l'ID de volume est vol-049df61146c4d7901. Si la commande aboutit, aucun résultat n'est renvoyé.

aws ec2 delete-volume --volume-id vol-049df61146c4d7901

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Efs Encrypted Check

Nom de la catégorie dans l'API : EFS_ENCRYPTED_CHECK

Amazon EFS accepte deux formes de chiffrement pour les systèmes de fichiers : le chiffrement des données en transit et le chiffrement au repos. Cela permet de vérifier que tous les systèmes de fichiers EFS sont configurés avec le chiffrement au repos dans toutes les régions activées du compte.

Recommandation: Vérifiez si EFS est configuré pour chiffrer les données de fichiers à l'aide de KMS

Pour corriger ce problème, procédez comme suit:

Terraform

L'extrait de code suivant peut être utilisé pour créer un EFS chiffré KMS. (Remarque: l'attribut kms_key_id est facultatif. Une clé sera créée si aucun ID de clé kms n'est transmis.)

resource "aws_efs_file_system" "encrypted-efs" {
  creation_token = "my-kms-encrypted-efs"
  encrypted      = true
  kms_key_id     = "arn:aws:kms:us-west-2:12344375555:key/16393ebd-3348-483f-b162-99b6648azz23"

  tags = {
    Name = "MyProduct"
  }
}

Console AWS

Pour configurer EFS avec chiffrement à l'aide de la console AWS, consultez la page Chiffrer un système de fichiers au repos à l'aide de la console.

CLI AWS

Notez que même si la création d'EFS à partir de la console active le chiffrement au repos par défaut, ce n'est pas le cas pour les EFS créés à l'aide de la CLI, de l'API ou du SDK. L'exemple suivant vous permet de créer un système de fichiers chiffré dans votre infrastructure.

aws efs create-file-system \
--backup \
--encrypted \
--region us-east-1 \

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Efs In Backup Plan

Nom de la catégorie dans l'API : EFS_IN_BACKUP_PLAN

Les bonnes pratiques d'Amazon recommandent de configurer des sauvegardes pour vos systèmes de fichiers élastiques (EFS). Cela permet de rechercher des sauvegardes activées dans tous les EFS de chaque région activée de votre compte AWS.

Recommandation: Vérifiez si les systèmes de fichiers EFS sont inclus dans les plans de sauvegarde AWS

Pour corriger ce problème, procédez comme suit:

Terraform

Utilisez la ressource aws_efs_backup_policy pour configurer une règle de sauvegarde pour les systèmes de fichiers EFS.

resource "aws_efs_file_system" "encrypted-efs" {
  creation_token = "my-encrypted-efs"
  encrypted      = true

  tags = merge({
    Name = "${local.resource_prefix.value}-efs"
    }, {
    git_file             = "terraform/aws/efs.tf"
    git_org              = "your_git_org"
    git_repo             = "your_git_repo"
  })
}

resource "aws_efs_backup_policy" "policy" {
  file_system_id = aws_efs_file_system.encrypted-efs.id

  backup_policy {
    status = "ENABLED"
  }
}

Console AWS

Il existe deux options de sauvegarde d'EFS: le service de sauvegarde AWS et la solution de sauvegarde EFS vers EFS. Pour corriger un EFS non sauvegardé à l'aide de la console, consultez les ressources suivantes:

  1. Utiliser la sauvegarde AWS pour sauvegarder et restaurer les systèmes de fichiers Amazon EFS
  2. Sauvegarde d'EFS vers EFS

CLI AWS

Il existe plusieurs options pour créer des systèmes de fichiers EFS conformes à l'aide de la CLI:

  1. Créez un EFS avec la sauvegarde automatique activée (par défaut pour le stockage One Zone et sous réserve de la disponibilité des sauvegardes dans la région AWS).
  2. Créer un EFS et insérer une stratégie de sauvegarde

Toutefois, en supposant que la correction doit avoir lieu dans un EFS existant, la meilleure option consiste à créer une stratégie de sauvegarde et à l'associer à votre EFS non conforme. Vous aurez besoin d'une commande pour chaque EFS de votre infrastructure.

arr=( $(aws efs describe-file-systems | jq -r '.FileSystems[].FileSystemId') )
for efs in "${arr[@]}"
do
  aws efs put-backup-policy \
  --file-system-id "${efs}" \
  --backup-policy "Status=ENABLED"
done

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Elb Acm Certificate Required

Nom de la catégorie dans l'API : ELB_ACM_CERTIFICATE_REQUIRED

Vérifie si l'équilibreur de charge classique utilise des certificats HTTPS/SSL fournis par AWS Certificate Manager (ACM). Le contrôle échoue si l'équilibreur de charge classique configuré avec l'écouteur HTTPS/SSL n'utilise pas un certificat fourni par ACM.

Pour créer un certificat, vous pouvez utiliser ACM ou un outil compatible avec les protocoles SSL et TLS, comme OpenSSL. Le Centre de sécurité vous recommande d'utiliser ACM pour créer ou importer des certificats pour votre équilibreur de charge.

ACM s'intègre aux équilibreurs de charge classiques afin que vous puissiez déployer le certificat sur votre équilibreur de charge. Vous devez également renouveler automatiquement ces certificats.

Recommandation: Vérifie que tous les équilibreurs de charge classiques utilisent les certificats SSL fournis par AWS Certificate Manager

Pour savoir comment associer un certificat SSL/TLS ACM à un équilibreur de charge classique, consultez l'article du centre de connaissances AWS Comment associer un certificat SSL/TLS ACM à un équilibreur de charge classique, d'application ou de réseau.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Elb Deletion Protection Enabled

Nom de la catégorie dans l'API : ELB_DELETION_PROTECTION_ENABLED

Vérifie si la protection contre la suppression est activée sur un équilibreur de charge d'application. Le contrôle échoue si la protection contre la suppression n'est pas configurée.

Activez la protection contre la suppression pour protéger votre équilibreur de charge d'application contre la suppression.

Recommandation: La protection contre la suppression de l'équilibreur de charge d'application doit être activée

Pour corriger ce problème, procédez comme suit:

Console AWS

Pour éviter que votre équilibreur de charge ne soit supprimé accidentellement, vous pouvez activer la protection contre la suppression. Par défaut, la protection contre la suppression est désactivée pour votre équilibreur de charge.

Si vous activez la protection contre la suppression pour votre équilibreur de charge, vous devez la désactiver avant de pouvoir supprimer l'équilibreur de charge.

Pour activer la protection contre la suppression à partir de la console.

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sous ÉQUILIBRAGE DE CHARGE, sélectionnez Équilibreurs de charge.
  3. Choisissez l'équilibreur de charge.
  4. Dans l'onglet Description, sélectionnez Modifier les attributs.
  5. Sur la page Modifier les attributs de l'équilibreur de charge, sélectionnez Activer la protection contre la suppression, puis cliquez sur Enregistrer.
  6. Sélectionnez Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Elb Logging Enabled

Nom de la catégorie dans l'API : ELB_LOGGING_ENABLED

Cette option vérifie si la journalisation est activée pour l'équilibreur de charge d'application et l'équilibreur de charge classique. Le contrôle échoue si access_logs.s3.enabled est défini sur "false".

Elastic Load Balancing fournit des journaux d'accès qui capturent des informations détaillées sur les requêtes envoyées à votre équilibreur de charge. Chaque journal contient des informations telles que l'heure de réception de la requête, l'adresse IP du client, les latences, les chemins des requêtes et les réponses du serveur. Vous pouvez utiliser ces journaux d'accès pour analyser les modèles de trafic et résoudre des problèmes.

Pour en savoir plus, consultez la section Journaux d'accès pour votre équilibreur de charge classique du guide de l'utilisateur pour les équilibreurs de charge classiques.

Recommandation : Vérifiez si la journalisation est activée sur les équilibreurs de charge classiques et d'application

Pour corriger ce résultat, procédez comme suit :

Console AWS

Pour résoudre ce problème, mettez à jour vos équilibreurs de charge afin d'activer la journalisation.

Activer les journaux d'accès

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sélectionnez Équilibreurs de charge.
  3. Choisissez un équilibreur de charge d'application ou un équilibreur de charge classique.
  4. Dans Actions, sélectionnez Modifier les attributs.
  5. Sous Journaux d'accès, choisissez Activer.
  6. Saisissez l'emplacement de votre S3. Cet établissement peut exister ou être créé automatiquement. Si vous ne spécifiez pas de préfixe, les journaux d'accès sont stockés à la racine du bucket S3.
  7. Sélectionnez Enregistrer.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Elb Tls Https Listeners Only

Nom de la catégorie dans l'API : ELB_TLS_HTTPS_LISTENERS_ONLY

Cette vérification permet de s'assurer que tous les équilibreurs de charge classiques sont configurés pour utiliser une communication sécurisée.

Un écouteur est un processus qui vérifie les requêtes de connexion. Il est configuré avec un protocole et un port pour les connexions d'interface (du client à l'équilibreur de charge) et un protocole et un port pour les connexions backend (de l'équilibreur de charge à l'instance). Pour en savoir plus sur les ports, les protocoles et les configurations d'écouteur compatibles avec Elastic Load Balancing, consultez la page Écouteurs pour votre équilibreur de charge classique.

Recommandation: Vérifie que tous les équilibreurs de charge classiques sont configurés avec des écouteurs SSL ou HTTPS

Pour configurer SSL ou TLS pour les équilibreurs de charge classiques, consultez la page Créer un équilibreur de charge HTTPS/SSL à l'aide d'AWS Management Console.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Encrypted Volumes

Nom de la catégorie dans l'API : ENCRYPTED_VOLUMES

Vérifie si les volumes EBS associés à un état sont chiffrés. Pour réussir cette vérification, les volumes EBS doivent être utilisés et chiffrés. Si le volume EBS n'est pas associé, il n'est pas soumis à cette vérification.

Pour renforcer la sécurité de vos données sensibles dans les volumes EBS, vous devez activer le chiffrement EBS au repos. Le chiffrement Amazon EBS offre une solution de chiffrement simple pour vos ressources EBS. Vous n'avez pas besoin de créer, de gérer ni de sécuriser votre propre infrastructure de gestion des clés. Elle utilise des clés KMS lors de la création de volumes chiffrés et d'instantanés.

Pour en savoir plus sur le chiffrement Amazon EBS, consultez la section "Chiffrement Amazon EBS" du guide de l'utilisateur Amazon EC2 pour les instances Linux.

Recommandation: Les volumes Amazon EBS associés doivent être chiffrés au repos

Pour corriger ce problème, procédez comme suit:

Console AWS

Il n'existe aucun moyen direct de chiffrer un volume ou un instantané non chiffré existant. Vous ne pouvez chiffrer un nouveau volume ou instantané qu'au moment de sa création.

Si vous avez activé le chiffrement par défaut, Amazon EBS chiffre le nouveau volume ou instantané obtenu à l'aide de votre clé par défaut pour le chiffrement Amazon EBS. Même si vous n'avez pas activé le chiffrement par défaut, vous pouvez l'activer lorsque vous créez un volume ou un instantané individuel. Dans les deux cas, vous pouvez remplacer la clé par défaut pour le chiffrement Amazon EBS et choisir une clé symétrique gérée par le client.

Pour en savoir plus, consultez les pages Créer un volume Amazon EBS et Copier un instantané Amazon EBS du guide de l'utilisateur Amazon EC2 pour les instances Linux.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Encryption At Rest Enabled Rds Instances

Nom de la catégorie dans l'API : ENCRYPTION_AT_REST_ENABLED_RDS_INSTANCES

Les instances de base de données chiffrées Amazon RDS utilisent l'algorithme de chiffrement AES-256 standard pour chiffrer vos données sur le serveur qui héberge vos instances de base de données Amazon RDS. Une fois vos données chiffrées, Amazon RDS gère l'authentification de l'accès et le déchiffrement de vos données de manière transparente, avec un impact minimal sur les performances.

Recommandation: Assurez-vous que le chiffrement au repos est activé pour les instances RDS

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à la console de gestion AWS et ouvrez le tableau de bord RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le panneau de navigation de gauche, cliquez sur Databases.
  3. Sélectionnez l'instance de base de données à chiffrer.
  4. Cliquez sur le bouton Actions situé en haut à droite, puis sélectionnez Take Snapshot.
  5. Sur la page "Prendre un instantané", saisissez le nom de la base de données dont vous souhaitez prendre un instantané dans le champ Snapshot Name, puis cliquez sur Take Snapshot.
  6. Sélectionnez l'instantané que vous venez de créer, cliquez sur le bouton Action en haut à droite, puis sélectionnez Copy snapshot dans le menu "Action".
  7. Sur la page "Créer une copie de l'instantané de base de données", procédez comme suit:
  • Dans le champ "Nouvel identifiant d'instantané de base de données", saisissez un nom pour le new snapshot.
  • Cochez la case Copy Tags. Le nouvel instantané doit comporter les mêmes tags que l'instantané source.
  • Sélectionnez Yes dans la liste déroulante Enable Encryption pour activer le chiffrement. Vous pouvez choisir d'utiliser la clé de chiffrement AWS par défaut ou une clé personnalisée dans la liste déroulante "Master Key" (Clé principale).
  1. Cliquez sur Copy Snapshot pour créer une copie chiffrée de l'instantané d'instance sélectionné.
  2. Sélectionnez la nouvelle copie chiffrée de l'instantané, cliquez sur le bouton Action situé en haut à droite, puis sélectionnez le bouton Restore Snapshot dans le menu "Action". L'instantané chiffré sera ainsi restauré dans une nouvelle instance de base de données.
  3. Sur la page Restaurer l'instance de base de données, saisissez un nom unique pour la nouvelle instance de base de données dans le champ Identifiant d'instance de base de données.
  4. Vérifiez les détails de la configuration de l'instance, puis cliquez sur Restore DB Instance.
  5. Une fois le nouveau processus de provisionnement d'instance terminé, vous pouvez mettre à jour la configuration de l'application pour qu'elle fasse référence au point de terminaison de la nouvelle instance de base de données chiffrée. Une fois le point de terminaison de la base de données modifié au niveau de l'application, vous pouvez supprimer l'instance non chiffrée.

CLI AWS

  1. Exécutez la commande describe-db-instances pour lister tous les noms de bases de données RDS disponibles dans la région AWS sélectionnée. Le résultat de la commande doit renvoyer l'identifiant de l'instance de base de données.
aws rds describe-db-instances --region <region-name> --query 'DBInstances[*].DBInstanceIdentifier'
  1. Exécutez la commande create-db-snapshot afin de créer un instantané pour l'instance de base de données sélectionnée. Le résultat de la commande renvoie new snapshot avec le nom "DB Snapshot Name".
aws rds create-db-snapshot --region <region-name> --db-snapshot-identifier <DB-Snapshot-Name> --db-instance-identifier <DB-Name>
  1. Exécutez maintenant la commande list-aliases pour lister les alias de clés KMS disponibles dans une région spécifiée. Le résultat de la commande doit renvoyer chaque key alias currently available. Pour notre processus d'activation du chiffrement RDS, localisez l'ID de la clé KMS par défaut d'AWS.
aws kms list-aliases --region <region-name>
  1. Exécutez la commande copy-db-snapshot en utilisant l'ID de clé KMS par défaut pour les instances RDS que vous avez renvoyé précédemment afin de créer une copie chiffrée de l'instantané de l'instance de base de données. Le résultat de la commande renvoie encrypted instance snapshot configuration.
aws rds copy-db-snapshot --region <region-name> --source-db-snapshot-identifier <DB-Snapshot-Name> --target-db-snapshot-identifier <DB-Snapshot-Name-Encrypted> --copy-tags --kms-key-id <KMS-ID-For-RDS>
  1. Exécutez la commande restore-db-instance-from-db-snapshot pour restaurer l'instantané chiffré créé à l'étape précédente sur une nouvelle instance de base de données. Si l'opération réussit, le résultat de la commande doit renvoyer la nouvelle configuration chiffrée de l'instance de base de données.
aws rds restore-db-instance-from-db-snapshot --region <region-name> --db-instance-identifier <DB-Name-Encrypted> --db-snapshot-identifier <DB-Snapshot-Name-Encrypted>
  1. Exécutez la commande describe-db-instances pour lister tous les noms de bases de données RDS disponibles dans la région AWS sélectionnée. Le résultat renvoie le nom de l'identifiant de l'instance de base de données. Sélectionnez le nom de la base de données chiffré que nous venons de créer.
aws rds describe-db-instances --region <region-name> --query 'DBInstances[*].DBInstanceIdentifier'
  1. Exécutez à nouveau la commande describe-db-instances à l'aide de l'identifiant d'instance RDS renvoyé précédemment pour déterminer si l'instance de base de données sélectionnée est chiffrée. Le résultat de la commande doit renvoyer l'état de chiffrement True.
aws rds describe-db-instances --region <region-name> --db-instance-identifier <DB-Name-Encrypted> --query 'DBInstances[*].StorageEncrypted'

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Encryption Enabled Efs File Systems

Nom de la catégorie dans l'API : ENCRYPTION_ENABLED_EFS_FILE_SYSTEMS

Les données EFS doivent être chiffrées au repos à l'aide d'AWS KMS (Key Management Service).

Recommandation: Assurez-vous que le chiffrement est activé pour les systèmes de fichiers EFS

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à la console de gestion AWS et accédez au tableau de bord Elastic File System (EFS).
  2. Sélectionnez File Systems dans le panneau de navigation de gauche.
  3. Cliquez sur le bouton Create File System dans le menu supérieur du tableau de bord pour lancer le processus de configuration du système de fichiers.
  4. Sur la page de configuration Configure file system access, effectuez les actions suivantes.
    - Choisissez le VPC approprié dans la liste déroulante des VPC.
    - Dans la section "Créer des cibles de montage", cochez les cases correspondant à toutes les zones de disponibilité (AZ) du VPC sélectionné. Ce seront vos cibles d'installation.
    - Cliquez sur Next step pour continuer.

  5. Procédez comme suit sur la page Configure optional settings.
    - Créez tags pour décrire votre nouveau système de fichiers.
    - Choisissez performance mode en fonction de vos besoins.
    - Cochez la case Enable encryption et sélectionnez aws/elasticfilesystem dans la liste déroulante "Sélectionner la clé principale KMS" afin d'activer le chiffrement pour le nouveau système de fichiers à l'aide de la clé principale par défaut fournie et gérée par AWS KMS.
    - Cliquez sur Next step pour continuer.

  6. Vérifiez les détails de la configuration du système de fichiers sur la page review and create, puis cliquez sur Create File System pour créer votre système de fichiers AWS EFS.

  7. Copiez les données de l'ancien système de fichiers EFS non chiffré vers le nouveau système de fichiers chiffrés.
  8. Supprimez le système de fichiers non chiffrés dès que la migration de vos données vers le nouveau système de fichiers chiffrés est terminée.
  9. Modifiez la région AWS depuis la barre de navigation et répétez l'ensemble du processus pour d'autres régions AWS.

Depuis la CLI :
1. Exécutez la commande describe-file-systems pour décrire les informations de configuration disponibles pour le système de fichiers (non chiffré) sélectionné (consultez la section "Audit" pour identifier la ressource appropriée):

aws efs describe-file-systems --region <region> --file-system-id <file-system-id from audit section step 2 output>
  1. Le résultat de la commande doit renvoyer les informations de configuration demandées.
  2. Pour provisionner un nouveau système de fichiers AWS EFS, vous devez générer un identifiant unique universel (UUID) afin de créer le jeton requis par la commande create-file-system. Pour créer le jeton requis, vous pouvez utiliser un UUID généré de manière aléatoire sur "https://www.uuidgenerator.net".
  3. Exécutez la commande create-file-system à l'aide du jeton unique créé à l'étape précédente.
aws efs create-file-system --region <region> --creation-token <Token (randomly generated UUID from step 3)> --performance-mode generalPurpose --encrypted
  1. Le résultat de la commande doit renvoyer les nouvelles métadonnées de configuration du système de fichiers.
  2. Exécutez la commande create-mount-target en utilisant l'ID du système de fichiers EFS nouvellement créé renvoyé à l'étape précédente comme identifiant et l'ID de la zone de disponibilité (AZ) qui représentera la cible d'installation:
aws efs create-mount-target --region <region> --file-system-id <file-system-id> --subnet-id <subnet-id>
  1. Le résultat de la commande doit renvoyer les métadonnées de la nouvelle cible d'installation.
  2. Vous pouvez maintenant installer votre système de fichiers à partir d'une instance EC2.
  3. Copiez les données de l'ancien système de fichiers EFS non chiffré vers le nouveau système de fichiers chiffrés.
  4. Supprimez le système de fichiers non chiffrés dès que la migration de vos données vers le nouveau système de fichiers chiffrés est terminée.
aws efs delete-file-system --region <region> --file-system-id <unencrypted-file-system-id>
  1. Modifiez la région AWS en mettant à jour l'option --region, puis répétez l'ensemble du processus pour les autres régions aws.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Iam Password Policy

Nom de la catégorie dans l'API : IAM_PASSWORD_POLICY

AWS vous permet de créer des stratégies de mots de passe personnalisées pour votre compte AWS afin de spécifier les exigences de complexité et les périodes de rotation obligatoires pour les utilisateurs IAM mots de passe. Si vous ne définissez pas de stratégie de mot de passe personnalisée, les mots de passe utilisateur IAM doivent respecter la stratégie de mot de passe par défaut d'AWS. Les bonnes pratiques de sécurité d'AWS recommandent les exigences de complexité des mots de passe suivantes:

  • Exiger au moins un caractère majuscule dans le mot de passe
  • Exiger au moins une lettre minuscule dans les mots de passe.
  • Exiger au moins un symbole dans les mots de passe.
  • Exiger au moins un chiffre dans les mots de passe.
  • Le mot de passe doit comporter au moins 14 caractères.
  • Exiger au moins 24 mots de passe avant d'autoriser la réutilisation.
  • Exiger au moins 90 caractères avant l'expiration du mot de passe

Cette commande vérifie toutes les exigences spécifiées dans les règles relatives aux mots de passe.

Recommandation: Vérifie si la stratégie de mots de passe du compte pour les utilisateurs IAM répond aux exigences spécifiées

Pour corriger ce résultat, procédez comme suit :

Terraform

resource "aws_iam_account_password_policy" "strict" {
  allow_users_to_change_password = true
  require_uppercase_characters   = true
  require_lowercase_characters   = true
  require_symbols                = true
  require_numbers                = true
  minimum_password_length        = 14
  password_reuse_prevention      = 24
  max_password_age               = 90
}

Console AWS

Pour créer une règle de mots de passe personnalisée

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur la page https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, sélectionnez "Paramètres du compte".
  3. Dans la section "Règles relatives aux mots de passe", sélectionnez "Modifier les règles relatives aux mots de passe".
  4. Sélectionnez les options que vous souhaitez appliquer à vos règles relatives aux mots de passe, puis cliquez sur "Enregistrer les modifications".

Pour modifier une règle de mot de passe personnalisée

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur la page https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, sélectionnez "Paramètres du compte".
  3. Dans la section "Règles relatives aux mots de passe", sélectionnez "Modifier".
  4. Sélectionnez les options que vous souhaitez appliquer à vos règles relatives aux mots de passe, puis cliquez sur "Enregistrer les modifications".

CLI AWS

aws iam update-account-password-policy \
--allow-users-to-change-password \
--require-uppercase-characters \
--require-lowercase-characters \
--require-symbols \
--require-numbers \
--minimum-password-length 14 \
--password-reuse-prevention 24 \
--max-password-age 90

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Iam Password Policy Prevents Password Reuse

Nom de la catégorie dans l'API : IAM_PASSWORD_POLICY_PREVENTS_PASSWORD_REUSE

Les stratégies de mots de passe IAM peuvent empêcher un même utilisateur de réutiliser un mot de passe donné. Il est recommandé de définir une règle relative aux mots de passe pour empêcher la réutilisation des mots de passe.

Recommandation: Assurez-vous que la stratégie de mots de passe IAM empêche la réutilisation des mots de passe

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Se connecter à la console AWS (avec les autorisations appropriées pour afficher les paramètres de compte Identity Access Management)
  2. Accéder au service IAM dans la console AWS
  3. Cliquez sur Paramètres du compte dans le volet de gauche.
  4. Cochez la case "Empêcher la réutilisation des mots de passe".
  5. Définir le nombre de mots de passe à mémoriser est défini sur 24

CLI AWS

 aws iam update-account-password-policy --password-reuse-prevention 24

Remarque: Toutes les commandes commençant par "aws iam update-account-password-policy" peuvent être combinés en une seule commande.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Iam Password Policy Requires Minimum Length 14 Greater

Nom de la catégorie dans l'API : IAM_PASSWORD_POLICY_REQUIRES_MINIMUM_LENGTH_14_GREATER

Les règles de mots de passe sont, en partie, utilisées pour faire respecter les exigences de complexité des mots de passe. Les stratégies de mot de passe IAM peuvent être utilisées pour s'assurer que les mots de passe ont au moins une longueur donnée. Il est recommandé de définir la règle de mot de passe avec une longueur minimale de 14 caractères.

Recommandation : Assurez-vous que la stratégie de mot de passe IAM exige au moins 14 caractères

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Se connecter à la console AWS (avec les autorisations appropriées pour afficher les paramètres de compte Identity Access Management)
  2. Accéder au service IAM dans la console AWS
  3. Cliquez sur "Paramètres du compte" dans le volet de gauche.
  4. Définissez la "Longueur minimale du mot de passe". à 14 ou plus.
  5. Cliquez sur "Appliquer les règles relatives aux mots de passe".

CLI AWS

 aws iam update-account-password-policy --minimum-password-length 14

Remarque: Toutes les commandes commençant par "aws iam update-account-password-policy" peuvent être combinés en une seule commande.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Iam Policies Allow Full Administrative Privileges Attached

Nom de la catégorie dans l'API : IAM_POLICIES_ALLOW_FULL_ADMINISTRATIVE_PRIVILEGES_ATTACHED

Les stratégies IAM sont les moyens d'accorder des droits à des utilisateurs, à des groupes ou à des rôles. Il est recommandé et considéré comme standard d'accorder le moindre privilège, c'est-à-dire n'accorder que les autorisations requises pour effectuer une tâche. Déterminez ce que les utilisateurs doivent faire, puis élaborez pour eux des règles qui leur permettront d'effectuer uniquement ces tâches, au lieu de leur accorder des droits d'administrateur complets.

Recommandation: Assurez-vous que des stratégies IAM autorisent les caractères "*:*" complets les droits d'administrateur ne sont pas associés

Pour corriger ce problème, procédez comme suit:

Console AWS

Procédez comme suit pour dissocier la stratégie qui dispose de droits d'administrateur complets:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, cliquez sur "Règles", puis recherchez le nom de la règle trouvé lors de l'étape d'audit.
  3. Sélectionnez la règle à supprimer.
  4. Dans le menu d'actions des règles, sélectionnez la première Detach
  5. Sélectionnez tous les utilisateurs, groupes et rôles auxquels cette stratégie est associée
  6. Cliquez sur Detach Policy.
  7. Dans le menu d'actions des règles, sélectionnez Detach

CLI AWS

Procédez comme suit pour dissocier la stratégie qui dispose des droits d'administrateur complets, comme indiqué à l'étape d'audit:

  1. Répertorie tous les utilisateurs, groupes et rôles IAM auxquels la stratégie gérée spécifiée est associée.
 aws iam list-entities-for-policy --policy-arn <policy_arn>
  1. Dissociez la stratégie de tous les utilisateurs IAM :
 aws iam detach-user-policy --user-name <iam_user> --policy-arn <policy_arn>
  1. Dissociez la stratégie de tous les groupes IAM :
 aws iam detach-group-policy --group-name <iam_group> --policy-arn <policy_arn>
  1. Dissociez la stratégie de tous les rôles IAM:
 aws iam detach-role-policy --role-name <iam_role> --policy-arn <policy_arn>

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Iam Users Receive Permissions Groups

Nom de la catégorie dans l'API : IAM_USERS_RECEIVE_PERMISSIONS_GROUPS

Les utilisateurs IAM ont accès aux services, aux fonctions et aux données par le biais de stratégies IAM. Il existe quatre façons de définir les règles pour un utilisateur: 1) Modifier directement la règle relative aux utilisateurs, également appelée règle intégrée ou utilisateur. 2) associer une politique directement à un utilisateur ; 3) ajouter l'utilisateur à un groupe IAM auquel une stratégie est associée ; 4) Ajoutez l'utilisateur à un groupe IAM disposant d'une stratégie intégrée.

Seule la troisième implémentation est recommandée.

Recommandation: Assurez-vous que les utilisateurs IAM ne reçoivent des autorisations que via des groupes

Procédez comme suit pour créer un groupe IAM et lui attribuer une stratégie:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, cliquez sur Groups, puis sur Create New Group .
  3. Dans la zone Group Name, saisissez le nom du groupe, puis cliquez sur Next Step .
  4. Dans la liste des règles, cochez la case correspondant à chaque stratégie que vous souhaitez appliquer à tous les membres du groupe. Cliquez ensuite sur Next Step .
  5. Cliquez sur Create Group.

Pour ajouter un utilisateur à un groupe donné, procédez comme suit :

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, cliquez sur Groups.
  3. Sélectionnez le groupe auquel ajouter un utilisateur.
  4. Cliquez sur Add Users To Group.
  5. Sélectionnez les utilisateurs à ajouter au groupe
  6. Cliquez sur Add Users.

Pour supprimer une association directe entre un utilisateur et une stratégie, procédez comme suit:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation de gauche, cliquez sur Utilisateurs
  3. Pour chaque utilisateur:
    - Sélectionner l'utilisateur
    - Cliquez sur l'onglet Permissions
    . - Développer Permissions policies
    - Cliquez sur X pour chaque règle. puis cliquez sur "Dissocier" ou "Supprimer" (selon le type de règle).

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Iam User Group Membership Check

Nom de la catégorie dans l'API : IAM_USER_GROUP_MEMBERSHIP_CHECK

Les utilisateurs IAM doivent toujours faire partie d'un groupe IAM afin de respecter les bonnes pratiques de sécurité IAM.

En ajoutant des utilisateurs à un groupe, vous pouvez partager des règles entre différents types d'utilisateurs.

Recommandation : Vérifie si les utilisateurs IAM sont membres d'au moins un groupe IAM

Pour corriger ce problème, procédez comme suit:

Terraform

resource "aws_iam_user" "example" {
  name = "test-iam-user"
  path = "/users/dev/"
}

resource "aws_iam_group" "example" {
  name = "Developers"
  path = "/users/dev/"
}

resource "aws_iam_user_group_membership" "example" {
  user   = aws_iam_user.example.name
  groups = [aws_iam_group.example.name]
}

Console AWS

Lorsque vous supprimez un utilisateur IAM à l'aide de AWS Management Console, IAM supprime automatiquement les informations suivantes:

  1. L'utilisateur
  2. Toutes les adhésions à des groupes d'utilisateurs, c'est-à-dire que l'utilisateur est supprimé de tous les groupes d'utilisateurs IAM dont il était membre.
  3. Tout mot de passe associé à l'utilisateur
  4. Toutes les clés d'accès appartenant à l'utilisateur
  5. Toutes les règles intégrées intégrées à l'utilisateur (les règles appliquées à un utilisateur via des autorisations de groupe d'utilisateurs ne sont pas affectées)

Pour supprimer un utilisateur IAM:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur la page https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, sélectionnez Utilisateurs, puis cochez la case en regard du nom d'utilisateur que vous souhaitez supprimer.
  3. En haut de la page, sélectionnez "Supprimer".
  4. Dans la boîte de dialogue de confirmation, saisissez le nom d'utilisateur dans le champ de saisie de texte pour confirmer la suppression de l'utilisateur.
  5. Sélectionnez "Supprimer".

Pour ajouter un utilisateur à un groupe d'utilisateurs IAM:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur la page https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, sélectionnez "Groupes d'utilisateurs", puis le nom du groupe.
  3. Sélectionnez l'onglet "Utilisateurs", puis "Ajouter des utilisateurs". Cochez les cases correspondant aux utilisateurs que vous souhaitez ajouter.
  4. Sélectionnez "Ajouter des utilisateurs".

CLI AWS

Contrairement à Amazon Web Services Management Console, lorsque vous supprimez un compte utilisateur par programmation, vous devez supprimer manuellement les éléments qui lui sont associés, sans quoi la suppression échoue.

Avant d'essayer de supprimer un utilisateur, effacez les éléments suivants:

  1. Mot de passe ( DeleteLoginProfile )
  2. Clés d'accès ( DeleteAccessKey )
  3. Certificat de signature ( DeleteSigningCertificate )
  4. Clé publique SSH ( DeleteSSHPublicKey )
  5. Identifiants Git ( DeleteServiceSpecificCredential )
  6. Appareil d'authentification multifacteur (MFA) ( DeactivateMFADevice , DeleteVirtualMFADevice )
  7. Stratégies intégrées ( DeleteUserPolicy )
  8. Règles gérées associées ( DetachUserPolicy )
  9. Adhésions aux groupes ( RemoveUserFromGroup)

Pour supprimer un compte utilisateur après avoir supprimé tous les éléments qui lui sont associés:

aws iam delete-user \
  --user-name "test-user"

Pour ajouter un utilisateur IAM à un groupe IAM, procédez comme suit:

aws iam add-user-to-group \
  --group-name "test-group"
  --user-name "test-user"

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Iam User Mfa Enabled

Nom de la catégorie dans l'API : IAM_USER_MFA_ENABLED

L’authentification multifacteur (MFA) est une bonne pratique qui ajoute un niveau de protection supplémentaire par rapport aux noms d’utilisateur et aux mots de passe. Avec la MFA, lorsqu'un utilisateur se connecte à AWS Management Console, il doit fournir un code d'authentification à durée limitée, fourni par un appareil virtuel ou physique enregistré.

Recommandation: Vérifie si l'authentification multifacteur (MFA) est activée pour les utilisateurs AWS IAM

Pour corriger ce problème, procédez comme suit:

Terraform

Dans Terraform, il existe plusieurs options pour remédier à l'absence d'appareils MFA. Vous disposez probablement déjà d'une structure raisonnable pour organiser vos utilisateurs en groupes et règles restrictives.

L'exemple suivant montre comment:

  1. Créer des utilisateurs
  2. Créez des profils de connexion utilisateur avec une clé publique PGP.
  3. Créer une stratégie de groupe et de groupe qui permette de gérer soi-même le profil IAM.
  4. Associez des utilisateurs au groupe.
  5. Créer des appareils MFA virtuels pour les utilisateurs
  6. Fournissez le code QR de sortie et le mot de passe à chaque utilisateur.
variable "users" {
  type = set(string)
  default = [
    "test@example.com",
    "test2@example.com"
  ]
}

resource "aws_iam_user" "test_users" {
  for_each = toset(var.users)
  name     = each.key
}

resource "aws_iam_user_login_profile" "test_users_profile" {
  for_each                = var.users
  user                    = each.key
  # Key pair created using GnuPG, this is the public key
  pgp_key = file("path/to/gpg_pub_key_base64.pem")
  password_reset_required = true
  lifecycle {
    ignore_changes = [
      password_length,
      password_reset_required,
      pgp_key,
    ]
  }
}

resource "aws_iam_virtual_mfa_device" "test_mfa" {
  for_each                = toset(var.users)
  virtual_mfa_device_name = each.key
}

resource "aws_iam_group" "enforce_mfa_group" {
  name = "EnforceMFAGroup"
}

resource "aws_iam_group_membership" "enforce_mfa_group_membership" {
  name  = "EnforceMFAGroupMembership"
  group = aws_iam_group.enforce_mfa_group.name
  users = [for k in aws_iam_user.test_users : k.name]
}

resource "aws_iam_group_policy" "enforce_mfa_policy" {
  name   = "EnforceMFAGroupPolicy"
  group  = aws_iam_group.enforce_mfa_group.id
  policy = <<POLICY
{
  "Version": "2012-10-17",
  "Statement": [
    {
        "Sid": "AllowViewAccountInfo",
        "Effect": "Allow",
        "Action": [
            "iam:GetAccountPasswordPolicy",
            "iam:ListVirtualMFADevices"
        ],
        "Resource": "*"
    },
    {
        "Sid": "AllowManageOwnPasswords",
        "Effect": "Allow",
        "Action": [
            "iam:ChangePassword",
            "iam:GetUser"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnAccessKeys",
        "Effect": "Allow",
        "Action": [
            "iam:CreateAccessKey",
            "iam:DeleteAccessKey",
            "iam:ListAccessKeys",
            "iam:UpdateAccessKey"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnSigningCertificates",
        "Effect": "Allow",
        "Action": [
            "iam:DeleteSigningCertificate",
            "iam:ListSigningCertificates",
            "iam:UpdateSigningCertificate",
            "iam:UploadSigningCertificate"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnSSHPublicKeys",
        "Effect": "Allow",
        "Action": [
            "iam:DeleteSSHPublicKey",
            "iam:GetSSHPublicKey",
            "iam:ListSSHPublicKeys",
            "iam:UpdateSSHPublicKey",
            "iam:UploadSSHPublicKey"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnGitCredentials",
        "Effect": "Allow",
        "Action": [
            "iam:CreateServiceSpecificCredential",
            "iam:DeleteServiceSpecificCredential",
            "iam:ListServiceSpecificCredentials",
            "iam:ResetServiceSpecificCredential",
            "iam:UpdateServiceSpecificCredential"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnVirtualMFADevice",
        "Effect": "Allow",
        "Action": [
            "iam:CreateVirtualMFADevice",
            "iam:DeleteVirtualMFADevice"
        ],
        "Resource": "arn:aws:iam::*:mfa/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnUserMFA",
        "Effect": "Allow",
        "Action": [
            "iam:DeactivateMFADevice",
            "iam:EnableMFADevice",
            "iam:ListMFADevices",
            "iam:ResyncMFADevice"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "DenyAllExceptListedIfNoMFA",
        "Effect": "Deny",
        "NotAction": [
            "iam:CreateVirtualMFADevice",
            "iam:EnableMFADevice",
            "iam:GetUser",
            "iam:ListMFADevices",
            "iam:ListVirtualMFADevices",
            "iam:ResyncMFADevice",
            "sts:GetSessionToken"
        ],
        "Resource": "*",
        "Condition": {
            "BoolIfExists": {
                "aws:MultiFactorAuthPresent": "false"
            }
        }
    }
  ]
}
POLICY
}

output "user_password_map" {
  # Outputs a map in the format {"test@example.com": <PGPEncryptedPassword>, "test2@example.com": <PGPEncryptedPassword>}
  value = { for k, v in aws_iam_user_login_profile.test_users_profile : k => v.password }
}

output "user_qr_map" {
  # Outputs a map in the format {"test@example.com": <QRCode>, "test2@example.com": <QRCode>}
  value = { for k, v in aws_iam_virtual_mfa_device.test_mfa : k => v.qr_code_png }
}

Console AWS

Pour activer l'authentification multifacteur pour tous les comptes utilisateur disposant d'un accès à la console AWS, consultez Activer un appareil d'authentification multifacteur (MFA) virtuel (console) dans la documentation AWS.

CLI AWS

Créer un appareil MFA

aws iam create-virtual-mfa-device \
  --virtual-mfa-device-name "test@example.com" \
  --outfile ./QRCode.png \
  --bootstrap-method QRCodePNG

Activer l'appareil MFA pour un utilisateur existant

aws iam enable-mfa-device \
  --user-name "test@example.com" \
  --serial-number "arn:aws:iam::123456976749:mfa/test@example.com" \
  --authentication-code1 123456 \
  --authentication-code2 654321

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Iam User Unused Credentials Check

Nom de la catégorie dans l'API : IAM_USER_UNUSED_CREDENTIALS_CHECK

Cela permet de rechercher des mots de passe IAM ou des clés d'accès actives qui n'ont pas été utilisés au cours des 90 derniers jours.

Les bonnes pratiques recommandent de supprimer, de désactiver ou d'alterner tous les identifiants inutilisés pendant au moins 90 jours. Cela réduit la fenêtre d'utilisation des identifiants associés à un compte compromis ou abandonné.

Recommandation: Vérifiez que tous les utilisateurs AWS IAM disposent de mots de passe ou de clés d'accès actives qui n'ont pas été utilisés depuis maxCredentialUsageAge jours (90 par défaut)

Pour corriger ce résultat, procédez comme suit :

Terraform

Pour supprimer les clés d'accès arrivées à expiration créées via Terraform, supprimez la ressource aws_iam_access_key de votre module et appliquez la modification.

Pour réinitialiser le mot de passe de connexion d'un utilisateur IAM, utilisez -replace lors de l'exécution de terraform apply.

En supposant le profil de connexion utilisateur suivant

resource "aws_iam_user" "example" {
  name          = "test@example.com"
  path          = "/users/"
  force_destroy = true
}

resource "aws_iam_user_login_profile" "example" {
  user    = aws_iam_user.example.name
  pgp_key = "keybase:some_person_that_exists"
}

Exécutez la commande suivante pour réinitialiser le mot de passe du profil de connexion de l'utilisateur.

terraform apply -replace="aws_iam_user_login_profile.example"

Console AWS

Pour désactiver les identifiants des comptes inactifs:

  1. Ouvrez la console IAM sur https://console.aws.amazon.com/iam/.
  2. Sélectionnez "Utilisateurs".
  3. Choisissez le nom de l'utilisateur disposant d'identifiants datant de plus de 90 jours ou ayant été utilisés pour la dernière fois.
  4. Sélectionnez "Informations d'identification de sécurité".
  5. Pour chaque identifiant de connexion et clé d'accès qui n'ont pas été utilisés depuis au moins 90 jours, sélectionnez "Désactiver".

Pour exiger un nouveau mot de passe des utilisateurs de la console à leur prochaine connexion:

  1. Ouvrez la console IAM sur https://console.aws.amazon.com/iam/.
  2. Sélectionnez "Utilisateurs".
  3. Choisissez le nom de l'utilisateur disposant d'identifiants datant de plus de 90 jours ou ayant été utilisés pour la dernière fois.
  4. Sélectionnez "Identifiants de sécurité".
  5. Sous "Identifiants de connexion et mot de passe de la console", sélectionnez "Gérer".
  6. Définissez un nouveau mot de passe (personnalisé ou généré automatiquement).
  7. Cochez la case "Exiger la réinitialisation du mot de passe".
  8. Sélectionnez "Appliquer".

CLI AWS

Pour désactiver des clés d'accès

aws iam update-access-key \
  --access-key-id <value> \
  --status "Inactive"

Pour supprimer des clés d'accès

aws iam delete-access-key \
  --access-key-id <value>

Pour réinitialiser le mot de passe d'un profil de connexion utilisateur

aws iam update-login-profile \
  --user-name "test@example.com" \
  --password <temporary_password> \
  --password-reset-required

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Kms Cmk Not Scheduled For Deletion

Nom de la catégorie dans l'API : KMS_CMK_NOT_SCHEDULED_FOR_DELETION

Cette commande vérifie si la suppression des clés KMS est programmée. Le contrôle échoue si la suppression d'une clé KMS est planifiée.

Une fois supprimées, les clés KMS ne peuvent pas être récupérées. Les données chiffrées avec une clé KMS ne peuvent pas être récupérées de manière définitive si la clé KMS est supprimée. Si des données significatives ont été chiffrées à l'aide d'une clé KMS dont la suppression a été programmée, envisagez de les déchiffrer ou de les rechiffrer avec une nouvelle clé KMS, sauf si vous effectuez intentionnellement une effacement cryptographique.

Lorsqu'une clé KMS est programmée pour suppression, un délai d'attente obligatoire est appliqué pour vous laisser le temps d'annuler la suppression, si elle a été planifiée par erreur. La période d'attente par défaut est de 30 jours, mais elle peut être réduite à sept jours maximum lorsque la suppression de la clé KMS est planifiée. Pendant le délai d'attente, la suppression planifiée peut être annulée et la clé KMS ne sera pas supprimée.

Pour en savoir plus sur la suppression de clés KMS, consultez la section Supprimer des clés KMS du guide du développeur d'AWS Key Management Service.

Recommandation: Vérifie que la suppression de toutes les CMK n'est pas planifiée

Pour annuler la suppression planifiée d'une clé KMS, consultez la section Pour annuler la suppression de clés sous "Programmer et annuler la suppression de clé (console)" du guide du développeur AWS Key Management Service.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Lambda Concurrency Check

Nom de la catégorie dans l'API : LAMBDA_CONCURRENCY_CHECK

Vérifie si la fonction Lambda est configurée avec une limite d'exécution simultanée au niveau de la fonction. La règle est NON_COMPLIANT si la fonction Lambda n'est pas configurée avec une limite d'exécution simultanée au niveau de la fonction.

Recommandation: Vérifiez si les fonctions Lambda sont configurées avec une limite d'exécution simultanée au niveau de la fonction

Pour configurer une limite d'exécution simultanée au niveau de la fonction, consultez la section Configurer la simultanéité réservée dans la documentation AWS Lambda.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Lambda Dlq Check

Nom de la catégorie dans l'API : LAMBDA_DLQ_CHECK

Vérifie si une fonction Lambda est configurée avec une file d'attente de lettres mortes. La règle est NON_COMPLIANT si la fonction Lambda n'est pas configurée avec une file d'attente de lettres mortes.

Recommandation: Vérifiez si les fonctions Lambda sont configurées avec une file d'attente de lettres mortes

Pour mettre à jour les fonctions Lambda afin qu'elles utilisent des DLQ, consultez la section Files d'attente de lettres mortes dans la documentation AWS.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Lambda Function Public Access Prohibited

Nom de la catégorie dans l'API : LAMBDA_FUNCTION_PUBLIC_ACCESS_PROHIBITED

Les bonnes pratiques d'AWS recommandent de ne pas exposer publiquement la fonction Lambda. Cette règle vérifie toutes les fonctions Lambda déployées dans toutes les régions activées de votre compte et échouera si elles sont configurées sans autoriser l'accès public.

Recommandation: Vérifiez si la stratégie associée à la fonction Lambda interdit l'accès public

Pour corriger ce problème, procédez comme suit:

Terraform

L'exemple suivant fournit un exemple d'utilisation de Terraform pour provisionner un rôle IAM restreignant l'accès à une fonction Lambda et associe ce rôle à la fonction Lambda.

resource "aws_iam_role" "iam_for_lambda" {
  name = "iam_for_lambda"

  assume_role_policy = <<EOF
{
  "Version": "2012-10-17",
  "Statement": [
    {
      "Action": "sts:AssumeRole",
      "Principal": {
        "Service": "lambda.amazonaws.com"
      },
      "Effect": "Allow",
      "Sid": ""
    }
  ]
}
EOF
}

resource "aws_lambda_function" "test_lambda" {
  filename      = "lambda_function_payload.zip"
  function_name = "lambda_function_name"
  role          = aws_iam_role.iam_for_lambda.arn
  handler       = "index.test"

  source_code_hash = filebase64sha256("lambda_function_payload.zip")

  runtime = "nodejs12.x"

}

Console AWS

Si une fonction Lambda échoue à ce contrôle, cela indique que l'instruction de stratégie basée sur les ressources de la fonction Lambda autorise l'accès public.

Pour résoudre le problème, vous devez mettre à jour la règle afin de supprimer les autorisations ou d'ajouter la condition AWS:SourceAccount. Vous ne pouvez mettre à jour la stratégie basée sur les ressources qu'à partir de l'API Lambda.

Les instructions suivantes utilisent la console pour examiner la stratégie et l'interface de ligne de commande AWS pour supprimer les autorisations.

Afficher la stratégie basée sur les ressources pour une fonction Lambda

  1. Ouvrez la console AWS Lambda à l'adresse https://console.aws.amazon.com/lambda/.
  2. Dans le volet de navigation, sélectionnez "Functions" (Fonctions).
  3. Sélectionnez la fonction.
  4. Sélectionnez "Autorisations". La stratégie basée sur les ressources affiche les autorisations appliquées lorsqu'un autre compte ou service AWS tente d'accéder à la fonction.
  5. Examinez la stratégie basée sur les ressources.
  6. Identifiez l'instruction de stratégie dont les valeurs du champ "Principal" (Principal) rendent la stratégie publique. Par exemple, si vous autorisez "*" ou { "AWS": "*" }.

Vous ne pouvez pas modifier la règle à partir de la console. Pour supprimer des autorisations de la fonction, utilisez la commande remove-permission de la CLI AWS.

Notez la valeur de l'identifiant d'instruction (Sid) de l'instruction que vous souhaitez supprimer.

CLI AWS

Pour supprimer les autorisations d'une fonction Lambda à l'aide de la CLI, exécutez la commande remove-permission comme suit.

aws lambda remove-permission \
--function-name <value> \
--statement-id <value>

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Lambda Inside Vpc

Nom de la catégorie dans l'API : LAMBDA_INSIDE_VPC

Vérifie si une fonction Lambda se trouve dans un VPC. Des résultats d'échec peuvent s'afficher pour les ressources Lambda@Edge.

Il n'évalue pas la configuration du routage du sous-réseau VPC pour déterminer la joignabilité publique.

Recommandation: Vérifie si les fonctions Lambda existent dans un VPC

Pour corriger ce problème, procédez comme suit:

Console AWS

Pour configurer une fonction afin qu'elle se connecte à des sous-réseaux privés dans un cloud privé virtuel (VPC) de votre compte:

  1. Ouvrez la console AWS Lambda à l'adresse https://console.aws.amazon.com/lambda/.
  2. Accédez à "Functions" (Fonctions), puis sélectionnez votre fonction Lambda.
  3. Faites défiler la page jusqu'à "Réseau", puis sélectionnez un VPC ayant les exigences de connectivité de la fonction.
  4. Pour exécuter vos fonctions en mode haute disponibilité, le centre de sécurité vous recommande de choisir au moins deux sous-réseaux.
  5. Sélectionnez au moins un groupe de sécurité qui répond aux exigences de connectivité de la fonction.
  6. Sélectionnez "Enregistrer".

Pour en savoir plus, consultez la section sur la configuration d'une fonction Lambda pour accéder aux ressources d'un VPC dans le guide du développeur AWS Lambda.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Mfa Delete Enabled S3 Buckets

Nom de la catégorie dans l'API : MFA_DELETE_ENABLED_S3_BUCKETS

Une fois la suppression MFA activée sur votre bucket S3 sensible et classé, l'utilisateur doit s'authentifier sous deux formes.

Recommandation : Assurez-vous que la suppression MFA est activée sur les buckets S3

Procédez comme suit pour activer la suppression MFA sur un bucket S3.

Remarque :
- Vous ne pouvez pas activer la suppression par MFA à l'aide de l'AWS Management Console. Vous devez utiliser l'API ou la CLI AWS.
- Vous devez utiliser la racine "root". pour activer la suppression MFA sur les buckets S3.

Depuis la ligne de commande:

  1. Exécuter la commande s3api put-bucket-versioning
aws s3api put-bucket-versioning --profile my-root-profile --bucket Bucket_Name --versioning-configuration Status=Enabled,MFADelete=Enabled --mfa “arn:aws:iam::aws_account_id:mfa/root-account-mfa-device passcode”

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Mfa Enabled Root User Account

Nom de la catégorie dans l'API : MFA_ENABLED_ROOT_USER_ACCOUNT

La fonction "root" compte utilisateur est l'utilisateur avec le plus de privilèges dans un compte AWS. L'authentification multifacteur (MFA, Multi-factor Authentication) offre un niveau de protection supplémentaire par rapport au nom d'utilisateur et au mot de passe. Lorsque la MFA est activée, lorsqu'un utilisateur se connecte à un site Web AWS, il est invité à saisir son nom d'utilisateur et son mot de passe, ainsi qu'un code d'authentification à partir de son appareil AWS MFA.

Remarque:Lorsque l'MFA virtuelle est utilisée pour "root" nous vous recommandons de ne PAS utiliser un appareil personnel, mais plutôt un appareil mobile dédié (tablette ou téléphone), qui reste rechargé et sécurisé indépendamment de tout appareil personnel. ("MFA virtuelle non personnelle") : cette fonctionnalité réduit les risques de perte d'accès à la MFA en raison de la perte d'un appareil, d'un échange d'un appareil ou du fait que le propriétaire de l'appareil n'est plus employé dans l'entreprise.

Recommandation: Assurez-vous que la MFA est activée pour le répertoire "root" compte utilisateur

Procédez comme suit pour établir la MFA pour le serveur "root" compte utilisateur:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur https://console.aws.amazon.com/iam/.

Remarque: Pour gérer les appareils MFA pour le serveur "root", Compte AWS, vous devez utiliser le paramètre "root" pour se connecter à AWS. Vous ne pouvez pas gérer les appareils MFA pour le serveur "root" à l'aide d'autres identifiants.

  1. Sélectionnez Dashboard , puis sous Security Status , développez Activate MFA sur votre compte racine.
  2. Sélectionner Activate MFA
  3. Dans l'assistant, choisissez l'appareil A virtual MFA, puis Next Step .
  4. IAM génère et affiche les informations de configuration de l'appareil virtuel MFA, y compris une image du code QR. Le schéma est une représentation de la "clé de configuration secrète" disponible pour la saisie manuelle sur les appareils non compatibles avec les codes QR.
  5. Ouvrez votre application d'MFA virtuelle. Pour obtenir la liste des applications que vous pouvez utiliser pour héberger des appareils MFA virtuels, consultez la page Applications MFA virtuelles. Si l’application MFA virtuelle prend en charge plusieurs comptes (plusieurs appareils MFA virtuels), choisissez l’option permettant de créer un nouveau compte (un nouvel appareil virtuel d’authentification multifacteur).
  6. Déterminez si l'application MFA est compatible avec les codes QR, puis effectuez l'une des opérations suivantes:
  • Utilisez l'application pour scanner le code QR. Par exemple, vous pouvez sélectionner l'icône de l'appareil photo ou une option similaire à "Scanner le code", puis utiliser l'appareil photo de l'appareil pour scanner le code.
  • Dans l’assistant Gérer un appareil MFA, sélectionnez Afficher la clé secrète pour une configuration manuelle, puis saisissez la clé de configuration secrète dans votre application MFA.

Lorsque vous avez terminé, l'appareil MFA virtuel commence à générer des mots de passe à usage unique.

Dans le champ "Authentication Code 1" (Code d'authentification 1) de l'assistant "Manage MFA Device" (Gérer un appareil MFA), saisissez le mot de passe à usage unique actuellement affiché sur l'appareil virtuel MFA. Patientez jusqu'à 30 secondes, le temps que l'appareil génère un nouveau mot de passe à usage unique. Saisissez ensuite le second mot de passe à usage unique dans le champ "Authentication Code 2" (Code d'authentification 2). Sélectionnez Attribuer une MFA virtuelle.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Multi Factor Authentication Mfa Enabled All Iam Users Console

Nom de la catégorie dans l'API : MULTI_FACTOR_AUTHENTICATION_MFA_ENABLED_ALL_IAM_USERS_CONSOLE

L’authentification multifacteur (MFA) ajoute une couche d’assurance d’authentification supplémentaire par rapport aux identifiants traditionnels. Lorsque la MFA est activée, lorsqu'un utilisateur se connecte à la console AWS, il est invité à saisir son nom d'utilisateur et son mot de passe, ainsi qu'un code d'authentification à partir de son jeton MFA physique ou virtuel. Il est recommandé d’activer la MFA pour tous les comptes disposant d’un mot de passe de console.

Recommandation: Assurez-vous que l'authentification multifacteur (MFA) est activée pour tous les utilisateurs IAM disposant d'un mot de passe de console

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à AWS Management Console et ouvrez la console IAM sur https://console.aws.amazon.com/iam/.
  2. Dans le volet de gauche, sélectionnez Users.
  3. Dans la liste User Name, choisissez le nom de l'utilisateur MFA souhaité.
  4. Sélectionnez l'onglet Security Credentials, puis Manage MFA Device.
  5. Dans Manage MFA Device wizard, choisissez l'appareil Virtual MFA, puis Continue.

IAM génère et affiche des informations de configuration pour l'appareil MFA virtuel, y compris un code QR. Le schéma est une représentation de la "clé de configuration secrète" disponible pour la saisie manuelle sur les appareils non compatibles avec les codes QR.

  1. Ouvrez votre application d'MFA virtuelle. (Pour obtenir la liste des applications que vous pouvez utiliser pour héberger des appareils MFA virtuels, consultez la page "Applications MFA virtuelles" à l'adresse https://aws.amazon.com/iam/details/mfa/#Virtual_MFA_Applications.) Si l’application MFA virtuelle prend en charge plusieurs comptes (plusieurs appareils MFA virtuels), choisissez l’option permettant de créer un nouveau compte (un nouvel appareil virtuel d’authentification multifacteur).
  2. Déterminez si l'application MFA est compatible avec les codes QR, puis effectuez l'une des opérations suivantes:
  • Utilisez l'application pour scanner le code QR. Par exemple, vous pouvez sélectionner l'icône de l'appareil photo ou une option similaire à "Scanner le code", puis utiliser l'appareil photo de l'appareil pour scanner le code.
  • Dans l’assistant Gérer un appareil MFA, sélectionnez Afficher la clé secrète pour une configuration manuelle, puis saisissez la clé de configuration secrète dans votre application MFA.

Lorsque vous avez terminé, l'appareil MFA virtuel commence à générer des mots de passe à usage unique.

  1. Dans Manage MFA Device wizard, dans MFA Code 1 box, saisissez le one-time password qui apparaît actuellement dans l'appareil MFA virtuel. Patientez jusqu'à 30 secondes, le temps que l'appareil génère un nouveau mot de passe à usage unique. Saisissez ensuite le deuxième one-time password dans MFA Code 2 box.

  2. Cliquez sur Assign MFA.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

No Network Acls Allow Ingress 0 0 0 0 Remote Server Administration

Nom de la catégorie dans l'API : NO_NETWORK_ACLS_ALLOW_INGRESS_0_0_0_0_REMOTE_SERVER_ADMINISTRATION

La fonction de liste de contrôle d'accès au réseau (NACL) permet de filtrer sans état le trafic réseau entrant et sortant vers les ressources AWS. Il est recommandé de ne pas autoriser un accès d'entrée non restreint aux ports d'administration des serveurs distants via les protocoles TDP (6), UDP (17) ou TOUS (-1), tels que SSH vers le port 22 et RDP vers le port 3389.

Recommandation : Assurez-vous qu'aucune LCA réseau n'autorise l'entrée depuis la plage 0.0.0.0/0 vers les ports d'administration du serveur distant

Pour corriger ce problème, procédez comme suit:

Console AWS

Procédez comme suit:
1. Connectez-vous à la console de gestion AWS sur la page https://console.aws.amazon.com/vpc/home
2. Dans le volet de gauche, cliquez sur Network ACLs
3. Pour chaque LCA réseau à corriger, procédez comme suit:
- Sélectionnez la LCA du réseau
- Cliquez sur l'onglet Inbound Rules
. - Cliquez sur Edit inbound rules
. - Vous pouvez soit A) définir une plage autre que 0.0.0.0/0 dans le champ "Source", soit B) cliquer sur Delete pour supprimer la règle entrante concernée.
- Cliquez sur Save.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

No Root User Account Access Key Exists

Nom de la catégorie dans l'API : NO_ROOT_USER_ACCOUNT_ACCESS_KEY_EXISTS

La fonction "root" compte utilisateur est l'utilisateur avec le plus de privilèges dans un compte AWS. Les clés d'accès AWS fournissent un accès programmatique à un compte AWS donné. Il est recommandé que toutes les clés d'accès associées au répertoire "root" le compte utilisateur.

Recommandation: assurez-vous de ne pas utiliser de racine "root" Une clé d'accès au compte utilisateur existe

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Se connecter à AWS Management Console en tant que "root" et ouvrez la console IAM sur https://console.aws.amazon.com/iam/.
  2. Cliquez sur <root_account> en haut à droite, puis sélectionnez My Security Credentials dans la liste déroulante.
  3. Dans la fenêtre externe, cliquez sur Continue to Security Credentials.
  4. Cliquez sur Access Keys (ID de clé d'accès et clé d'accès secrète).
  5. Dans la colonne Status (si des clés sont actives).
  6. Cliquez sur Delete (remarque : les clés supprimées ne peuvent pas être récupérées).

Remarque: Bien qu'une clé puisse être rendue inactive, elle apparaîtra toujours dans la commande CLI lors de la procédure d'audit, ce qui pourra entraîner le signalement à tort d'une clé comme non conforme.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

No Security Groups Allow Ingress 0 0 0 0 Remote Server Administration

Nom de la catégorie dans l'API : NO_SECURITY_GROUPS_ALLOW_INGRESS_0_0_0_0_REMOTE_SERVER_ADMINISTRATION

Les groupes de sécurité permettent un filtrage avec état du trafic réseau entrant et sortant vers les ressources AWS. Il est recommandé qu'aucun groupe de sécurité n'autorise un accès d'entrée non restreint aux ports d'administration du serveur distant, tels que SSH vers le port 22 et RDP vers le port 3389, à l'aide des protocoles TDP (6), UDP (17) ou TOUS (-1).

Recommandation: Assurez-vous qu'aucun groupe de sécurité n'autorise le trafic d'entrée provenant de la plage 0.0.0.0/0 vers les ports d'administration du serveur distant

Procédez comme suit pour implémenter l'état prescrit:

  1. Connectez-vous à la console de gestion AWS sur https://console.aws.amazon.com/vpc/home.
  2. Dans le volet de gauche, cliquez sur Security Groups.
  3. Pour chaque groupe de sécurité, procédez comme suit:
  4. Sélectionnez le groupe de sécurité
  5. Cliquez sur l'onglet Inbound Rules.
  6. Cliquez sur le bouton Edit inbound rules.
  7. Identifiez les règles à modifier ou à supprimer.
  8. Vous pouvez soit A) mettre à jour le champ "Source" en indiquant une plage autre que 0.0.0.0/0, soit B) cliquer sur Delete pour supprimer la règle entrante concernée.
  9. Cliquez sur Save rules.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

No Security Groups Allow Ingress 0 Remote Server Administration

Nom de la catégorie dans l'API : NO_SECURITY_GROUPS_ALLOW_INGRESS_0_REMOTE_SERVER_ADMINISTRATION

Les groupes de sécurité fournissent un filtrage avec état du trafic réseau entrant et sortant vers les ressources AWS. Il est recommandé de ne pas autoriser un groupe de sécurité qui autorise un accès d'entrée non restreint aux ports d'administration du serveur distant, tels que SSH vers le port 22 et RDP vers le port 3389.

Recommandation: Assurez-vous qu'aucun groupe de sécurité n'autorise le trafic d'entrée provenant de ::/0 vers les ports d'administration du serveur distant

Procédez comme suit pour implémenter l'état prescrit:

  1. Connectez-vous à la console de gestion AWS sur https://console.aws.amazon.com/vpc/home.
  2. Dans le volet de gauche, cliquez sur Security Groups.
  3. Pour chaque groupe de sécurité, procédez comme suit:
  4. Sélectionnez le groupe de sécurité
  5. Cliquez sur l'onglet Inbound Rules.
  6. Cliquez sur le bouton Edit inbound rules.
  7. Identifiez les règles à modifier ou à supprimer.
  8. Vous pouvez soit A) mettre à jour le champ "Source" en indiquant une plage autre que ::/0 ou B) cliquer sur Delete pour supprimer la règle entrante concernée.
  9. Cliquez sur Save rules.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

One Active Access Key Available Any Single Iam User

Nom de la catégorie dans l'API : ONE_ACTIVE_ACCESS_KEY_AVAILABLE_ANY_SINGLE_IAM_USER

Les clés d'accès sont des identifiants à long terme pour un utilisateur IAM ou le compte AWS "root" utilisateur. Vous pouvez utiliser des clés d'accès pour signer des requêtes programmatiques dans la CLI ou l'API AWS (directement ou à l'aide du SDK AWS).

Recommandation: Assurez-vous qu'une seule clé d'accès active est disponible par utilisateur IAM

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à AWS Management Console et accédez au tableau de bord IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Dans le panneau de navigation de gauche, sélectionnez Users.
  3. Cliquez sur le nom d'utilisateur IAM que vous souhaitez examiner.
  4. Sur la page de configuration de l'utilisateur IAM, sélectionnez l'onglet Security Credentials.
  5. Dans la section Access Keys, choisissez une clé d'accès datant de moins de 90 jours. Il doit s'agir de la seule clé active utilisée par cet utilisateur IAM pour accéder aux ressources AWS de manière automatisée. Testez vos applications pour vous assurer que la clé d'accès choisie fonctionne.
  6. Dans la même section Access Keys, identifiez vos clés d'accès non opérationnelles (autres que celle choisie) et désactivez-les en cliquant sur le lien Make Inactive.
  7. Si la boîte de dialogue de confirmation Change Key Status s'affiche, cliquez sur Deactivate pour désactiver la touche sélectionnée.
  8. Répétez l'étape n° 3 à 7 pour chaque utilisateur IAM de votre compte AWS.

CLI AWS

  1. À l'aide des informations sur l'utilisateur et la clé d'accès IAM fournies dans Audit CLI, choisissez une clé d'accès datant de moins de 90 jours. Il doit s'agir de la seule clé active utilisée par cet utilisateur IAM pour accéder aux ressources AWS de manière automatisée. Testez vos applications pour vous assurer que la clé d'accès choisie fonctionne.

  2. Exécutez la commande update-access-key ci-dessous en utilisant le nom d'utilisateur IAM et les ID des clés d'accès non opérationnelles pour désactiver la ou les clés inutiles. Reportez-vous à la section "Audit" pour identifier l'ID de clé d'accès inutile pour l'utilisateur IAM sélectionné

Remarque : La commande ne renvoie aucun résultat.

aws iam update-access-key --access-key-id <access-key-id> --status Inactive --user-name <user-name>
  1. Pour vérifier que la paire de clés d'accès sélectionnée a bien été deactivated, exécutez à nouveau la commande d'audit list-access-keys pour cet utilisateur IAM:
aws iam list-access-keys --user-name <user-name>
  • Le résultat de la commande doit exposer les métadonnées de chaque clé d'accès associée à l'utilisateur IAM. Si la ou les paires de clés non opérationnelles Status sont définies sur Inactive, la clé a bien été désactivée et la configuration de l'accès des utilisateurs IAM respecte désormais cette recommandation.
  1. Répétez l'étape n° 1 à 3 pour chaque utilisateur IAM de votre compte AWS.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Public Access Given Rds Instance

Nom de la catégorie dans l'API : PUBLIC_ACCESS_GIVEN_RDS_INSTANCE

Assurez-vous que les instances de base de données RDS provisionnées dans votre compte AWS limitent les accès non autorisés afin de minimiser les risques de sécurité. Pour restreindre l'accès à toute instance de base de données RDS accessible publiquement, vous devez désactiver l'option de base de données accessible publiquement et mettre à jour le groupe de sécurité VPC associé à l'instance.

Recommandation: Assurez-vous qu'aucun accès public n'est accordé à l'instance RDS

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à la console de gestion AWS et accédez au tableau de bord RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Sous le panneau de navigation, dans le tableau de bord RDS, cliquez sur Databases.
  3. Sélectionnez l'instance RDS que vous souhaitez mettre à jour.
  4. Cliquez sur Modify dans le menu supérieur du tableau de bord.
  5. Dans le panneau "Modifier l'instance de base de données", sous la section Connectivity, cliquez sur Additional connectivity configuration et définissez la valeur de Publicly Accessible sur "Non accessible au public" pour limiter l'accès public. Suivez les étapes ci-dessous pour mettre à jour les configurations de sous-réseau:
    - Sélectionnez l'onglet Connectivity and security, puis cliquez sur la valeur de l'attribut VPC dans la section Networking.
    - Sélectionnez l'onglet Details dans le panneau inférieur du tableau de bord VPC et cliquez sur la valeur de l'attribut de configuration de la table de routage.
    - Sur la page Détails de la table d'itinéraires, sélectionnez l'onglet Routes dans le panneau inférieur du tableau de bord et cliquez sur Edit routes.
    - Sur la page "Modifier les itinéraires", mettez à jour la destination de la cible (définie sur igw-xxxxx), puis cliquez sur Save itinéraires.
  6. Dans le panneau "Modifier l'instance de base de données", cliquez sur Continue. Dans la section "Planification des modifications", effectuez l'une des actions suivantes en fonction de vos besoins :
    - Sélectionnez "Appliquer lors du prochain cycle de maintenance planifié" pour appliquer automatiquement les modifications lors du prochain cycle de maintenance planifié.
    - Sélectionnez "Appliquer immédiatement" pour que les modifications soient appliquées immédiatement. Avec cette option, toutes les modifications en attente seront appliquées de manière asynchrone dès que possible, quel que soit le paramètre d'intervalle de maintenance défini pour cette instance de base de données RDS. Notez que toutes les modifications disponibles dans la file d'attente des modifications en attente sont également appliquées. Si l'une des modifications en attente nécessite un temps d'arrêt, choisir cette option peut provoquer un temps d'arrêt inattendu de l'application.
  7. Répétez les étapes 3 à 6 pour chaque instance RDS disponible dans la région actuelle.
  8. Modifiez la région AWS dans la barre de navigation afin de répéter le processus pour d'autres régions.

CLI AWS

  1. Exécutez la commande describe-db-instances pour lister tous les identifiants de noms de bases de données RDS, disponibles dans la région AWS sélectionnée:
aws rds describe-db-instances --region <region-name> --query 'DBInstances[*].DBInstanceIdentifier'
  1. Le résultat de la commande doit renvoyer chaque identifiant d'instance de base de données.
  2. Exécutez la commande modify-db-instance pour modifier la configuration de l'instance RDS sélectionnée. Utilisez ensuite la commande suivante pour désactiver l'option Publicly Accessible pour les instances RDS sélectionnées. Cette commande utilise l'option apply-immediately. Si vous souhaitez utiliser to avoid any downtime --no-apply-immediately flag can be used:
aws rds modify-db-instance --region <region-name> --db-instance-identifier <db-name> --no-publicly-accessible --apply-immediately
  1. Le résultat de la commande doit révéler la configuration PubliclyAccessible sous les valeurs en attente et doit s'appliquer au moment spécifié.
  2. La mise à jour de la destination de passerelle Internet via la CLI AWS n'est pas disponible actuellement. Pour mettre à jour les informations sur la passerelle Internet, utilisez la procédure de la console AWS.
  3. Répétez les étapes 1 à 5 pour chaque instance RDS provisionnée dans la région actuelle.
  4. Modifiez la région AWS à l'aide du filtre --region afin de répéter le processus pour d'autres régions.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Rds Enhanced Monitoring Enabled

Nom de la catégorie dans l'API : RDS_ENHANCED_MONITORING_ENABLED

La surveillance améliorée fournit des métriques en temps réel sur le système d'exploitation sur lequel s'exécute l'instance RDS, par le biais d'un agent installé dans l'instance.

Pour en savoir plus, consultez Surveiller les métriques de l'OS avec la surveillance améliorée.

Recommandation: Vérifiez si la surveillance améliorée est activée pour toutes les instances de base de données RDS

Pour corriger ce problème, procédez comme suit:

Terraform

Pour corriger ce contrôle, activez la surveillance avancée sur vos instances RDS comme suit:

Créez un rôle IAM pour RDS:

resource "aws_iam_role" "rds_logging" {
  name = "CustomRoleForRDSMonitoring"
  assume_role_policy = jsonencode({
    Version = "2012-10-17"
    Statement = [
      {
        Action = "sts:AssumeRole"
        Effect = "Allow"
        Sid    = "CustomRoleForRDSLogging"
        Principal = {
          Service = "monitoring.rds.amazonaws.com"
        }
      },
    ]
  })
}

Récupérez la stratégie AWS gérée pour la surveillance améliorée RDS:

data "aws_iam_policy" "rds_logging" {
  name = "AmazonRDSEnhancedMonitoringRole"
}

Associez la stratégie au rôle:

resource "aws_iam_policy_attachment" "rds_logging" {
  name       = "AttachRdsLogging"
  roles      = [aws_iam_role.rds_logging.name]
  policy_arn = data.aws_iam_policy.rds_logging.arn
}

Définissez un intervalle et un rôle de surveillance pour l'instance RDS non conforme afin d'activer la surveillance améliorée:

resource "aws_db_instance" "default" {
  identifier           = "test-rds"
  allocated_storage    = 10
  engine               = "mysql"
  engine_version       = "5.7"
  instance_class       = "db.t3.micro"
  db_name              = "mydb"
  username             = "foo"
  password             = "foobarbaz"
  parameter_group_name = "default.mysql5.7"
  skip_final_snapshot  = true
  monitoring_interval  = 60
  monitoring_role_arn  = aws_iam_role.rds_logging.arn
}

Console AWS

Vous pouvez activer la surveillance améliorée lorsque vous créez une instance de base de données, un cluster de bases de données multi-AZ ou une instance répliquée avec accès en lecture, ou lorsque vous modifiez une instance de base de données ou un cluster de bases de données multi-AZ. Si vous modifiez une instance de base de données pour activer la surveillance améliorée, vous n'avez pas besoin de redémarrer votre instance de base de données pour que la modification soit prise en compte.

Vous pouvez activer la surveillance avancée dans la console RDS en effectuant l'une des actions suivantes sur la page "Bases de données" :

  • Create a DB instance or Multi-AZ DB cluster (Créer une instance de base de données ou un cluster de bases de données multi-AZ) : sélectionnez "Créer une base de données".
  • Créer une instance répliquée avec accès en lecture : sélectionnez "Actions", puis "Créer une instance répliquée avec accès en lecture".
  • Pour modifier une instance de base de données ou un cluster de bases de données multi-AZ, sélectionnez "Modifier".

Activer ou désactiver la surveillance avancée dans la console RDS

  1. Faites défiler la page jusqu'à "Configuration supplémentaire".
  2. Dans Monitoring, sélectionnez "Activer la surveillance avancée pour votre instance de base de données ou votre instance répliquée avec accès en lecture". Pour désactiver la surveillance avancée, sélectionnez "Désactiver la surveillance renforcée".
  3. Définissez la propriété "Rôle de surveillance" sur le rôle IAM que vous avez créé pour autoriser Amazon RDS à communiquer avec Amazon CloudWatch Logs à votre place, ou sélectionnez "Par défaut" pour que RDS crée un rôle nommé "rds-monitoring-role".
  4. Définissez la propriété "Précision" sur l'intervalle, en secondes, entre les points lorsque des métriques sont collectées pour votre instance de base de données ou votre instance répliquée avec accès en lecture. La propriété "Précision" peut être définie sur l'une des valeurs suivantes: 1, 5, 10, 15, 30 ou 60. L'actualisation la plus rapide de la console RDS est de 5 secondes. Si vous définissez la précision sur 1 seconde dans la console RDS, vous ne verrez toujours les métriques mises à jour que toutes les cinq secondes. Vous pouvez récupérer des mises à jour de métriques toutes les secondes à l'aide des journaux CloudWatch.

CLI AWS

Créez le rôle IAM RDS:

aws iam create-role \
  --role-name "CustomRoleForRDSMonitoring" \
  --assume-role-policy-document file://rds-assume-role.json

Associez la stratégie AmazonRDSEnhancedMonitoringRole au rôle:

aws iam attach-role-policy \
  --role-name "CustomRoleForRDSMonitoring"\
  --policy-arn "arn:aws:iam::aws:policy/service-role/AmazonRDSEnhancedMonitoringRole"

Modifiez l'instance RDS pour activer la surveillance améliorée, en définissant --monitoring-interval et --monitoring-role-arn:

aws rds modify-db-instance \
  --db-instance-identifier "test-rds" \
  --monitoring-interval 30 \
  --monitoring-role-arn "arn:aws:iam::<account_id>:role/CustomRoleForRDSMonitoring"

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Rds Instance Deletion Protection Enabled

Nom de la catégorie dans l'API : RDS_INSTANCE_DELETION_PROTECTION_ENABLED

L'activation de la protection contre la suppression d'instances offre un niveau de protection supplémentaire contre la suppression ou la suppression accidentelle d'une base de données par une entité non autorisée.

Lorsque la protection contre la suppression est activée, une instance de base de données RDS ne peut pas être supprimée. Pour qu'une demande de suppression aboutisse, la protection contre la suppression doit être désactivée.

Recommandation: Vérifie si la protection contre la suppression est activée pour toutes les instances RDS

Pour corriger ce problème, procédez comme suit:

Terraform

Pour corriger cette commande, définissez deletion_protection sur true dans la ressource aws_db_instance.

resource "aws_db_instance" "example" {
  # ... other configuration ...
  deletion_protection = true
}

Console AWS

Pour activer la protection contre la suppression pour une instance de base de données RDS :

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Bases de données", puis l'instance de base de données à modifier.
  3. Sélectionnez "Modifier".
  4. Sous "Protection contre la suppression", sélectionnez "Activer la protection contre la suppression".
  5. Sélectionnez "Continuer".
  6. Sous Planification des modifications, indiquez quand appliquer les modifications. Les options sont "Appliquer pendant le prochain intervalle de maintenance planifié" ou "Appliquer immédiatement".
  7. Sélectionnez Modifier l'instance de base de données.

CLI AWS

Il en va de même pour la CLI AWS. Définissez --deletion-protection comme ci-dessous.

aws rds modify-db-instance \
  --db-instance-identifier = "test-rds" \
  --deletion-protection

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Rds In Backup Plan

Nom de la catégorie dans l'API : RDS_IN_BACKUP_PLAN

Cette vérification permet d'évaluer si les instances de base de données Amazon RDS sont couvertes par un plan de sauvegarde. Ce contrôle échoue si une instance de base de données RDS n'est pas couverte par un plan de sauvegarde.

AWS Backup est un service de sauvegarde entièrement géré qui centralise et automatise la sauvegarde des données dans les services AWS. Avec la sauvegarde AWS, vous pouvez créer des stratégies de sauvegarde appelées plans de sauvegarde. Vous pouvez utiliser ces forfaits pour définir vos exigences en matière de sauvegarde, comme la fréquence de sauvegarde de vos données et la durée de conservation de ces sauvegardes. Inclure des instances de base de données RDS dans un plan de sauvegarde vous aide à protéger vos données contre la perte ou la suppression accidentelle.

Recommandation: Les instances de base de données RDS doivent être couvertes par un plan de sauvegarde

Pour corriger ce problème, procédez comme suit:

Terraform

Pour corriger cette commande, définissez backup_retention_period sur une valeur supérieure à 7 dans la ressource aws_db_instance.

resource "aws_db_instance" "example" {
  # ... other Configuration ...
  backup_retention_period = 7
}

Console AWS

Pour activer les sauvegardes automatiques immédiatement

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Bases de données", puis l'instance de base de données que vous souhaitez modifier.
  3. Sélectionnez "Modifier" pour ouvrir la page "Modifier l'instance de base de données".
  4. Sous "Durée de conservation de la sauvegarde", choisissez une valeur positive non nulle, par exemple 30 jours, puis cliquez sur "Continuer".
  5. Sélectionnez la section "Planification des modifications" et indiquez quand appliquer les modifications. Vous pouvez choisir "Appliquer pendant la prochaine période de maintenance planifiée" ou "Appliquer immédiatement".
  6. Ensuite, sur la page de confirmation, sélectionnez "Modify DB Instance" (Modifier l'instance de base de données) pour enregistrer vos modifications et activer les sauvegardes automatiques.

CLI AWS

Il en va de même pour la CLI AWS. Pour activer les sauvegardes automatiques, définissez backup-retention-period sur une valeur supérieure à 0 (valeur par défaut).

aws rds modify-db-instance --db-instance-identifier "test-rds" --backup-retention-period 7

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Rds Logging Enabled

Nom de la catégorie dans l'API : RDS_LOGGING_ENABLED

Cette commande vérifie si les journaux Amazon RDS suivants sont activés et envoyés à CloudWatch.

Les journaux pertinents doivent être activés sur les bases de données RDS. La journalisation de la base de données fournit des enregistrements détaillés des requêtes envoyées à RDS. Les journaux de base de données peuvent faciliter les audits de sécurité et d'accès, ainsi que pour diagnostiquer les problèmes de disponibilité.

Recommandation: Vérifie si les journaux exportés sont activés pour toutes les instances de base de données RDS

Pour corriger ce problème, procédez comme suit:

Terraform

resource "aws_db_instance" "example" {
  # ... other configuration for MySQL ...
  enabled_cloudwatch_logs_exports = ["audit", "error", "general", "slowquery"]
  parameter_group_name            = aws_db_parameter_group.example.name
}

resource "aws_db_parameter_group" "example" {
  name   = "${aws_db_instance.example.dbInstanceIdentifier}-parameter-group"
  family = "mysql5.7"

  parameter {
    name  = "general_log"
    value = 1
  }

  parameter {
    name  = "slow_query_log"
    value = 1
  }

  parameter {
    name  = "log_output"
    value = "FILE"
  }
}

Pour MariaDB, créez également un groupe d'options personnalisé et définissez option_group_name dans la ressource aws_db_instance.

resource "aws_db_instance" "example" {
  # ... other configuration for MariaDB ...
  enabled_cloudwatch_logs_exports = ["audit", "error", "general", "slowquery"]
  parameter_group_name            = aws_db_parameter_group.example.name
  option_group_name               = aws_db_option_group.example.name
}

resource "aws_db_option_group" "example" {
  name                     = "mariadb-option-group-for-logs"
  option_group_description = "MariaDB Option Group for Logs"
  engine_name              = "mariadb"
  option {
    option_name = "MARIADB_AUDIT_PLUGIN"
    option_settings {
      name  = "SERVER_AUDIT_EVENTS"
      value = "CONNECT,QUERY,TABLE,QUERY_DDL,QUERY_DML,QUERY_DCL"
    }
  }
}

Console AWS

Créer un groupe de paramètres de base de données personnalisé

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Groupes de paramètres".
  3. Sélectionnez "Créer un groupe de paramètres".
  4. Dans la liste "Famille du groupe de paramètres", choisissez une famille de groupes de paramètres de base de données.
  5. Dans la liste "Type", choisissez "DB Parameter Group" (Groupe de paramètres de base de données).
  6. Dans "Nom du groupe", saisissez le nom du nouveau groupe de paramètres de base de données.
  7. Dans Description, saisissez une description pour le nouveau groupe de paramètres de base de données.
  8. Sélectionnez "Créer".

Créer un groupe d'options pour la journalisation MariaDB à l'aide de la console

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Groupes d'options".
  3. Sélectionnez Créer un groupe.
  4. Dans la fenêtre "Créer un groupe d'options", renseignez les champs suivants:
    * Nom: doit être unique dans votre compte AWS. Lettres, chiffres et traits d'union uniquement.
    * Description: utilisée uniquement à des fins d'affichage.
    * Moteur: sélectionnez votre moteur de base de données.
    * Version majeure du moteur: sélectionnez la version majeure du moteur de base de données.
  5. Sélectionnez "Créer".
  6. Choisissez le nom du groupe d'options que vous venez de créer.
  7. Sélectionnez l'option "Ajouter".
  8. Choisissez MARIADB_AUDIT_PLUGIN dans la liste Nom de l'option.
  9. Définissez SERVER_AUDIT_EVENTS sur CONNECT, QUERY, TABLE, QUERY_DDL, QUERY_DML, QUERY_DCL.
  10. Sélectionnez l'option "Ajouter".

Pour publier des journaux de base de données SQL Server, de base de données Oracle ou PostgreSQL dans CloudWatch Logs à partir d'AWS Management Console

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, choisissez "Bases de données".
  3. Choisissez l'instance de base de données que vous souhaitez modifier.
  4. Sélectionnez "Modifier".
  5. Sous "Exportations de journaux", choisissez tous les fichiers journaux pour commencer à publier dans CloudWatch Logs.
  6. Les exportations de journaux ne sont disponibles que pour les versions de moteur de base de données compatibles avec la publication dans CloudWatch Logs.
  7. Sélectionnez "Continuer". Ensuite, sur la page de résumé, choisissez "Modifier l'instance de base de données".

Pour appliquer un nouveau groupe de paramètres de base de données ou un nouveau groupe d'options de base de données à une instance de base de données RDS

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, choisissez "Bases de données".
  3. Choisissez l'instance de base de données que vous souhaitez modifier.
  4. Sélectionnez "Modifier".
  5. Sous Options de la base de données, modifiez le groupe de paramètres de la base de données et le groupe d'options de la base de données selon vos besoins.
  6. Lorsque vous avez terminé vos modifications, sélectionnez "Continuer". Consultez le récapitulatif des modifications.
  7. Sélectionnez "Modifier l'instance de base de données" pour enregistrer vos modifications.

CLI AWS

Récupérez les familles de moteurs et choisissez celle qui correspond au moteur et à la version de l'instance de base de données.

aws rds describe-db-engine-versions \
  --query "DBEngineVersions[].DBParameterGroupFamily" \
  --engine "mysql"

Créez un groupe de paramètres basé sur le moteur et la version.

aws rds create-db-parameter-group \
  --db-parameter-group-name "rds-mysql-parameter-group" \
  --db-parameter-group-family "mysql5.7" \
  --description "Example parameter group for logs"

Créez un fichier rds-parameters.json contenant les paramètres nécessaires en fonction du moteur de base de données. Cet exemple utilise MySQL 5.7.

[
  {
    "ParameterName": "general_log",
    "ParameterValue": "1",
    "ApplyMethod": "immediate"
  },
  {
    "ParameterName": "slow_query_log",
    "ParameterValue": "1",
    "ApplyMethod": "immediate"
  },
  {
    "ParameterName": "log_output",
    "ParameterValue": "FILE",
    "ApplyMethod": "immediate"
  }
]

Modifiez le groupe de paramètres pour ajouter les paramètres en fonction du moteur de base de données. Cet exemple utilise MySQL 5.7

aws rds modify-db-parameter-group \
  --db-parameter-group-name "rds-mysql-parameter-group" \
  --parameters file://rds-parameters.json

Modifiez l'instance de base de données pour associer le groupe de paramètres.

aws rds modify-db-instance \
  --db-instance-identifier "test-rds" \
  --db-parameter-group-name "rds-mysql-parameter-group"

En outre, pour MariaDB, créez un groupe d'options comme suit.

aws rds create-option-group \
  --option-group-name "rds-mariadb-option-group" \
  --engine-name "mariadb" \
  --major-engine-version "10.6" \
  --option-group-description "Option group for MariaDB logs"

Créez un fichier rds-mariadb-options.json comme suit.

{
  "OptionName": "MARIADB_AUDIT_PLUGIN",
  "OptionSettings": [
    {
      "Name": "SERVER_AUDIT_EVENTS",
      "Value": "CONNECT,QUERY,TABLE,QUERY_DDL,QUERY_DML,QUERY_DCL"
    }
  ]
}

Ajoutez l'option au groupe d'options.

aws rds add-option-to-option-group \
  --option-group-name "rds-mariadb-option-group" \
  --options file://rds-mariadb-options.json

Associez le groupe d'options à l'instance de base de données en modifiant l'instance MariaDB.

aws rds modify-db-instance \
  --db-instance-identifier "rds-test-mariadb" \
  --option-group-name "rds-mariadb-option-group"

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Rds Multi Az Support

Nom de la catégorie dans l'API : RDS_MULTI_AZ_SUPPORT

Les instances de base de données RDS doivent être configurées pour plusieurs zones de disponibilité. Cela garantit la disponibilité des données stockées. Les déploiements multizones permettent un basculement automatique en cas de problème de disponibilité de la zone de disponibilité et lors de la maintenance régulière de RDS.

Recommandation: Vérifiez si la haute disponibilité est activée pour toutes les instances de base de données RDS

Pour corriger ce problème, procédez comme suit:

Terraform

Pour corriger cette commande, définissez multi_az sur "true" dans la ressource aws_db_instance.

resource "aws_db_instance" "example" {
  # ... other configuration ...
  multi_az                = true
}

Console AWS

Activer plusieurs zones de disponibilité pour une instance de base de données

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Bases de données", puis l'instance de base de données à modifier.
  3. Sélectionnez "Modifier". La page "Modifier l'instance de base de données" s'affiche.
  4. Sous "Spécifications de l'instance", définissez le déploiement "Multi-AZ" sur "Oui".
  5. Cliquez sur "Continuer", puis vérifiez le récapitulatif des modifications.
  6. (Facultatif) Sélectionnez "Appliquer immédiatement" pour que les modifications soient appliquées immédiatement. Choisir cette option peut entraîner une indisponibilité dans certains cas. Pour plus d'informations, consultez la section "Utilisation du paramètre "Appliquer immédiatement" dans le guide de l'utilisateur Amazon RDS.
  7. Sur la page de confirmation, examinez vos modifications. Si elles sont correctes, sélectionnez Modifier l'instance de base de données pour enregistrer vos modifications.

CLI AWS

Il en va de même pour la CLI AWS. Activez la compatibilité multi-Az en fournissant l'option --multi-az.

modify-db-instance
  --db-instance-identifier "test-rds" \
  --multi-az

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Redshift Cluster Configuration Check

Nom de la catégorie dans l'API : REDSHIFT_CLUSTER_CONFIGURATION_CHECK

Cela permet de vérifier les éléments essentiels d'un cluster Redshift: chiffrement au repos, journalisation et type de nœud.

Ces éléments de configuration sont importants pour la maintenance d'un cluster Redshift sécurisé et observable.

Recommandation: Vérifiez que tous les clusters Redshift disposent d'un chiffrement au repos, d'une journalisation et d'un type de nœud.

Pour corriger ce problème, procédez comme suit:

Terraform

resource "aws_kms_key" "redshift_encryption" {
  description         = "Used for Redshift encryption configuration"
  enable_key_rotation = true
}

resource "aws_redshift_cluster" "example" {
  # ... other configuration ...
  encrypted                           = true
  kms_key_id                          = aws_kms_key.redshift_encryption.id
  logging {
    enable               = true
    log_destination_type = "cloudwatch"
    log_exports          = ["connectionlog", "userlog", "useractivitylog"]
  }
}

Console AWS

Pour activer les journaux d'audit de cluster :

  1. Ouvrez la console Amazon Redshift à l'adresse https://console.aws.amazon.com/redshift/.
  2. Dans le menu de navigation, sélectionnez "Clusters", puis choisissez le nom du cluster à modifier.
  3. Sélectionnez "Propriétés".
  4. Sélectionnez "Modifier", puis "Modifier la journalisation des audits".
  5. Définissez "Configurer les journaux d'audit" sur "Activer", définissez le type d'exportation des journaux sur CloudWatch (recommandé) et choisissez les journaux à exporter.

Pour savoir comment utiliser AWS S3 pour gérer les journaux d'audit Redshift, consultez la section Redshift - Database audit logging (Journaux d'audit de base de données) de la documentation AWS.

  1. Sélectionnez "Enregistrer les modifications".

Modifier le chiffrement de la base de données sur un cluster

  1. Connectez-vous à la console de gestion AWS et ouvrez la console Amazon Redshift à l'adresse https://console.aws.amazon.com/redshift/.
  2. Dans le menu de navigation, sélectionnez "Clusters", puis choisissez le cluster dont vous souhaitez modifier le chiffrement.
  3. Sélectionnez "Propriétés".
  4. Sélectionnez "Modifier le chiffrement" et "Modifier le chiffrement".
  5. Choisissez le chiffrement à utiliser (KMS ou HSM) et indiquez:
  • Pour KMS: clé à utiliser
  • Pour HSM: connexion et certificat client

CLI AWS

  1. Créer une clé KMS et récupérer l'ID de clé
aws kms create-key \
  --description "Key to encrypt Redshift Clusters"
  1. Modifier le cluster
aws redshift modify-cluster \
  --cluster-identifiers "test-redshift-cluster" \
  --encrypted \
  --kms-key-id <value>

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Redshift Cluster Maintenancesettings Check

Nom de la catégorie dans l'API : REDSHIFT_CLUSTER_MAINTENANCESETTINGS_CHECK

Les mises à niveau automatiques des versions majeures s'effectuent en fonction de l'intervalle de maintenance

Recommandation: Vérifiez que allowVersionUpgrade est activé pour tous les clusters Redshift, et que preferredMaintenanceWindow et automatedSnapshotRetentionPeriod sont définis pour tous les clusters

Pour corriger ce problème, procédez comme suit:

Terraform

Cette vérification est conforme à toutes les valeurs par défaut fournies par Terraform. En cas d'échec d'un cluster Redshift, consultez les exigences et supprimez les remplacements par défaut pour les attributs suivants de la ressource aws_redshift_cluster.

resource "aws_redshift_cluster" "example" {

  # ...other configuration ...

  # The following values are compliant and set by default if omitted.
  allow_version_upgrade               = true
  preferred_maintenance_window        = "sat:10:00-sat:10:30"
  automated_snapshot_retention_period = 1
}

Console AWS

Lors de la création d'un cluster Redshift via la console AWS, les valeurs par défaut sont déjà conformes à cette commande.

Pour en savoir plus, consultez la page Gérer des clusters à l'aide de la console.

CLI AWS

Pour corriger ce contrôle à l'aide de la CLI AWS, procédez comme suit:

aws redshift modify-cluster \
  --cluster-identifier "test-redshift-cluster" \
  --allow-version-upgrade

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Redshift Cluster Public Access Check

Nom de la catégorie dans l'API : REDSHIFT_CLUSTER_PUBLIC_ACCESS_CHECK

L'attribut PubliclyAccessible de la configuration du cluster Amazon Redshift indique si le cluster est accessible publiquement. Lorsque le cluster est configuré avec "PubliclyAccessible" défini sur "true", il s'agit d'une instance Web dont le nom DNS peut être résolu publiquement, lequel est résolu en une adresse IP publique.

Lorsque le cluster n'est pas accessible publiquement, il s'agit d'une instance interne dont le nom DNS est résolu en adresse IP privée. À moins que vous ne souhaitiez que votre cluster soit accessible publiquement, vous ne devez pas le configurer avec l'option "PubliclyAccessible" définie sur "true".

Recommandation: Vérifiez si les clusters Redshift sont accessibles au public

Pour corriger ce problème, procédez comme suit:

Terraform

Pour corriger cette commande, vous devez modifier la ressource de cluster Redshift et définir publicly_accessible sur false (la valeur par défaut est true).

resource "aws_redshift_cluster" "example" {
  # ... other configuration ...
  publicly_accessible = false
}

Console AWS

Pour désactiver l'accès public à un cluster Amazon Redshift :

  1. Ouvrez la console Amazon Redshift à l'adresse https://console.aws.amazon.com/redshift/.
  2. Dans le menu de navigation, sélectionnez "Clusters", puis choisissez le nom du cluster avec le groupe de sécurité à modifier.
  3. Sélectionnez "Actions", puis "Modifier le paramètre d'accès public".
  4. Sous "Autoriser les instances et les appareils extérieurs au VPC à se connecter à votre base de données via le point de terminaison du cluster", sélectionnez "Non".
  5. Sélectionnez "Confirmer".

CLI AWS

Utilisez la commande modify-cluster pour définir --no-publicly-accessible.

aws redshift modify-cluster \
  --cluster-identifier "test-redshift-cluster" \
  --no-publicly-accessible

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Restricted Common Ports

Nom de la catégorie dans l'API : RESTRICTED_COMMON_PORTS

Cette option vérifie si le trafic entrant sans restriction pour les groupes de sécurité est accessible aux ports spécifiés qui présentent le risque le plus élevé. Ce contrôle échoue si l'une des règles d'un groupe de sécurité autorise le trafic d'entrée provenant de '0.0.0.0/0' ou de '::/0' pour ces ports.

L'accès illimité (0.0.0.0/0) augmente les possibilités d'activités malveillantes, telles que le piratage, les attaques par déni de service et la perte de données.

Les groupes de sécurité permettent un filtrage avec état du trafic réseau entrant et sortant vers les ressources AWS. Aucun groupe de sécurité ne doit autoriser un accès d'entrée non restreint aux ports suivants:

  • 20, 21 (FTP)
  • 22 (SSH)
  • 23 (Telnet)
  • 25 (SMTP)
  • 110 (POP3)
  • 135 (RPC)
  • 143 (IMAP)
  • 445 (CIFS)
  • 1433, 1434 (MSSQL)
  • 3000 (frameworks de développement Web Go, Node.js et Ruby)
  • 3306 (mySQL)
  • 3389 (RDP)
  • 4333 (ahsp)
  • 5000 (frameworks de développement Web Python)
  • 5432 (postgresql)
  • 5500 (fcp-addr-srvr1)
  • 5601 (Tableaux de bord OpenSearch)
  • 8080 (proxy)
  • 8088 (ancien port HTTP)
  • 8888 (port HTTP alternatif)
  • 9200 ou 9300 (OpenSearch)
Recommandation: Les groupes de sécurité ne doivent pas autoriser l'accès sans restriction aux ports à haut risque

Pour corriger ce problème, procédez comme suit:

Console AWS

Pour supprimer une règle de groupe de sécurité:

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sélectionnez "Groupes de sécurité".
  3. Sélectionnez le groupe de sécurité à mettre à jour, "Actions", puis "Modifier les règles entrantes" pour supprimer une règle entrante ou "Modifier les règles sortantes" pour supprimer une règle sortante.
  4. Cliquez sur le bouton "Supprimer" à droite de la règle à supprimer.
  5. Choisissez Prévisualiser les modifications, puis confirmez.

Pour savoir comment supprimer des règles d'un groupe de sécurité, consultez Supprimer les règles d'un groupe de sécurité dans le guide de l'utilisateur Amazon EC2 pour les instances Linux.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Restricted Ssh

Nom de la catégorie dans l'API : RESTRICTED_SSH

Les groupes de sécurité fournissent un filtrage avec état du trafic réseau entrant et sortant vers les ressources AWS.

Le CIS recommande de ne pas autoriser les groupes de sécurité à autoriser un accès d'entrée non restreint au port 22. Supprimer la connectivité sans entrave aux services de console distants, tels que SSH, réduit l'exposition d'un serveur aux risques.

Recommandation : Les groupes de sécurité ne doivent pas autoriser le trafic d'entrée de 0.0.0.0/0 vers le port 22

Pour corriger ce résultat, procédez comme suit :

Console AWS

Procédez comme suit pour chaque groupe de sécurité associé à un VPC.

Ouvrez la console Amazon VPC à l'adresse https://console.aws.amazon.com/vpc/.

  1. Dans le volet de gauche, sélectionnez Groupes de sécurité.
  2. Sélectionnez un groupe de sécurité.
  3. Dans la section inférieure de la page, cliquez sur l'onglet Règles de trafic entrant.
  4. Sélectionnez Modifier les règles.
  5. Identifiez la règle qui autorise l'accès via le port 22, puis cliquez sur la croix (X) pour la supprimer.
  6. Sélectionnez Enregistrer les règles.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Rotation Customer Created Cmks Enabled

Nom de la catégorie dans l'API : ROTATION_CUSTOMER_CREATED_CMKS_ENABLED

Vérifie si la rotation automatique des clés est activée pour chaque clé et correspond à l'ID de la clé KMS AWS créée par le client. La règle est NON_COMPLIANT si le rôle d'enregistreur de configuration AWS pour une ressource ne dispose pas de l'autorisation kms:descriptionKey.

Recommandation: Assurez-vous que la rotation des clés CMK créées par le client est activée

Pour activer la rotation des clés d'automatisation pour AWS KMS, consultez Effectuer une rotation des clés AWS KMS dans la documentation AWS.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Rotation Customer Created Symmetric Cmks Enabled

Nom de la catégorie dans l'API : ROTATION_CUSTOMER_CREATED_SYMMETRIC_CMKS_ENABLED

AWS Key Management Service (KMS) permet aux clients d'alterner la clé de sauvegarde. Il s'agit du matériel de clé stocké dans le service de gestion des clés et lié à l'ID de clé de la clé principale client (CMK) créée par le client. Il s'agit de la clé de sauvegarde qui est utilisée pour effectuer des opérations de chiffrement telles que le chiffrement et le déchiffrement. La rotation automatique des clés conserve actuellement toutes les clés de sauvegarde précédentes afin que le déchiffrement des données chiffrées s'effectue de manière transparente. Il est recommandé d'activer la rotation des clés CMK pour les clés symétriques. La rotation des clés ne peut pas être activée pour une CMK asymétrique.

Recommandation: Assurez-vous que la rotation des CMK symétriques créées par le client est activée

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur https://console.aws.amazon.com/iam.
  2. Dans le volet de navigation de gauche, sélectionnez Customer managed keys .
  3. Sélectionnez une clé CMK gérée par le client où Key spec = SYMMETRIC_DEFAULT
  4. Sous "Configuration générale", ouvre le panneau "Rotation des clés"
  5. Cochez la case "Effectuer une rotation automatique de cette clé KMS tous les ans". case à cocher

CLI AWS

  1. Exécutez la commande suivante pour activer la rotation des clés:
 aws kms enable-key-rotation --key-id <kms_key_id>

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Routing Tables Vpc Peering Are Least Access

Nom de la catégorie dans l'API : ROUTING_TABLES_VPC_PEERING_ARE_LEAST_ACCESS

Vérifie si les tables de routage pour l'appairage de VPC sont configurées avec le compte principal du moindre privilège.

Recommandation : Assurez-vous que les tables de routage pour l'appairage de VPC sont en "accès limité"

Pour mettre à jour les tables de routage pour l'appairage VPC, consultez la section Mettre à jour vos tables de routage pour une connexion d'appairage VPC dans le guide de l'utilisateur du VPC AWS.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

S3 Account Level Public Access Blocks

Nom de la catégorie dans l'API : S3_ACCOUNT_LEVEL_PUBLIC_ACCESS_BLOCKS

Amazon S3 Block Public Access fournit des paramètres pour les points d'accès, les buckets et les comptes afin de vous aider à gérer l'accès public aux ressources Amazon S3. Par défaut, les nouveaux buckets, points d'accès et objets n'autorisent pas l'accès public.

Recommandation: Vérifiez si les paramètres de blocage de l'accès public S3 requis sont configurés au niveau du compte

Pour corriger ce problème, procédez comme suit:

Terraform

La ressource Terraform suivante configure l'accès au niveau du compte à S3.

resource "aws_s3_account_public_access_block" "s3_control" {
  block_public_acls       = true
  block_public_policy     = true
  ignore_public_acls      = true
  restrict_public_buckets = true
}

Console AWS

Pour modifier les paramètres de blocage de l'accès public pour tous les buckets S3 d'un compte AWS.

  1. Connectez-vous à AWS Management Console et ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.
  2. Sélectionnez les paramètres "Bloquer l'accès public" pour ce compte.
  3. Sélectionnez "Edit" (Modifier) pour modifier les paramètres de blocage de l'accès public pour tous les buckets de votre compte AWS.
  4. Choisissez les paramètres que vous souhaitez modifier, puis cliquez sur "Enregistrer les modifications".
  5. Lorsque vous êtes invité à confirmer votre choix, saisissez "confirm". Sélectionnez ensuite "Confirmer" pour enregistrer vos modifications.

CLI AWS

aws s3control put-public-access-block \
--account-id <value> \
--public-access-block-configuration '{"BlockPublicAcls": true, "BlockPublicPolicy": true, "IgnorePublicAcls": true, "RestrictPublicBuckets": true}'

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

S3 Buckets Configured Block Public Access Bucket And Account Settings

Nom de la catégorie dans l'API : S3_BUCKETS_CONFIGURED_BLOCK_PUBLIC_ACCESS_BUCKET_AND_ACCOUNT_SETTINGS

Amazon S3 fournit Block public access (bucket settings) et Block public access (account settings) pour vous aider à gérer l'accès public aux ressources Amazon S3. Par défaut, l'accès public est désactivé pour les buckets et objets S3 créés. Toutefois, un compte principal AWS IAM disposant d'autorisations S3 suffisantes peut activer l'accès public au niveau du bucket ou de l'objet. Lorsqu'il est activé, Block public access (bucket settings) empêche un bucket individuel et les objets qu'il contient de devenir accessibles publiquement. De même, Block public access (account settings) empêche tous les buckets et les objets qu'ils contiennent d'être accessibles au public dans l'ensemble du compte.

Recommandation :

Assurez-vous que les buckets S3 sont configurés avec Block public access (bucket settings).

Pour corriger ce problème, procédez comme suit:

Console AWS

Si le résultat indique true pour les autres paramètres de configuration, cela signifie que le compte est défini sur "true".

  1. Connectez-vous à AWS Management Console et ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.
  2. Sélectionnez Bloquer l'accès public (paramètres du compte).
  3. Sélectionnez Edit (Modifier) pour modifier les paramètres de blocage de l'accès public pour tous les buckets de votre compte AWS.
  4. Choisissez les paramètres que vous souhaitez modifier, puis sélectionnez Enregistrer. Pour en savoir plus sur chaque paramètre, appuyez sur les icônes i.
  5. Lorsque vous êtes invité à confirmer l'opération, saisissez confirm. Cliquez ensuite sur Confirmer pour enregistrer vos modifications.

CLI AWS

Pour définir les paramètres "Bloquer l'accès public" pour ce compte, exécutez la commande suivante:

aws s3control put-public-access-block
--public-access-block-configuration BlockPublicAcls=true, IgnorePublicAcls=true, BlockPublicPolicy=true, RestrictPublicBuckets=true
--account-id <value>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Bucket Access Logging Enabled Cloudtrail S3 Bucket

Nom de la catégorie dans l'API : S3_BUCKET_ACCESS_LOGGING_ENABLED_CLOUDTRAIL_S3_BUCKET

La journalisation de l'accès au bucket S3 génère un journal contenant les enregistrements d'accès pour chaque requête adressée à votre bucket S3. Un enregistrement de journal d'accès contient des détails sur la requête, tels que son type, les ressources spécifiées dans la requête, ainsi que la date et l'heure de traitement de la requête. Il est recommandé d'activer la journalisation des accès au bucket sur le bucket CloudTrail S3.

Recommandation :

Assurez-vous que la journalisation de l'accès au bucket S3 est activée sur le bucket CloudTrail S3

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Connectez-vous à AWS Management Console et ouvrez la console S3 sur la page https://console.aws.amazon.com/s3.
  2. Sous Tous les buckets, cliquez sur le bucket S3 cible.
  3. Cliquez sur Propriétés en haut à droite de la console.
  4. Sous Bucket:<s3\_bucket\_for\_cloudtrail> cliquez sur Journalisation</s3\_bucket\_for\_cloudtrail>.
  5. Configurer la journalisation des buckets
    - Cochez la case Activé.
    - Sélectionnez "Target Bucket" (Bucket cible dans la liste)
    - Saisissez un préfixe cible
  6. Cliquez sur Enregistrer.

CLI AWS

  1. Obtenez le nom du bucket S3 sur lequel CloudTrail se connecte:
aws cloudtrail describe-trails --region <region-name> --query trailList[*].S3BucketName
  1. Copiez et ajoutez le nom du bucket cible dans , le préfixe du fichier journal sur . Vous pouvez aussi ajouter une adresse e-mail dans le modèle suivant et l'enregistrer sous :
{
 "LoggingEnabled": {
 "TargetBucket": "<Logging_BucketName>",
 "TargetPrefix": "<LogFilePrefix>",
 "TargetGrants": [
 {
 "Grantee": {
 "Type": "AmazonCustomerByEmail",
 "EmailAddress": "<EmailID>"
 },
 "Permission": "FULL_CONTROL"
 }
 ]
 }
}
  1. Exécutez la commande put-bucket-logging en indiquant le nom du bucket et comme entrée. Pour en savoir plus, consultez la page put-bucket-logging:
aws s3api put-bucket-logging --bucket <BucketName> --bucket-logging-status file://<FileName.Json>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Bucket Logging Enabled

Nom de la catégorie dans l'API : S3_BUCKET_LOGGING_ENABLED

La fonctionnalité de journalisation des accès au serveur d'AWS S3 enregistre les demandes d'accès aux buckets de stockage, ce qui est utile pour les audits de sécurité. Par défaut, la journalisation des accès au serveur n'est pas activée pour les buckets S3.

Recommandation: Vérifie si la journalisation est activée sur tous les buckets S3

Pour corriger ce problème, procédez comme suit:

Terraform

L'exemple suivant montre comment créer deux buckets:

  1. Un bucket de journalisation
  2. Un bucket conforme
variable "bucket_acl_map" {
  type = map(any)
  default = {
    "logging-bucket"   = "log-delivery-write"
    "compliant-bucket" = "private"
  }
}

resource "aws_s3_bucket" "all" {
  for_each            = var.bucket_acl_map
  bucket              = each.key
  object_lock_enabled = true
  tags = {
    "Pwd"    = "s3"
  }
}

resource "aws_s3_bucket_acl" "private" {
  for_each = var.bucket_acl_map
  bucket   = each.key
  acl      = each.value
}

resource "aws_s3_bucket_versioning" "enabled" {
  for_each = var.bucket_acl_map
  bucket   = each.key
  versioning_configuration {
    status = "Enabled"
  }
}

resource "aws_s3_bucket_logging" "enabled" {
  for_each      = var.bucket_acl_map
  bucket        = each.key
  target_bucket = aws_s3_bucket.all["logging-bucket"].id
  target_prefix = "log/"
}

resource "aws_s3_bucket_server_side_encryption_configuration" "example" {
  for_each = var.bucket_acl_map
  bucket   = each.key

  rule {
    apply_server_side_encryption_by_default {
      sse_algorithm     = "aws:kms"
    }
  }
}

Console AWS

Pour savoir comment activer la journalisation des accès S3 via la console AWS, consultez la section Activer la journalisation des accès au serveur Amazon S3 dans la documentation AWS.

CLI AWS

L'exemple suivant montre comment:

  1. Créez une stratégie de bucket pour accorder au principal du service de journalisation l'autorisation PutObject dans votre bucket de journalisation.

policy.json

{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Sid": "S3ServerAccessLogsPolicy",
            "Effect": "Allow",
            "Principal": {"Service": "logging.s3.amazonaws.com"},
            "Action": "s3:PutObject",
            "Resource": "arn:aws:s3:::MyBucket/Logs/*",
            "Condition": {
                "ArnLike": {"aws:SourceARN": "arn:aws:s3:::SOURCE-BUCKET-NAME"},
                "StringEquals": {"aws:SourceAccount": "SOURCE-AWS-ACCOUNT-ID"}
            }
        }
    ]
}
aws s3api put-bucket-policy \
  --bucket my-bucket
  --policy file://policy.json
  1. Appliquer la règle à votre bucket de journaux

logging.json

{
    "LoggingEnabled": {
        "TargetBucket": "MyBucket",
        "TargetPrefix": "Logs/"
    }
}
aws s3api put-bucket-logging \
  --bucket MyBucket \
  --bucket-logging-status file://logging.json

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

S3 Bucket Policy Set Deny Http Requests

Nom de la catégorie dans l'API : S3_BUCKET_POLICY_SET_DENY_HTTP_REQUESTS

Au niveau du bucket Amazon S3, vous pouvez configurer des autorisations via une stratégie de bucket rendant les objets accessibles uniquement via HTTPS.

Recommandation: Assurez-vous que la stratégie du bucket S3 est définie pour refuser les requêtes HTTP

Pour corriger ce problème, procédez comme suit:

Console AWS

à l'aide du générateur de stratégies AWS:

  1. Répétez les étapes 1 à 4 ci-dessus.
  2. Cliquez sur Policy Generator en bas de l'éditeur de stratégie de bucket.
  3. Sélectionner un type de règle
    S3 Bucket Policy
  4. Ajouter des instructions
    - Effect = Refuser
    - Principal = *
    - AWS Service = Amazon S3
    - Actions = *
    - Amazon Resource Name =
  5. Générer une règle
  6. Copiez le texte et ajoutez-le à la stratégie du bucket.

CLI AWS

  1. Exportez la stratégie du bucket dans un fichier JSON.
aws s3api get-bucket-policy --bucket <bucket_name> --query Policy --output text > policy.json
  1. Modifiez le fichier policy.json en ajoutant l'instruction suivante:
{
 "Sid": <optional>",
 "Effect": "Deny",
 "Principal": "*",
 "Action": "s3:*",
 "Resource": "arn:aws:s3:::<bucket_name>/*",
 "Condition": {
 "Bool": {
 "aws:SecureTransport": "false"
 }
 }
 }
  1. Appliquez à nouveau cette stratégie modifiée au bucket S3 :
aws s3api put-bucket-policy --bucket <bucket_name> --policy file://policy.json

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Bucket Replication Enabled

Nom de la catégorie dans l'API : S3_BUCKET_REPLICATION_ENABLED

Cette commande vérifie si la réplication interrégionale est activée sur un bucket Amazon S3. Le contrôle échoue si la réplication interrégionale n'est pas activée sur le bucket ou si la réplication dans la même région est également activée.

La réplication est la copie automatique et asynchrone d'objets sur des buckets appartenant à la même région AWS ou à des régions différentes. La réplication copie les objets nouvellement créés et les mises à jour d'objets d'un bucket source vers un ou plusieurs buckets de destination. Les bonnes pratiques d'AWS recommandent la réplication pour les buckets sources et de destination appartenant au même compte AWS. En plus de la disponibilité, vous devez tenir compte d'autres paramètres de renforcement des systèmes.

Recommandation: Vérifiez si la réplication interrégionale est activée sur les buckets S3

Pour activer la réplication interrégionale sur un bucket S3, consultez la section Configurer la réplication pour les buckets sources et de destination appartenant au même compte dans le guide de l'utilisateur d'Amazon Simple Storage Service. Pour "Bucket source", sélectionnez "Appliquer à tous les objets du bucket".

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

S3 Bucket Server Side Encryption Enabled

Nom de la catégorie dans l'API : S3_BUCKET_SERVER_SIDE_ENCRYPTION_ENABLED

Cela permet de vérifier que le chiffrement par défaut d'Amazon S3 est activé sur votre bucket S3 ou que la stratégie de bucket S3 refuse explicitement les requêtes d'objet put sans chiffrement côté serveur.

Recommandation: Assurez-vous que tous les buckets S3 appliquent le chiffrement au repos

Pour corriger ce problème, procédez comme suit:

Terraform

resource "aws_s3_bucket_server_side_encryption_configuration" "enable" {
  bucket = "my-bucket"

  rule {
    apply_server_side_encryption_by_default {
      sse_algorithm = "AES256"
    }
  }
}

Console AWS

Activer le chiffrement par défaut sur un bucket S3

  1. Ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.
  2. Dans le volet de navigation de gauche, choisissez "Buckets".
  3. Sélectionnez le bucket S3 dans la liste.
  4. Sélectionnez "Propriétés".
  5. Sélectionnez "Chiffrement par défaut".
  6. Pour le chiffrement, choisissez AES-256 ou AWS-KMS.
  7. Choisissez AES-256 afin d'utiliser des clés gérées par Amazon S3 pour le chiffrement par défaut. Pour en savoir plus sur l'utilisation du chiffrement côté serveur d'Amazon S3 pour chiffrer vos données, consultez le guide de l'utilisateur d'Amazon Simple Storage Service.
  8. Choisissez AWS-KMS afin d'utiliser des clés gérées par AWS KMS pour le chiffrement par défaut. Choisissez ensuite une clé principale dans la liste des clés principales AWS KMS que vous avez créées.
  9. Saisissez le nom de ressource Amazon (ARN) de la clé KMS AWS à utiliser. Vous trouverez l'ARN de votre clé KMS AWS dans la console IAM, sous "Clés de chiffrement". Vous pouvez également choisir un nom de clé dans la liste déroulante.
  10. Important: Si vous utilisez l'option AWS KMS pour votre configuration de chiffrement par défaut, vous êtes soumis aux quotas de RPS (requêtes par seconde) d'AWS KMS. Pour en savoir plus sur les quotas AWS KMS et comment demander une augmentation de quota, consultez le Guide du développeur AWS Key Management Service.
  11. Sélectionnez "Enregistrer".

Pour en savoir plus sur la création d'une clé KMS AWS, consultez le guide du développeur d'AWS Key Management Service.

Pour en savoir plus sur l'utilisation d'AWS KMS avec Amazon S3, consultez le guide de l'utilisateur d'Amazon Simple Storage Service.

Lors de l'activation du chiffrement par défaut, vous devrez peut-être mettre à jour votre stratégie de bucket. Pour en savoir plus sur le passage des règles de bucket au chiffrement par défaut, consultez le guide de l'utilisateur d'Amazon Simple Storage Service.

CLI AWS

aws s3api put-bucket-encryption \
  --bucket my-bucket \
  --server-side-encryption-configuration '{"Rules": [{"ApplyServerSideEncryptionByDefault": {"SSEAlgorithm": "AES256"}}]}'

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

S3 Bucket Versioning Enabled

Nom de la catégorie dans l'API : S3_BUCKET_VERSIONING_ENABLED

Amazon S3 permet de conserver plusieurs variantes d'un objet dans le même bucket et peut vous aider à récupérer plus facilement des actions de l'utilisateur involontaires et des échecs d'application.

Recommandation: Vérifie que la gestion des versions est activée pour tous les buckets S3

Pour corriger ce problème, procédez comme suit:

Terraform

resource "aws_s3_bucket" "my_bucket" {
  bucket = "my-bucket"

  versioning {
    enabled = true
  }
}

Console AWS

Activer ou désactiver la gestion des versions sur un bucket S3

  1. Connectez-vous à AWS Management Console et ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.
  2. Dans la liste "Buckets", choisissez le nom du bucket pour lequel vous souhaitez activer la gestion des versions.
  3. Sélectionnez "Propriétés".
  4. Sous "Gestion des versions du bucket", sélectionnez "Modifier".
  5. Choisissez "Suspendre" ou "Activer", puis sélectionnez "Enregistrer les modifications".

CLI AWS

aws s3control put-bucket-versioning \
--bucket <bucket_name> \
--versioning-configuration Status=Enabled

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

S3 Default Encryption Kms

Nom de la catégorie dans l'API : S3_DEFAULT_ENCRYPTION_KMS

Vérifiez si les buckets Amazon S3 sont chiffrés avec AWS Key Management Service (AWS KMS)

Recommandation: Vérifie que tous les buckets sont chiffrés avec KMS

Pour corriger ce problème, procédez comme suit:

Terraform

resource "aws_kms_key" "s3_encryption" {
  description         = "Used for S3 Bucket encryption configuration"
  enable_key_rotation = true
}

resource "aws_s3_bucket_server_side_encryption_configuration" "enable" {
  bucket   = "my-bucket"

  rule {
    apply_server_side_encryption_by_default {
      kms_master_key_id = aws_kms_key.s3_encryption.arn
      sse_algorithm     = "aws:kms"
    }
  }
}

Console AWS

Activer le chiffrement par défaut sur un bucket S3

  1. Ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.
  2. Dans le volet de navigation de gauche, choisissez "Buckets".
  3. Sélectionnez le bucket S3 dans la liste.
  4. Sélectionnez "Propriétés".
  5. Sélectionnez "Chiffrement par défaut".
  6. Pour le chiffrement, choisissez AWS-KMS.
  7. Choisissez AWS-KMS afin d'utiliser des clés gérées par AWS KMS pour le chiffrement par défaut. Choisissez ensuite une clé principale dans la liste des clés principales AWS KMS que vous avez créées. Pour en savoir plus sur la création de clés KMS, consultez la documentation AWS : création de clés.
  8. Saisissez le nom de ressource Amazon (ARN) de la clé KMS AWS à utiliser. Vous trouverez l'ARN de votre clé KMS AWS dans la console IAM, sous "Clés de chiffrement". Vous pouvez également choisir un nom de clé dans la liste déroulante.
  9. Important: Cette solution est soumise aux quotas de RPS (requêtes par seconde) d'AWS KMS. Pour en savoir plus sur les quotas AWS KMS et sur la façon de demander une augmentation de quota, consultez le guide du développeur d'AWS Key Management Service.
  10. Sélectionnez "Enregistrer".

Pour en savoir plus sur l'utilisation d'AWS KMS avec Amazon S3, consultez le guide de l'utilisateur d'Amazon Simple Storage Service.

Lorsque vous activez le chiffrement par défaut, vous devrez peut-être mettre à jour votre stratégie de bucket. Pour en savoir plus sur le passage des règles de bucket au chiffrement par défaut, consultez le guide de l'utilisateur d'Amazon Simple Storage Service.

CLI AWS

Créer une clé KMS

aws kms create-key \
  --description "Key to encrypt S3 buckets"

Activer la rotation des clés

aws kms enable-key-rotation \
  --key-id <key_id_from_previous_command>

Mettre à jour le bucket

aws s3api put-bucket-encryption \
  --bucket my-bucket \
  --server-side-encryption-configuration '{"Rules": [{"ApplyServerSideEncryptionByDefault": {"KMSMasterKeyID": "<id_from_key>", "SSEAlgorithm": "AES256"}}]}'

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Sagemaker Notebook Instance Kms Key Configured

Nom de la catégorie dans l'API : SAGEMAKER_NOTEBOOK_INSTANCE_KMS_KEY_CONFIGURED

Vérifie si une clé AWS Key Management Service (AWS KMS) est configurée pour une instance de notebook Amazon SageMaker La règle est NON_COMPLIANT si 'KmsKeyId' n'est pas spécifiée pour l'instance de notebook SageMaker.

Recommandation: Vérifie que toutes les instances de notebook SageMaker sont configurées pour utiliser KMS

Pour configurer KMS pour SageMaker, consultez la section Gestion des clés dans la documentation Amazon SageMaker.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Sagemaker Notebook No Direct Internet Access

Nom de la catégorie dans l'API : SAGEMAKER_NOTEBOOK_NO_DIRECT_INTERNET_ACCESS

Vérifie si l'accès direct à Internet est désactivé pour une instance de notebook SageMaker. Pour ce faire, il vérifie si le champ "DirectInternetAccess" est désactivé pour l'instance de notebook.

Si vous configurez votre instance SageMaker sans VPC, l'accès Internet direct est activé par défaut sur votre instance. Vous devez configurer votre instance avec un VPC et définir le paramètre par défaut sur "Désactiver : accéder à Internet via un VPC".

Pour entraîner ou héberger des modèles à partir d'un notebook, vous avez besoin d'un accès à Internet. Pour activer l'accès à Internet, assurez-vous que votre VPC dispose d'une passerelle NAT et que votre groupe de sécurité autorise les connexions sortantes. Pour en savoir plus sur la connexion d'une instance de notebook aux ressources d'un VPC, consultez "Connecter une instance de notebook aux ressources d'un VPC" du guide du développeur Amazon SageMaker.

Vous devez également vous assurer que l'accès à votre configuration SageMaker est réservé aux seuls utilisateurs autorisés. Limitez les autorisations IAM des utilisateurs pour qu'ils ne puissent pas modifier les paramètres et les ressources SageMaker.

Recommandation: Vérifie si l'accès direct à Internet est désactivé pour toutes les instances de notebook Amazon SageMaker

Pour corriger ce problème, procédez comme suit:

Console AWS

Notez que vous ne pouvez pas modifier le paramètre d'accès à Internet une fois une instance de notebook créée. Elle doit être arrêtée, supprimée et recréée.

Pour configurer une instance de notebook SageMaker afin de refuser l'accès direct à Internet :

  1. Ouvrez la console SageMaker à l'adresse https://console.aws.amazon.com/sagemaker/.
  2. Accédez à "Instances de notebook".
  3. Supprimez l'instance pour laquelle l'accès direct à Internet est activé. Choisissez l'instance, choisissez "Actions", puis choisissez "Arrêter".
  4. Une fois l'instance arrêtée, sélectionnez "Actions", puis "Supprimer".
  5. Sélectionnez "Créer une instance de notebook". Fournissez les informations de configuration.
  6. Développez la section "Réseau", puis choisissez un VPC, un sous-réseau et un groupe de sécurité. Sous "Accès direct à Internet", sélectionnez "Désactiver : accéder à Internet via un VPC".
  7. Sélectionnez "Créer une instance de notebook".

Pour en savoir plus, consultez la section "Connecter une instance de notebook aux ressources d'un VPC" du guide du développeur Amazon SageMaker.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Secretsmanager Rotation Enabled Check

Nom de la catégorie dans l'API : SECRETSMANAGER_ROTATION_ENABLED_CHECK

Vérifie si un secret stocké dans AWS Secrets Manager est configuré avec la rotation automatique. Le contrôle échoue si le secret n'est pas configuré avec la rotation automatique. Si vous fournissez une valeur personnalisée pour le paramètre maximumAllowedRotationFrequency, la commande n'est efficace que si le secret est automatiquement alterné dans la fenêtre temporelle spécifiée.

Secret Manager vous aide à améliorer la stratégie de sécurité de votre organisation. Les secrets incluent les identifiants de la base de données, les mots de passe et les clés API tierces. Vous pouvez utiliser Secret Manager pour stocker les secrets de manière centralisée, les chiffrer automatiquement, en contrôler l'accès et effectuer une rotation automatique et sécurisée des secrets.

Secret Manager peut faire tourner les secrets. Vous pouvez utiliser la rotation pour remplacer les secrets à long terme par des secrets à court terme. La rotation de vos codes secrets limite la durée pendant laquelle un utilisateur non autorisé peut utiliser un code secret compromis. C'est pourquoi vous devez effectuer une rotation fréquente de vos secrets. Pour en savoir plus sur la rotation, consultez la section "Effectuer une rotation de vos secrets AWS Secrets Manager" dans le guide de l'utilisateur AWS Secrets Manager.

Recommandation: Vérifiez que la rotation de tous les secrets AWS Secrets Manager est activée

Pour activer la rotation automatique des secrets AWS Secrets Manager, consultez "Configurer la rotation automatique des secrets AWS Secrets Manager à l'aide de la console" dans le guide de l'utilisateur AWS Secrets Manager. Vous devez choisir et configurer une fonction AWS Lambda pour la rotation.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Sns Encrypted Kms

Nom de la catégorie dans l'API : SNS_ENCRYPTED_KMS

Vérifie si un sujet SNS est chiffré au repos à l'aide d'AWS KMS. Les contrôles échouent si un sujet SNS n'utilise pas de clé KMS pour le chiffrement côté serveur (SSE).

Le chiffrement des données au repos réduit le risque d'accès aux données stockées sur un disque par un utilisateur non authentifié auprès d'AWS. Elle ajoute également un autre ensemble de contrôles d'accès afin de limiter la possibilité pour les utilisateurs non autorisés d'accéder aux données. Par exemple, des autorisations d'API sont requises pour déchiffrer les données avant de pouvoir les lire. Les sujets SNS doivent être chiffrés au repos pour un niveau de sécurité supplémentaire.

Recommandation: Vérifie que tous les sujets SNS sont chiffrés avec KMS

Pour activer SSE pour un sujet SNS, consultez "Activer le chiffrement côté serveur (SSE) pour un sujet Amazon SNS" du guide du développeur Amazon Simple Notification Service. Avant de pouvoir utiliser SSE, vous devez également configurer des stratégies de clé KMS AWS afin d'autoriser le chiffrement des sujets, ainsi que le chiffrement et le déchiffrement des messages. Pour en savoir plus, consultez "Configurer des autorisations KMS AWS" dans le guide du développeur Amazon Simple Notification Service.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Vpc Default Security Group Closed

Nom de la catégorie dans l'API : VPC_DEFAULT_SECURITY_GROUP_CLOSED

Cette commande vérifie si le groupe de sécurité par défaut d'un VPC autorise le trafic entrant ou sortant. Le contrôle échoue si le groupe de sécurité autorise le trafic entrant ou sortant.

Les règles du groupe de sécurité par défaut autorisent tout le trafic sortant et entrant provenant d'interfaces réseau (et de leurs instances associées) attribuées au même groupe de sécurité. Nous vous recommandons de ne pas utiliser le groupe de sécurité par défaut. Étant donné que le groupe de sécurité par défaut ne peut pas être supprimé, vous devez modifier le paramètre des règles du groupe de sécurité par défaut pour limiter le trafic entrant et sortant. Cela permet d'éviter tout trafic indésirable si le groupe de sécurité par défaut est accidentellement configuré pour des ressources telles que les instances EC2.

Recommandation: Assurez-vous que le groupe de sécurité par défaut de chaque VPC limite tout le trafic

Pour résoudre ce problème, commencez par créer des groupes de sécurité de moindre privilège. Pour obtenir des instructions, consultez la section "Créer un groupe de sécurité" du guide de l'utilisateur du VPC Amazon. Attribuez ensuite les nouveaux groupes de sécurité à vos instances EC2. Pour obtenir des instructions, consultez "Modifier le groupe de sécurité d'une instance" dans le guide de l'utilisateur Amazon EC2 pour les instances Linux.

Après avoir attribué les nouveaux groupes de sécurité à vos ressources, supprimez toutes les règles entrantes et sortantes des groupes de sécurité par défaut. Pour savoir comment procéder, consultez la section "Supprimer des règles de groupe de sécurité" du guide de l'utilisateur Amazon VPC.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Vpc Flow Logging Enabled All Vpcs

Nom de la catégorie dans l'API : VPC_FLOW_LOGGING_ENABLED_ALL_VPCS

Les journaux de flux VPC sont une fonctionnalité qui vous permet de collecter des informations sur le trafic IP entre les différentes interfaces réseau de votre VPC. Après avoir créé un journal de flux, vous pouvez afficher et récupérer ses données dans les journaux Amazon CloudWatch. Il est recommandé d'activer les journaux de flux VPC pour les refus de paquets pour les VPC.

Recommandation: Assurez-vous que la journalisation de flux VPC est activée dans tous les VPC

Pour corriger ce problème, procédez comme suit:

Console AWS

  1. Se connecter à la console de gestion
  2. Sélectionner Services, puis VPC
  3. Dans le volet de navigation de gauche, sélectionnez Your VPCs.
  4. Sélectionner un VPC
  5. Dans le volet de droite, sélectionnez l'onglet Flow Logs.
  6. Si aucun journal de flux n'existe, cliquez sur Create Flow Log.
  7. Pour le filtre, sélectionnez Reject.
  8. Saisissez un Role et un Destination Log Group
  9. Cliquez sur Create Log Flow.
  10. Cliquez sur CloudWatch Logs Group.

Remarque:Définir le filtre sur "Refuser" permet de réduire considérablement l'accumulation de données de journalisation pour cette recommandation et de fournir suffisamment d'informations pour détecter les violations, effectuer des recherches dans le but de rechercher et résoudre des problèmes. Toutefois, pendant les périodes d'ingénierie de groupes de sécurité avec le principe du moindre privilège, définir ce filtre sur "Tout" peut être très utile pour découvrir les flux de trafic existants requis pour le bon fonctionnement d'un environnement déjà en cours d'exécution.

CLI AWS

  1. Créez un document de règles et nommez-le role_policy_document.json, puis collez-y le contenu suivant :
{
 "Version": "2012-10-17",
 "Statement": [
 {
 "Sid": "test",
 "Effect": "Allow",
 "Principal": {
 "Service": "ec2.amazonaws.com"
 },
 "Action": "sts:AssumeRole"
 }
 ]
}
  1. Créez un autre document de stratégie, nommez-le iam_policy.json et collez le contenu suivant:
{
 "Version": "2012-10-17",
 "Statement": [
 {
 "Effect": "Allow",
 "Action":[
 "logs:CreateLogGroup",
 "logs:CreateLogStream",
 "logs:DescribeLogGroups",
 "logs:DescribeLogStreams",
 "logs:PutLogEvents",
 "logs:GetLogEvents",
 "logs:FilterLogEvents"
 ],
 "Resource": "*"
 }
 ]
}
  1. Exécutez la commande ci-dessous pour créer un rôle IAM :
aws iam create-role --role-name <aws_support_iam_role> --assume-role-policy-document file://<file-path>role_policy_document.json
  1. Exécutez la commande suivante pour créer une stratégie IAM:
aws iam create-policy --policy-name <ami-policy-name> --policy-document file://<file-path>iam-policy.json
  1. Exécutez la commande attach-group-policy à l'aide de l'ARN de stratégie IAM renvoyé à l'étape précédente pour associer la stratégie au rôle IAM (si la commande aboutit, aucun résultat n'est renvoyé):
aws iam attach-group-policy --policy-arn arn:aws:iam::<aws-account-id>:policy/<iam-policy-name> --group-name <group-name>
  1. Exécutez describe-vpcs pour obtenir le VpcId disponible dans la région sélectionnée:
aws ec2 describe-vpcs --region <region>
  1. Le résultat de la commande doit renvoyer l'ID de VPC disponible dans la région sélectionnée.
  2. Exécutez create-flow-logs pour créer un journal de flux pour le VPC:
aws ec2 create-flow-logs --resource-type VPC --resource-ids <vpc-id> --traffic-type REJECT --log-group-name <log-group-name> --deliver-logs-permission-arn <iam-role-arn>
  1. Répétez l'étape 8 pour les autres VPC disponibles dans la région sélectionnée.
  2. Modifiez la région en mettant à jour l'option --region et répétez la procédure de correction pour les autres VPC.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Vpc Sg Open Only To Authorized Ports

Nom de la catégorie dans l'API : VPC_SG_OPEN_ONLY_TO_AUTHORIZED_PORTS

Cette commande vérifie si un groupe de sécurité Amazon EC2 autorise le trafic entrant non restreint provenant de ports non autorisés. L'état de la commande est déterminé comme suit :

Si vous utilisez la valeur par défaut pour allowedTcpPorts, le contrôle échoue si le groupe de sécurité autorise le trafic entrant sans restriction depuis tout port autre que les ports 80 et 443.

Si vous fournissez des valeurs personnalisées pour authorizedTcpPorts ou authorizedUdpPorts, la vérification échoue si le groupe de sécurité autorise le trafic entrant illimité à partir de n'importe quel port non listé.

Si aucun paramètre n'est utilisé, le contrôle échoue pour tout groupe de sécurité disposant d'une règle de trafic entrant non restreint.

Les groupes de sécurité permettent un filtrage avec état du trafic réseau entrant et sortant vers AWS. Les règles de groupe de sécurité doivent suivre le principe du moindre privilège. L'accès non restreint (adresse IP avec un suffixe /0) augmente le risque d'activités malveillantes telles que le piratage, les attaques par déni de service et la perte de données. Sauf si un port est spécifiquement autorisé, il doit refuser l'accès non restreint.

Recommandation: Vérifie que les groupes de sécurité avec la plage 0.0.0.0/0 de n'importe quel VPC n'autorisent que le trafic TCP/UDP entrant spécifique

Pour modifier un groupe de sécurité, consultez Utiliser des groupes de sécurité dans le guide de l'utilisateur Amazon VPC.

En savoir plus sur ce type de résultat les éléments compatibles et les paramètres d'analyse.

Both VPC VPN Tunnels Up

Nom de la catégorie dans l'API : VPC_VPN_2_TUNNELS_UP

Un tunnel VPN est un lien chiffré par lequel les données peuvent passer du réseau client vers ou depuis AWS dans une connexion VPN de site à site AWS. Chaque connexion VPN comprend deux tunnels VPN que vous pouvez utiliser simultanément pour garantir une haute disponibilité. Il est important de s'assurer que les deux tunnels VPN sont opérationnels pour une connexion VPN afin de confirmer l'existence d'une connexion sécurisée et à disponibilité élevée entre un VPC AWS et votre réseau distant.

Cette commande vérifie que les deux tunnels VPN fournis par AWS Site-to-Site VPN sont activés. Le contrôle échoue si l'un des tunnels ou les deux sont à l'état ARRÊTÉ.

Recommandation: Vérifie que les deux tunnels VPN AWS fournis par AWS site à site sont activés

Pour modifier les options de tunnel VPN, consultez Modifier les options de tunnel VPN de site à site dans le guide de l'utilisateur AWS Site-to-Site VPN.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.