Corriger les résultats de Security Health Analytics

Cette page fournit une liste de guides de référence et de techniques permettant de corriger les résultats de Security Health Analytics à l'aide de Security Command Center.

Vous devez disposer des rôles IAM (Identity and Access Management) appropriés pour afficher ou modifier les résultats, et pour accéder aux ressources Google Cloud ou les modifier. Si vous rencontrez des erreurs d'autorisation lorsque vous accédez à Security Command Center dans la console Google Cloud, demandez de l'aide à votre administrateur. Pour en savoir plus sur les rôles, consultez la section Contrôle des accès. Pour résoudre les erreurs de ressources, consultez la documentation des produits concernés.

Correction de Security Health Analytics

Cette section inclut des instructions correctives pour tous les résultats d'analyses de l'état de sécurité.

Pour les types de résultats mappés aux benchmarks CIS, les conseils de résolution proviennent du Center for Internet Security (CIS), sauf indication contraire. Pour en savoir plus, consultez la section Détecteurs et conformité.

Désactivation des résultats après résolution

Une fois que vous avez corrigé une faille ou une erreur de configuration, Security Health Analytics définit automatiquement l'état de la recherche sur INACTIVE la prochaine fois qu'il l'analyse. Le temps nécessaire à Security Health Analytics pour définir un résultat corrigé sur INACTIVE dépend du moment où le résultat est corrigé et de la planification de l'analyse qui le détecte.

Security Health Analytics définit également l'état d'un résultat sur INACTIVE lorsqu'une analyse détecte que la ressource concernée par le résultat est supprimée. Si vous souhaitez supprimer un résultat concernant une ressource supprimée de votre écran en attendant que Security Health Analytics détecte que la ressource est supprimée, vous pouvez couper le son du résultat. Pour ignorer un résultat, consultez la section Ignorer les résultats dans Security Command Center.

N'utilisez pas la désactivation pour masquer les résultats résolus pour les ressources existantes. Si le problème se reproduit et que Security Health Analytics rétablit l'état ACTIVE du résultat, il est possible que vous ne voyiez pas le résultat réactivé, car les résultats masqués sont exclus de toute requête de résultat qui spécifie NOT mute="MUTED", comme la requête de résultat par défaut.

Pour en savoir plus sur les intervalles d'analyse, consultez la section Types d'analyse de Security Health Analytics.

Access Transparency disabled

Nom de la catégorie dans l'API : ACCESS_TRANSPARENCY_DISABLED

Access Transparency enregistre les accès des employés Google Cloud aux projets de votre organisation pour vous fournir une assistance. Activez Access Transparency pour enregistrer qui, dans Google Cloud, accède à vos informations, quand et pourquoi. Pour en savoir plus, consultez Access Transparency.

Pour activer Access Transparency sur un projet, celui-ci doit être associé à un compte de facturation.

Rôles requis

Pour obtenir les autorisations nécessaires pour effectuer cette tâche, demandez à votre administrateur de vous accorder le rôle IAM Administrateur de la transparence des accès (roles/axt.admin) au niveau de l'organisation. Pour en savoir plus sur l'attribution de rôles, consultez la section Gérer les accès.

Ce rôle prédéfini contient les autorisations axt.labels.get et axt.labels.set, qui sont requises pour effectuer cette tâche. Vous pouvez également obtenir ces autorisations avec un rôle personnalisé ou d'autres rôles prédéfinis.

Étapes de résolution

Pour corriger ce résultat, procédez comme suit :

  1. Vérifiez les autorisations au niveau de votre organisation :

    1. Accédez à la page Identity and Access Management (Gestion de l'authentification et des accès) dans la console Google Cloud.

      Accéder à Identity and Access Management

    2. Si vous y êtes invité, sélectionnez l'organisation Google Cloud dans le menu de sélection.

  2. Sélectionnez un projet Google Cloud au sein de l'organisation à l'aide du menu de sélection.

    Même si la configuration d'Access Transparency s'effectue sur une page de projet Google Cloud, la fonctionnalité est activée pour l'ensemble de l'organisation.

  3. Accédez à la page IAM et administration > Paramètres.

  4. Cliquez sur Activer Access Transparency.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

AlloyDB auto backup disabled

Nom de la catégorie dans l'API : ALLOYDB_AUTO_BACKUP_DISABLED

Les sauvegardes automatiques ne sont pas activées pour un cluster AlloyDB pour PostgreSQL.

Pour éviter de perdre des données, activez les sauvegardes automatiques pour votre cluster. Pour en savoir plus, consultez Configurer des sauvegardes automatiques supplémentaires.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans la console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Cliquez sur un cluster dans la colonne Nom de la ressource.

  3. Cliquez sur Protection des données.

  4. Sous la section Règle de sauvegarde automatique, cliquez sur Modifier à la ligne Sauvegardes automatiques.

  5. Cochez la case Automatiser les sauvegardes.

  6. Cliquez sur Mettre à jour.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

AlloyDB backups disabled

Nom de la catégorie dans l'API : ALLOYDB_BACKUPS_DISABLED

Les sauvegardes automatiques et continues ne sont pas activées pour un cluster AlloyDB pour PostgreSQL.

Pour éviter de perdre des données, activez les sauvegardes automatiques ou continues pour votre cluster. Pour en savoir plus, consultez Configurer des sauvegardes supplémentaires.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans la console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Dans la colonne Nom de la ressource, cliquez sur le nom du cluster identifié dans le résultat.

  3. Cliquez sur Protection des données.

  4. Configurez une stratégie de sauvegarde.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

AlloyDB CMEK disabled

Nom de la catégorie dans l'API : ALLOYDB_CMEK_DISABLED

Un cluster AlloyDB n'utilise pas de clés de chiffrement gérées par le client (CMEK).

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés que Google utilise pour chiffrer vos données, vous permettant ainsi de mieux contrôler vos accès. Pour en savoir plus, consultez la page À propos de CMEK. CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans la console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Dans la colonne Nom de la ressource, cliquez sur le nom du cluster identifié dans le résultat.

  3. Cliquez sur Créer une sauvegarde. Définissez un ID de sauvegarde.

  4. Cliquez sur Créer.

  5. Dans la section Sauvegarder/Restaurer, cliquez sur Restaurer à côté de l'entrée ID de sauvegarde que vous avez choisie.

  6. Définissez un nouvel ID de cluster et un nouveau réseau.

  7. Cliquez sur Options de chiffrement avancées. Sélectionnez la CMEK avec laquelle vous souhaitez chiffrer le nouveau cluster.

  8. Cliquez sur Restaurer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

AlloyDB log min error statement severity

Nom de la catégorie dans l'API : ALLOYDB_LOG_MIN_ERROR_STATEMENT_SEVERITY

L'indicateur de base de données log_min_error_statement d'une instance AlloyDB pour PostgreSQL n'est pas défini sur error ou sur une autre valeur recommandée.

L'option log_min_error_statement détermine si les instructions SQL provoquant des conditions d'erreur sont enregistrées dans les journaux du serveur. Les instructions SQL présentant un niveau de gravité supérieur ou égal à celui spécifié sont consignées. Plus le niveau de gravité est élevé, moins le nombre de messages enregistrés est important. Si elle est définie sur un niveau de gravité trop élevé, il se peut que les messages d'erreur ne soient pas consignés.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans la console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Cliquez sur le cluster dans la colonne Nom de la ressource.

  3. Dans la section Instances de votre cluster, cliquez sur Modifier pour l'instance.

  4. Cliquez sur Options de configuration avancées.

  5. Dans la section Options, définissez l'option de base de données log_min_error_statement sur l'une des valeurs recommandées suivantes, en fonction de la stratégie de journalisation de votre organisation.

    • debug5
    • debug4
    • debug3
    • debug2
    • debug1
    • info
    • notice
    • warning
    • error
  6. Cliquez sur Mettre à jour l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

AlloyDB log min messages

Nom de la catégorie dans l'API : ALLOYDB_LOG_MIN_MESSAGES

L'indicateur de base de données log_min_messages n'est pas défini sur au moins warning pour une instance AlloyDB pour PostgreSQL.

L'indicateur log_min_messages contrôle les niveaux de message enregistrés dans les journaux du serveur. Plus le niveau de gravité est élevé, moins le nombre de messages enregistrés est important. Si vous définissez un seuil trop bas, la taille et la longueur des journaux stockés peuvent augmenter, ce qui risque de compliquer la recherche d'erreurs réelles.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans la console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Cliquez sur le cluster dans la colonne Nom de la ressource.

  3. Dans la section Instances de votre cluster, cliquez sur Modifier pour l'instance.

  4. Cliquez sur Options de configuration avancées.

  5. Dans la section Options, définissez l'option de base de données log_min_messages sur l'une des valeurs recommandées suivantes, en fonction de la stratégie de journalisation de votre organisation.

    • debug5
    • debug4
    • debug3
    • debug2
    • debug1
    • info
    • notice
    • warning
  6. Cliquez sur Mettre à jour l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

AlloyDB log error verbosity

Nom de la catégorie dans l'API : ALLOYDB_LOG_ERROR_VERBOSITY

L'indicateur de base de données log_error_verbosity d'une instance AlloyDB pour PostgreSQL n'est pas défini sur default ou une autre valeur moins restrictive.

L'indicateur log_error_verbosity contrôle la quantité de détails des messages consignés. Plus la verbosité est élevée, plus les messages enregistrés contiennent de détails. Nous vous recommandons de définir cette option sur default ou sur une autre valeur moins restrictive.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans la console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Cliquez sur le cluster dans la colonne Nom de la ressource.

  3. Dans la section Instances de votre cluster, cliquez sur Modifier pour l'instance.

  4. Cliquez sur Options de configuration avancées.

  5. Dans la section Options, définissez l'option de base de données log_error_verbosity sur l'une des valeurs recommandées suivantes, en fonction de la stratégie de journalisation de votre organisation.

    • default
    • verbose
  6. Cliquez sur Mettre à jour l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

AlloyDB Public IP

Nom de la catégorie dans l'API : ALLOYDB_PUBLIC_IP

Une instance de base de données AlloyDB pour PostgreSQL possède une adresse IP publique.

Pour réduire la surface d'attaque de votre organisation, utilisez des adresses IP privées plutôt que publiques. Les adresses IP privées offrent une sécurité réseau améliorée et une latence réduite pour votre application.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans la console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Dans la colonne Nom de la ressource, cliquez sur le nom du cluster identifié dans le résultat.

  3. Dans la section Instances de votre cluster, cliquez sur Modifier pour l'instance.

  4. Dans la section Connectivité, décochez la case Activer les adresses IP publiques.

  5. Cliquez sur Mettre à jour l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

AlloyDB SSL not enforced

Nom de la catégorie dans l'API : ALLOYDB_SSL_NOT_ENFORCED

Une instance de base de données AlloyDB pour PostgreSQL ne nécessite pas que toutes les connexions entrantes utilisent SSL.

Pour éviter toute fuite de données sensibles pendant leur transit via des communications non chiffrées, toutes les connexions entrantes à votre instance de base de données AlloyDB doivent utiliser le protocole SSL. Apprenez-en plus sur la configuration de SSL/TLS.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des clusters AlloyDB pour PostgreSQL dans la console Google Cloud.

    Accéder aux clusters AlloyDB pour PostgreSQL

  2. Dans la colonne Nom de la ressource, cliquez sur le nom du cluster identifié dans le résultat.

  3. Dans la section Instances de votre cluster, cliquez sur Modifier pour l'instance.

  4. Sous la section Sécurité réseau, cochez la case Chiffrement SSL requis.

  5. Cliquez sur Mettre à jour l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Admin service account

Nom de la catégorie dans l'API : ADMIN_SERVICE_ACCOUNT

Un compte de service au sein de votre organisation ou de votre projet bénéficie des droits d'administrateur, de propriétaire ou d'éditeur. Ces rôles disposent d'autorisations étendues et ne doivent pas être attribués à des comptes de service. Pour en savoir plus sur les comptes de service et les rôles disponibles, consultez la page Comptes de service.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page IAM de la console Google Cloud.

    Accéder à la stratégie IAM

  2. Pour chaque compte principal identifié dans le résultat :

    1. Cliquez sur Modifier le compte principal à côté du compte principal.
    2. Pour supprimer des autorisations, cliquez sur Supprimer le rôle à côté du rôle.
    3. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Alpha cluster enabled

Nom de la catégorie dans l'API : ALPHA_CLUSTER_ENABLED

Les fonctionnalités de cluster alpha sont activées pour un cluster Google Kubernetes Engine (GKE).

Les clusters alpha permettent aux utilisateurs de la première heure de tester des charges de travail exploitant de nouvelles fonctionnalités avant leur lancement public. Toutes les fonctionnalités de l'API GKE sont activées sur les clusters alpha, mais ceux-ci ne sont pas couverts par le contrat de niveau de service GKE. Ils ne reçoivent pas de mises à jour de sécurité. Les fonctionnalités de mise à niveau et de réparation automatiques des nœuds y sont désactivées, et ils ne peuvent pas être mis à niveau. Ils sont aussi automatiquement supprimés au bout de 30 jours.

Pour corriger ce résultat, procédez comme suit :

Les clusters alpha ne peuvent pas être désactivés. Vous devez créer un cluster avec les fonctionnalités alpha désactivées.

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur Create (Créer).

  3. Sélectionnez Configurer à côté du type de cluster que vous souhaitez créer.

  4. Sous l'onglet Fonctionnalités, assurez-vous que l'option Activer les fonctionnalités alpha Kubernetes dans ce cluster est désactivée.

  5. Cliquez sur Create (Créer).

  6. Pour déplacer des charges de travail vers le nouveau cluster, consultez la section Migrer des charges de travail vers différents types de machines.

  7. Pour supprimer le cluster d'origine, consultez la section Supprimer un cluster.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

API key APIs unrestricted

Nom de la catégorie dans l'API : API_KEY_APIS_UNRESTRICTED

Certaines clés API sont utilisées à trop grande échelle.

Les clés API sans restriction ne sont pas sécurisées, car elles peuvent être récupérées à partir d'appareils sur lesquels elles sont stockées ou visibles publiquement, par exemple à partir d'un navigateur. Conformément au principe du moindre privilège, configurez les clés API pour n'appeler que les API requises par l'application. Pour en savoir plus, consultez Appliquer des restrictions de clé API.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés API de la console Google Cloud.

    Accéder aux Clés API

  2. Pour chaque clé API :

    1. Dans la section Clés API, sur la ligne correspondant à chaque clé API pour laquelle vous devez restreindre des API, cliquez sur Actions.
    2. Dans le menu Actions, cliquez sur Modifier la clé API. La page Modifier la clé API s'affiche.
    3. Dans la section Restrictions relatives aux API, sélectionnez Restreindre des API. Le menu déroulant Sélectionner des API s'affiche.
    4. Dans la liste déroulante Sélectionner des API, choisissez les API que vous souhaitez autoriser.
    5. Cliquez sur Enregistrer. L'application des paramètres peut prendre jusqu'à cinq minutes.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

API key apps unrestricted

Nom de la catégorie dans l'API : API_KEY_APPS_UNRESTRICTED

Des clés API sont utilisées de manière non restreinte, autorisant une utilisation par n'importe quelle application non approuvée.

Les clés API sans restriction ne sont pas sécurisées, car elles peuvent être récupérées sur des appareils qui les stockeront ou les rendront visibles au public, par exemple depuis un navigateur. Conformément au principe du moindre privilège, limitez l'utilisation des clés API aux hôtes, référents HTTP et applications de confiance. Pour en savoir plus, consultez Appliquer des restrictions de clé API.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés API de la console Google Cloud.

    Accéder aux Clés API

  2. Pour chaque clé API :

    1. Dans la section Clés API, sur la ligne correspondant à chaque clé API pour laquelle vous devez restreindre des applications, cliquez sur Actions.
    2. Dans le menu Actions, cliquez sur Modifier la clé API. La page Modifier la clé API s'affiche.
    3. Sur la page Modifier la clé API, sous Restrictions liées aux applications, sélectionnez une catégorie de restriction. Vous pouvez définir une restriction de ce type par clé.
    4. Dans le champ Ajouter un élément, qui s'affiche lorsque vous sélectionnez une restriction, cliquez sur Ajouter un élément pour ajouter des restrictions en fonction des besoins de votre application.
    5. Une fois les éléments ajoutés, cliquez sur Terminé.
    6. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

API key exists

Nom de la catégorie dans l'API : API_KEY_EXISTS

Un projet utilise des clés API au lieu de l'authentification standard.

Les clés API sont moins sécurisées que les autres méthodes d'authentification, car il s'agit de chaînes simples chiffrées qui peuvent être facilement découvertes et utilisées par d'autres utilisateurs. Elles peuvent être récupérées sur des appareils qui les stockeront ou les rendront visibles de tous, par exemple dans un navigateur. De plus, les clés API n'identifient pas de manière unique les utilisateurs ou les applications qui effectuent des requêtes. Vous pouvez également utiliser un flux d'authentification standard, avec des comptes de service ou des comptes utilisateur.

Pour corriger ce résultat, procédez comme suit :

  1. Assurez-vous que vos applications sont configurées avec une autre forme d'authentification.
  2. Accédez à la page des identifiants d'API dans la console Google Cloud.

    Accéder aux identifiants de l'API

  3. Dans la section Clés API, sur la ligne correspondant à chaque clé API que vous souhaitez supprimer, cliquez sur Actions.

  4. Dans le menu Actions, cliquez sur Supprimer la clé API.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

API key not rotated

Nom de la catégorie dans l'API : API_KEY_NOT_ROTATED

Une clé API n'a pas subi de rotation depuis plus de 90 jours.

Les clés API n'ont pas de date d'expiration. En cas de vol, la clé peut être utilisée indéfiniment, à moins que le propriétaire du projet ne décide de la révoquer ou d'alterner les clés. En régénérant fréquemment vos clés API, vous réduisez la durée pendant laquelle une clé API volée pourrait être utilisée pour accéder à des données depuis un compte compromis ou résilié. Effectuez une rotation des clés API au moins tous les 90 jours. Pour en savoir plus, consultez la section Bonnes pratiques pour gérer les clés API.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés API de la console Google Cloud.

    Accéder aux Clés API

  2. Pour chaque clé API :

    1. Dans la section Clés API, sur la ligne correspondant à chaque clé API que vous souhaitez faire pivoter, cliquez sur Actions.
    2. Dans le menu Actions, cliquez sur Modifier la clé API. La page Modifier la clé API s'affiche.
    3. Sur la page Modifier la clé API, si la date figurant dans le champ Date de création date de plus de 90 jours, cliquez sur Générer la clé à nouveau. Une nouvelle clé est générée.
    4. Cliquez sur Enregistrer.
    5. Pour vous assurer que vos applications continuent à fonctionner sans interruption, mettez-les à jour afin qu'elles utilisent la nouvelle clé API. L'ancienne clé API fonctionne pendant 24 heures avant d'être définitivement désactivée.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Audit config not monitored

Nom de la catégorie dans l'API : AUDIT_CONFIG_NOT_MONITORED

Les métriques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées à la configuration d'audit.

Cloud Audit Logging génère des journaux sur l'activité des administrateurs et les accès aux données, qui permettent d'effectuer des analyses de sécurité, le suivi des modifications des ressources et des audits de conformité. En surveillant les modifications apportées à la configuration d'audit, vous vous assurez que toutes les activités de votre projet peuvent être auditées à tout moment. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez les tarifs de Google Cloud Observability.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, créez des métriques, si nécessaire, et des règles d'alerte :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      protoPayload.methodName="SetIamPolicy"
      AND protoPayload.serviceData.policyDelta.auditConfigDeltas:*

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification en cas d'ouverture et de fermeture d'un incident, cochez la case Notifier en cas de fermeture des incidents. Par défaut, les notifications ne sont envoyées que lorsque des incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Audit logging disabled

Nom de la catégorie dans l'API : AUDIT_LOGGING_DISABLED

Cette information n'est pas disponible pour les activations au niveau du projet.

La journalisation d'audit est désactivée pour un ou plusieurs services Google Cloud, ou un ou plusieurs principaux sont exemptés de la journalisation d'audit d'accès aux données.

Activez Cloud Logging pour tous les services afin de suivre l'ensemble des activités d'administration, ainsi que des accès en lecture et en écriture aux données utilisateur. Selon la quantité d'informations, les coûts liés à Cloud Logging peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez les tarifs de Google Cloud Observability.

Si des comptes principaux sont exemptés de la journalisation d'audit des accès aux données dans la configuration par défaut de la journalisation d'audit des accès aux données ou dans les configurations de journalisation de services individuels, supprimez l'exception.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Configuration par défaut des journaux d'audit des accès aux données dans la console Google Cloud.

    Accéder à la configuration par défaut

  2. Dans l'onglet Log types (Types de journaux), activez la journalisation d'audit des accès aux données dans la configuration par défaut:

    1. Sélectionnez Admin Read (Lecture administrateur), Data Read (Lecture de données) et Data Write (Écriture de données).
    2. Cliquez sur Enregistrer.
  3. Dans l'onglet Principals exemptés, supprimez tous les utilisateurs exemptés de la configuration par défaut:

    1. Supprimez chaque compte principal listé en cliquant sur Supprimer à côté de chaque nom.
    2. Cliquez sur Enregistrer.
  4. Accédez à la page Journaux d'audit.

    Accéder aux journaux d'audit

  5. Supprimez tous les comptes principaux exemptés des configurations de journal d'audit des accès aux données des services individuels.

    1. Sous Configuration des journaux d'audit des accès aux données, cliquez sur chaque service pour lequel un compte principal exempté est affiché. Un panneau de configuration des journaux d'audit s'ouvre pour le service.
    2. Dans l'onglet Comptes principaux exemptés, supprimez tous les comptes principaux exemptés en cliquant sur  Supprimer à côté de chaque nom.
    3. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Auto backup disabled

Nom de la catégorie dans l'API : AUTO_BACKUP_DISABLED

Les sauvegardes automatiques ne sont pas activées pour une base de données Cloud SQL.

Pour éviter toute perte de données, activez les sauvegardes automatiques pour vos instances SQL. Pour plus d'informations, consultez la section Créer et gérer des sauvegardes à la demande et automatiques.

Pour corriger ce résultat, procédez comme suit :

  1. Dans la console Google Cloud, accédez à la page Instances Cloud SQL.

    Accéder à la page "Instances"

  2. Cliquez sur le nom de l'instance.

  3. Cliquez sur Sauvegardes.

  4. À côté de Paramètres, cliquez sur Modifier.

  5. Cochez la case Sauvegardes quotidiennes automatiques.

  6. Facultatif: Dans le champ Nombre de jours, saisissez le nombre de jours de sauvegardes que vous souhaitez conserver.

  7. Facultatif: Dans la liste Intervalle de sauvegarde, sélectionnez la période pendant laquelle les sauvegardes doivent être effectuées.

  8. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Auto repair disabled

Nom de la catégorie dans l'API : AUTO_REPAIR_DISABLED

La fonctionnalité de réparation automatique d'un cluster Google Kubernetes Engine (GKE), qui permet de maintenir les nœuds dans un état sain et d'exécution, est désactivée.

Lorsque cette fonction est activée, GKE vérifie périodiquement l'état de chaque nœud de votre cluster. Si les vérifications d'état réalisées sur un nœud échouent de manière consécutive sur une période prolongée, GKE déclenche un processus de réparation pour ce nœud. Pour en savoir plus, consultez la section Réparer automatiquement des nœuds.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur l'onglet Nœuds.

  3. Pour chaque pool de nœuds :

    1. Cliquez sur le nom du pool de nœuds pour accéder à sa page d'informations.
    2. Cliquez sur Modifier.
    3. Dans la section Gestion, sélectionnez Activer la réparation automatique.
    4. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Auto upgrade disabled

Nom de la catégorie dans l'API : AUTO_UPGRADE_DISABLED

La fonctionnalité de mise à niveau automatique des clusters GKE, qui conserve les clusters et les pools de nœuds sur la dernière version stable de Kubernetes, est désactivée.

Pour en savoir plus, consultez la page Mettre à niveau automatiquement des nœuds.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la liste des clusters, cliquez sur le nom du cluster.

  3. Cliquez sur l'onglet Nœuds.

  4. Pour chaque pool de nœuds :

    1. Cliquez sur le nom du pool de nœuds pour accéder à sa page d'informations.
    2. Cliquez sur Modifier.
    3. Sous Gestion, sélectionnez Activer la mise à niveau automatique.
    4. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

BigQuery table CMEK disabled

Nom de la catégorie dans l'API : BIGQUERY_TABLE_CMEK_DISABLED

Une table BigQuery n'est pas configurée pour utiliser une clé de chiffrement gérée par le client (CMEK).

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés utilisées par Google Cloud pour chiffrer vos données, ce qui vous permet de mieux contrôler l'accès à vos données. Pour en savoir plus, consultez la page Protéger des données avec des clés Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

  1. Créez une table protégée par Cloud Key Management Service.
  2. Copiez votre table dans la nouvelle table compatible avec les CMEK.
  3. Supprimez la table d'origine.

Pour définir une clé CMEK par défaut qui chiffre toutes les nouvelles tables d'un ensemble de données, consultez la page Définir une clé par défaut de l'ensemble de données.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Binary authorization disabled

Nom de la catégorie dans l'API : BINARY_AUTHORIZATION_DISABLED

L'autorisation binaire est désactivée sur un cluster GKE.

L'autorisation binaire inclut une fonctionnalité facultative qui protège la sécurité de la chaîne d'approvisionnement en n'autorisant que le déploiement des images de conteneurs signées par des autorités de confiance lors du processus de développement dans le cluster. Grâce au déploiement basé sur la signature, vous contrôlez mieux votre environnement de conteneurs, en vous assurant que seules les images validées peuvent être déployées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la section Sécurité, cliquez sur  Modifier dans la ligne Autorisation binaire.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  3. Dans la boîte de dialogue, sélectionnez Activer l'autorisation binaire.

  4. Cliquez sur Enregistrer les modifications.

  5. Accédez à la page de configuration de l'autorisation binaire.

    Accéder à la page "Autorisation binaire"

  6. Assurez-vous qu'une stratégie exigeant des certificateurs est configurée et que la règle par défaut du projet n'est pas configurée sur Autoriser toutes les images. Pour en savoir plus, consultez Configurer pour GKE.

    Pour vous assurer que les images qui ne respectent pas la stratégie sont autorisées à être déployées et que les violations sont consignées dans Cloud Audit Logs, vous pouvez activer le mode de simulation.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Bucket CMEK disabled

Nom de la catégorie dans l'API : BUCKET_CMEK_DISABLED

Un bucket n'est pas chiffré avec des clés de chiffrement gérées par le client (CMEK).

La définition d'une clé CMEK par défaut sur un bucket vous permet de mieux contrôler l'accès à vos données. Pour en savoir plus, consultez la page Clés de chiffrement gérées par le client.

Pour corriger ce résultat, utilisez CMEK avec un bucket en suivant la procédure Utiliser des clés de chiffrement gérées par le client. CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Bucket IAM not monitored

Nom de la catégorie dans l'API : BUCKET_IAM_NOT_MONITORED

Les métriques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées aux autorisations IAM Cloud Storage.

La surveillance des modifications apportées aux autorisations des buckets Cloud Storage vous permet d'identifier les utilisateurs bénéficiant de droits trop élevés ou les activités suspectes. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez les tarifs de Google Cloud Observability.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      resource.type=gcs_bucket
      AND protoPayload.methodName="storage.setIamPermissions"

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification en cas d'ouverture et de fermeture d'un incident, cochez la case Notifier en cas de fermeture des incidents. Par défaut, les notifications ne sont envoyées que lorsque des incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Bucket logging disabled

Nom de la catégorie dans l'API : BUCKET_LOGGING_DISABLED

La journalisation est désactivée dans un bucket de stockage.

Pour faciliter l'analyse des problèmes de sécurité et surveiller l'utilisation de l'espace de stockage, activez les journaux d'accès et les informations de stockage de vos buckets Cloud Storage. Les journaux d'accès fournissent des informations pour toutes les requêtes effectuées sur un bucket spécifié. Les journaux de stockage fournissent des informations sur l'espace de stockage consommé par ce bucket.

Pour corriger ce résultat, configurez la journalisation pour le bucket indiqué par le résultat de Security Health Analytics en suivant le guide Journaux d'accès et journaux de stockage.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Bucket policy only disabled

Nom de la catégorie dans l'API : BUCKET_POLICY_ONLY_DISABLED

L'accès uniforme au niveau du bucket, précédemment appelé "Stratégie du bucket seulement", n'est pas configuré.

L'accès uniforme au niveau du bucket simplifie le contrôle des accès au bucket en désactivant les autorisations au niveau des objets (LCA). Lorsque les autorisations Cloud IAM au niveau du bucket sont activées sur un bucket donné, elles seules définissent l'accès à ce bucket et aux objets qu'il contient. Pour en savoir plus, consultez la section Accès uniforme au niveau du bucket.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page du navigateur Cloud Storage dans la console Google Cloud.

    Accéder au navigateur Cloud Storage

  2. Dans la liste des buckets, cliquez sur le nom du bucket souhaité.

  3. Cliquez sur l'onglet Configuration.

  4. Sous Autorisations, sur la ligne Contrôle des accès, cliquez sur Modifier le modèle de contrôle des accès.

  5. Dans la boîte de dialogue, sélectionnez Uniforme.

  6. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Cloud Asset API disabled

Nom de la catégorie dans l'API : CLOUD_ASSET_API_DISABLED

Le service inventaire des éléments cloud n'est pas activé pour le projet.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Bibliothèque d'API de la console Google Cloud.

    Accéder à la bibliothèque d'API

  2. Recherchez Cloud Asset Inventory.

  3. Sélectionnez le résultat correspondant au service API Cloud Asset.

  4. Assurez-vous que API Enabled (API activée) s'affiche.

Cluster logging disabled

Nom de la catégorie dans l'API : CLUSTER_LOGGING_DISABLED

La journalisation n'est pas activée pour un cluster GKE.

Pour faciliter l'analyse des problèmes de sécurité et surveiller l'utilisation, activez Cloud Logging sur vos clusters.

Selon la quantité d'informations, les coûts liés à Cloud Logging peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez les tarifs de Google Cloud Observability.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Sélectionnez le cluster répertorié dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Dans la liste déroulante Ancien Stackdriver Logging ou Stackdriver Kubernetes Engine Monitoring, sélectionnez Activé.

    Ces options ne sont pas compatibles. Veillez à utiliser uniquement Stackdriver Kubernetes Engine Monitoring, ou à combiner les options Ancien Stackdriver Logging et Ancien Stackdriver Monitoring.

  5. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Cluster monitoring disabled

Nom de la catégorie dans l'API : CLUSTER_MONITORING_DISABLED

Monitoring est désactivé sur les clusters GKE.

Pour faciliter l'analyse des problèmes de sécurité et surveiller l'utilisation, activez Cloud Monitoring sur vos clusters.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez les tarifs de Google Cloud Observability.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Sélectionnez le cluster répertorié dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Dans la liste déroulante Ancien Legacy Stackdriver Monitoring ou Stackdriver Kubernetes Engine Monitoring, sélectionnez Activé.

    Ces options ne sont pas compatibles. Veillez à utiliser uniquement Stackdriver Kubernetes Engine Monitoring, ou à combiner les options Ancien Stackdriver Monitoring et Ancien Stackdriver Logging.

  5. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Cluster private Google access disabled

Nom de la catégorie dans l'API : CLUSTER_PRIVATE_GOOGLE_ACCESS_DISABLED

Les hôtes de cluster ne sont pas configurés pour utiliser uniquement des adresses IP internes privées afin d'accéder aux API Google.

L'accès privé à Google permet aux instances de machine virtuelle (VM) disposant uniquement d'adresses IP internes privées d'accéder aux adresses IP publiques des API et services Google. Pour plus d'informations, consultez la section Configurer l'accès privé à Google.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux de cloud privés virtuel dans la console Google Cloud.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau souhaité.

  3. Sur la page Détails du réseau VPC, cliquez sur l'onglet Sous-réseaux.

  4. Dans la liste des sous-réseaux, cliquez sur le nom du sous-réseau associé au cluster Kubernetes dans le résultat.

  5. Sur la page Détails du sous-réseau, cliquez sur Modifier.

  6. Dans le champ Accès privé à Google, sélectionnez Activé.

  7. Cliquez sur Enregistrer.

  8. Pour supprimer les adresses IP publiques (externes) des instances de VM dont le seul trafic externe est destiné aux API Google, consultez la section Annuler l'attribution d'une adresse IP externe statique.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Cluster secrets encryption disabled

Nom de la catégorie dans l'API : CLUSTER_SECRETS_ENCRYPTION_DISABLED

Le chiffrement des secrets au niveau de la couche d'application est désactivé sur un cluster GKE.

Le chiffrement des secrets au niveau de la couche d'application garantit que les secrets GKE sont chiffrés à l'aide de clés Cloud KMS. Cette fonctionnalité fournit une couche de sécurité supplémentaire pour les données sensibles, telles que les secrets définis par l'utilisateur et les secrets requis pour le fonctionnement du cluster, par exemple les clés de compte de service, qui sont toutes stockées dans etcd.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés Cloud KMS de la console Google Cloud.

    Accéder à la page Clés Cloud KMS

  2. Examinez vos clés d'application ou créez une clé de chiffrement de base de données (DEK). Pour en savoir plus, consultez la page Créer une clé Cloud KMS.

  3. Accédez à la page des clusters Kubernetes.

    Accéder à la page "Clusters Kubernetes"

  4. Sélectionnez le cluster dans le résultat.

  5. Sous Sécurité, dans le champ Chiffrement des secrets au niveau de la couche d'application, cliquez sur Modifier le chiffrement des secrets au niveau de la couche d'application.

  6. Sélectionnez la case à cocher Activer le chiffrement des secrets au niveau de la couche d'application, puis choisissez la DEK que vous avez créée.

  7. Cliquez sur Save Changes (Enregistrer les modifications).

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Cluster shielded nodes disabled

Nom de la catégorie dans l'API : CLUSTER_SHIELDED_NODES_DISABLED

Les nœuds GKE protégés ne sont pas activés pour un cluster.

Sans les nœuds GKE protégés, les pirates informatiques peuvent exploiter une faille d'un pod pour exfiltrer les identifiants d'amorçage et usurper l'identité des nœuds de votre cluster. Cette faille peut donner aux pirates informatiques l'accès aux secrets du cluster.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Sélectionnez le cluster dans le résultat.

  3. Sous Sécurité, dans le champ Nœuds GKE protégés, cliquez sur Modifier les nœuds GKE protégés.

  4. Cochez la case Activer les nœuds GKE protégés.

  5. Cliquez sur Save Changes (Enregistrer les modifications).

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Compute project wide SSH keys allowed

Nom de la catégorie dans l'API : COMPUTE_PROJECT_WIDE_SSH_KEYS_ALLOWED

Les clés SSH à l'échelle du projet permettent de se connecter à toutes les instances du projet.

L'utilisation de clés SSH à l'échelle du projet facilite la gestion des clés SSH. En revanche, si elle est compromise, elle présente un risque pour la sécurité, qui peut avoir une incidence sur toutes les instances d'un projet. Vous devez utiliser des clés SSH spécifiques à l'instance, qui limitent la surface d'attaque si les clés SSH sont compromises. Pour en savoir plus, consultez la page Gérer des clés SSH dans les métadonnées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Sur la page Informations sur l'instance de VM, cliquez sur Modifier.

  4. Sous Clés SSH, sélectionnez Bloquer les clés SSH à l'échelle du projet.

  5. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Compute Secure Boot disabled

Nom de la catégorie dans l'API : COMPUTE_SECURE_BOOT_DISABLED

Le démarrage sécurisé n'est pas activé pour cette VM protégée.

Le démarrage sécurisé permet de protéger vos machines virtuelles contre les rootkits et les bootkits. Compute Engine n'active pas le démarrage sécurisé par défaut, car certains pilotes non signés et logiciels de bas niveau ne sont pas compatibles. Si votre VM n'utilise pas de logiciel incompatible et qu'elle démarre avec le démarrage sécurisé activé, Google recommande l'utilisation de cette fonctionnalité. Si vous utilisez des modules tiers avec des pilotes NVIDIA, assurez-vous qu'ils sont compatibles avec le démarrage sécurisé avant de l'activer.

Pour plus d'informations, consultez la section Démarrage sécurisé.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Sur la page Informations sur l'instance de VM, cliquez sur Arrêter.

  4. Une fois l'instance arrêtée, cliquez sur Modifier.

  5. Sous VM protégée, sélectionnez Activer le démarrage sécurisé.

  6. Cliquez sur Enregistrer.

  7. Cliquez sur Démarrer pour démarrer l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Compute serial ports enabled

Nom de la catégorie dans l'API : COMPUTE_SERIAL_PORTS_ENABLED

Les ports série sont activés pour une instance, ce qui permet de se connecter à la console série de l'instance.

Si vous activez l'accès interactif à la console série sur une instance, les clients peuvent tenter de se connecter à cette instance depuis n'importe quelle adresse IP. Par conséquent, l'accès interactif à la console série doit être désactivé. Pour en savoir plus, consultez la section Activer l'accès pour un projet.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Sur la page Informations sur l'instance de VM, cliquez sur Modifier.

  4. Dans la section Accès à distance, cochez la case Activer la connexion aux ports série.

  5. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Confidential Computing disabled

Nom de la catégorie dans l'API : CONFIDENTIAL_COMPUTING_DISABLED

L'informatique confidentielle n'est pas activée sur une instance Compute Engine.

L'informatique confidentielle ajoute un troisième pilier à la story sur le chiffrement de bout en bout en chiffrant les données pendant qu'ellees sont utilisées. Grâce aux environnements d'exécution confidentiels fournis par l'informatique confidentielle et AMD SEV (Secure Encrypted Virtualization), Google Cloud maintient chiffrés en mémoire le code sensible et les autres données lors de leur traitement.

L'informatique confidentielle ne peut être activée qu'à la création d'une instance. Vous devez donc supprimer l'instance actuelle et en créer une autre.

Pour en savoir plus, consultez Confidential VMs et Compute Engine.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Sur la page Informations sur l'instance de VM, cliquez sur Supprimer.

  4. Créez une Confidential VM à l'aide de la console Google Cloud.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

COS not used

Nom de la catégorie dans l'API : COS_NOT_USED

Les VM Compute Engine n'utilisent pas le système d'exploitation optimisé par conteneur, conçu pour exécuter des conteneurs Docker sur Google Cloud en toute sécurité.

Container-Optimized OS est l'OS recommandé par Google pour héberger et exécuter des conteneurs sur Google Cloud. Le faible encombrement de l'OS minimise les risques liés à la sécurité, et les mises à jour automatiques corrigent les failles au plus vite. Pour en savoir plus, consultez la page Présentation du système d'exploitation optimisé par conteneur.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la liste des clusters, cliquez sur le nom du cluster dans le résultat.

  3. Cliquez sur l'onglet Nœuds.

  4. Pour chaque pool de nœuds :

    1. Cliquez sur le nom du pool de nœuds pour accéder à sa page d'informations.
    2. Cliquez sur Modifier .
    3. Sous Nœuds -> Type d'image, cliquez sur Modifier.
    4. Sélectionnez Système d'exploitation optimisé par conteneur, puis cliquez sur Modifier.
    5. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Custom role not monitored

Nom de la catégorie dans l'API : CUSTOM_ROLE_NOT_MONITORED

Les métriques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées au rôle personnalisé.

IAM fournit des rôles prédéfinis et personnalisés qui accordent l'accès à des ressources Google Cloud spécifiques. En surveillant les activités de création, de suppression et de mise à jour des rôles, vous pouvez identifier les rôles bénéficiant de droits trop élevés à un stade précoce. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez les tarifs de Google Cloud Observability.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      resource.type="iam_role"
      AND (protoPayload.methodName="google.iam.admin.v1.CreateRole"
      OR protoPayload.methodName="google.iam.admin.v1.DeleteRole"
      OR protoPayload.methodName="google.iam.admin.v1.UpdateRole")

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification en cas d'ouverture et de fermeture d'un incident, cochez la case Notifier en cas de fermeture des incidents. Par défaut, les notifications ne sont envoyées que lorsque des incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Dataproc CMEK disabled

Nom de la catégorie dans l'API : DATAPROC_CMEK_DISABLED

Un cluster Dataproc a été créé sans configuration de chiffrement CMEK. Avec CMEK, les clés que vous créez et gérez dans Cloud Key Management Service encapsulent les clés utilisées par Google Cloud pour chiffrer vos données, ce qui vous permet de mieux contrôler l'accès à vos données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Cluster Dataproc dans la console Google Cloud.

    Accéder aux clusters Dataproc

  2. Sélectionnez votre projet, puis cliquez sur Créer un cluster.

  3. Dans la section Gérer la sécurité, cliquez sur Chiffrement, puis sélectionnez Clé gérée par le client.

  4. Sélectionnez une clé gérée par le client dans la liste.

    Si vous ne possédez pas de clé gérée par le client, vous devez en créer une. Pour en savoir plus, consultez la page Clés de chiffrement gérées par le client.

  5. Assurez-vous que le rôle Chiffreur/Déchiffreur de CryptoKeys Cloud KMS est attribué au compte de service du cluster Dataproc pour la clé KMS sélectionnée ("serviceAccount:service-project_number@compute-system.iam.gserviceaccount.com").

  6. Une fois le cluster créé, migrez toutes vos charges de travail de l'ancien cluster vers le nouveau.

  7. Accédez aux clusters Dataproc, puis sélectionnez votre projet.

  8. Sélectionnez l'ancien cluster, puis cliquez sur Supprimer le cluster.

  9. Répétez toutes les étapes ci-dessus pour les autres clusters Dataproc disponibles dans le projet sélectionné.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Dataproc image outdated

Nom de la catégorie dans l'API : DATAPROC_IMAGE_OUTDATED

Un cluster Dataproc a été créé en utilisant une version d'image Dataproc affectée par les failles de sécurité de l'utilitaire Apache Log4j 2 (CVE-2021-44228 et CVE-2021-45046).

Ce détecteur découvre les failles en vérifiant si le champ softwareConfig.imageVersion de la propriété config d'un objet Cluster comporte l'une des versions concernées suivantes :

  • Versions d'image antérieures à 1.3.95.
  • Versions d'images mineures antérieures à 1.4.77, 1.5.53 et 2.0.27.

Le numéro de version d'une image Dataproc personnalisée peut être remplacé manuellement. Étudions les cas de figure suivants :

  • Vous pouvez modifier la version d'une image personnalisée affectée pour qu'elle semble ne pas être affectée. Dans ce cas, le détecteur ne fournit aucun résultat.
  • Vous pouvez remplacer le numéro de version d'une image personnalisée non affectée par celui d'une version connue pour présenter la faille. Dans ce cas, ce détecteur fournit un faux positif. Pour supprimer de tels faux positifs, vous pouvez les ignorer.

Pour corriger ce résultat, recréez et mettez à jour le cluster concerné.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Dataset CMEK disabled

Nom de la catégorie dans l'API : DATASET_CMEK_DISABLED

Un ensemble de données BigQuery n'est pas configuré pour utiliser une clé de chiffrement gérée par le client par défaut (CMEK).

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés utilisées par Google Cloud pour chiffrer vos données, ce qui vous permet de mieux contrôler l'accès à vos données. Pour en savoir plus, consultez la page Protéger des données avec des clés Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

Vous ne pouvez pas basculer une table en place entre les chiffrements par défaut et le chiffrement CMEK. Pour définir une clé CMEK par défaut avec laquelle chiffrer toutes les nouvelles tables de l'ensemble de données, suivez les instructions de la section Définir une clé par défaut de l'ensemble de données.

Définir une clé par défaut ne rechiffre pas rétroactivement les tables actuelles de l'ensemble de données avec une nouvelle clé. Pour utiliser CMEK pour les données existantes, procédez comme suit :

  1. Créez un ensemble de données.
  2. Définissez une clé CMEK par défaut sur l'ensemble de données que vous avez créé.
  3. Pour copier des tables dans l'ensemble de données compatible avec CMEK, suivez les instructions de la section Copier une table.
  4. Une fois les données copiées, supprimer les ensembles de données d'origine.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Default network

Nom de la catégorie dans l'API : DEFAULT_NETWORK

Le réseau par défaut existe dans un projet.

Les réseaux par défaut créent automatiquement des règles de pare-feu et des configurations réseau qui peuvent ne pas être sécurisées. Pour en savoir plus, consultez la section Réseau par défaut.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC de Google Cloud Console.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau par défaut.

  3. Sur la page Détails du réseau VPC, cliquez sur Supprimer le réseau VPC.

  4. Pour créer un réseau avec des règles de pare-feu personnalisées, consultez la page Créer des réseaux.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Default service account used

Nom de la catégorie dans l'API : DEFAULT_SERVICE_ACCOUNT_USED

Une instance Compute Engine est configurée pour utiliser le compte de service par défaut.

Le compte de service Compute Engine par défaut dispose du rôle d'éditeur sur le projet, ce qui permet un accès en lecture et en écriture à la plupart des services Google Cloud. Pour vous protéger des élévations de privilèges et des accès non autorisés, n'utilisez pas le compte de service Compute Engine par défaut. À la place, créez un compte de service et ne lui accorder que les autorisations requises par votre instance. Pour plus d'informations sur les rôles et les autorisations IAM, consultez la page Contrôle des accès.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page "Instances de VM"

  2. Sélectionnez l'instance associée au résultat de Security Health Analytics.

  3. Sur la page Détails de l'instance page qui s'affiche, cliquez sur Arrêter.

  4. Une fois l'instance arrêtée, cliquez sur Modifier.

  5. Dans la section Compte de service, sélectionnez un compte de service différent du compte de service Compute Engine par défaut. Vous devrez peut-être d'abord créer un nouveau compte de service. Pour plus d'informations sur les rôles et les autorisations IAM, consultez la page Contrôle des accès.

  6. Cliquez sur Enregistrer. La nouvelle configuration s'affiche sur la page Détails de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Disk CMEK disabled

Nom de la catégorie dans l'API : DISK_CMEK_DISABLED

Les disques de cette VM ne sont pas chiffrés avec des clés de chiffrement gérées par le client.

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés utilisées par Google Cloud pour chiffrer vos données, ce qui vous permet de mieux contrôler l'accès à vos données. Pour en savoir plus, consultez la page Protéger des ressources avec des clés Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Disques Compute Engine dans la console Google Cloud.

    Accéder à la page Disques Compute Engine

  2. Dans la liste des disques, cliquez sur le nom du disque indiqué dans le résultat.

  3. Sur la page Gérer le disque, cliquez sur Supprimer.

  4. Pour créer un disque avec CMEK activé, consultez la section Chiffrer un nouveau disque persistant avec vos propres clés. CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Disk CSEK disabled

Nom de la catégorie dans l'API : DISK_CSEK_DISABLED

Les disques de cette VM ne sont pas chiffrés avec des clés de chiffrement fournies par le client (CSEK). Les disques des VM critiques doivent être chiffrés avec des clés CSEK.

Dans ce cas, Compute Engine utilisera votre clé afin de protéger les clés générées par Google pour chiffrer et déchiffrer vos données. Pour en savoir plus, consultez la page Clés de chiffrement fournies par le client. CSEK engendre des coûts supplémentaires liés à Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

Supprimer et créer un disque

Vous pouvez chiffrer les nouveaux disques persistants avec votre propre clé, mais pas les disques persistants existants.

  1. Accédez à la page Disques Compute Engine dans la console Google Cloud.

    Accéder à la page Disques Compute Engine

  2. Dans la liste des disques, cliquez sur le nom du disque indiqué dans le résultat.

  3. Sur la page Gérer le disque, cliquez sur Supprimer.

  4. Pour créer un disque avec CSEK activé, consultez la section Chiffrer des disques avec des clés de chiffrement fournies par le client.

  5. Suivez le reste de la procédure pour activer le détecteur.

Activer le détecteur

  1. Accédez à la page Éléments de Security Command Center dans la console Google Cloud.

    Accéder

  2. Dans la section Type de ressource du panneau Filtres rapides, sélectionnez compute.Disk.

    Si compute.Disk ne s'affiche pas, cliquez sur Afficher plus, saisissez Disk dans le champ de recherche, puis cliquez sur Appliquer.

    Le panneau Résultats est mis à jour pour n'afficher que les instances du type de ressource compute.Disk.

  3. Dans la colonne Nom à afficher, cochez la case correspondant au nom du disque que vous souhaitez utiliser avec CSEK, puis cliquez sur Définir les marques de sécurité.

  4. Dans la boîte de dialogue, cliquez sur Ajouter une marque.

  5. Dans le champ key, saisissez enforce_customer_supplied_disk_encryption_keys et, dans le champ valeur, saisissez true.

  6. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

DNS logging disabled

Nom de la catégorie dans l'API : DNS_LOGGING_DISABLED

La surveillance des journaux Cloud DNS offre une visibilité sur les noms DNS demandés par les clients dans le réseau VPC. Ces journaux peuvent être surveillés pour détecter les anomalies de noms de domaine et évalués selon les renseignements sur les menaces. Nous vous recommandons d'activer la journalisation DNS pour les réseaux VPC.

Selon la quantité d'informations, les coûts de journalisation liés à Cloud DNS peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez la section Tarifs de Google Cloud Observability: Cloud Logging.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC de la console Google Cloud.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau VPC.

  3. Créez une règle de serveur (s'il n'en existe pas) ou modifiez une règle existante :

    • Si le réseau ne dispose pas de règle de serveur DNS, procédez comme suit :

      1. Cliquez sur Modifier.
      2. Dans le champ Règle de serveur DNS, cliquez sur Créer une règle de serveur.
      3. Indiquez le nom de la nouvelle règle du serveur.
      4. Définissez Journaux sur Activé.
      5. Cliquez sur Enregistrer.
    • Si le réseau dispose d'une règle de serveur DNS, procédez comme suit :

      1. Dans le champ Règle de serveur DNS, cliquez sur le nom de la règle DNS.
      2. Cliquez sur Modifier la règle.
      3. Définissez Journaux sur Activé.
      4. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

DNSSEC disabled

Nom de la catégorie dans l'API : DNSSEC_DISABLED

Les extensions de sécurité du système de noms de domaine (DNSSEC, Domain Name System Security Extensions) sont désactivées pour les zones Cloud DNS.

DNSSEC valide les réponses DNS et atténue les risques, tels que le piratage DNS et les attaques de type "MITM" (Man-in-the-middle), en signant de manière cryptographique les enregistrements DNS. Vous devez activer DNSSEC. Pour en savoir plus, consultez la page Présentation des extensions de sécurité DNS (DNSSEC).

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Cloud DNS dans la console Google Cloud.

    Accéder aux réseaux Cloud DNS

  2. Recherchez la ligne contenant la zone DNS indiquée dans le résultat.

  3. Cliquez sur le paramètre DNSSEC sur la ligne puis, sous DNSSEC, sélectionnez Activée.

  4. Lisez la boîte de dialogue qui s'affiche. Si vous êtes satisfait, cliquez sur Activer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Effectively Anonymous Users Granted GKE Cluster Access

Nom de la catégorie dans l'API : GKE_PRIVILEGE_ESCALATION_DEFAULT_USERS_GROUPS

Quelqu'un a créé une liaison RBAC qui fait référence à l'un des utilisateurs ou groupes suivants:

  • system:anonymous
  • system:authenticated
  • system:unauthenticated

Ces utilisateurs et groupes sont effectivement anonymes et ne doivent pas être utilisés dans les RoleBindings ni les ClusterRoleBindings. Pour en savoir plus, consultez la section Éviter les rôles et les groupes par défaut.

Pour corriger ce résultat, procédez comme suit pour vos ressources concernées:

  1. Ouvrez le fichier manifeste de chaque ClusterRoleBinding ou RoleBinding concerné.
  2. Définissez les champs restreints suivants sur l'une des valeurs autorisées.

Champs restreints

  • subjects[*].name

Valeurs autorisées

  • Tous les groupes, utilisateurs ou comptes de service qui n'incluent pas system:anonymous, system:authenticated ou system:unauthenticated.

Egress deny rule not set

Nom de la catégorie dans l'API : EGRESS_DENY_RULE_NOT_SET

Une règle de refus du trafic sortant n'est pas définie sur un pare-feu.

Un pare-feu qui refuse tout trafic réseau de sortie empêche toutes les connexions réseau sortantes indésirables, à l'exception des connexions explicitement autorisées. Pour plus d'informations, consultez la section Cas de sortie.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page Pare-feu

  2. Cliquez sur Create Firewall Rule (Créer une règle de pare-feu).

  3. Attribuez un nom et, éventuellement, une description au pare-feu.

  4. Pour le champ Sens du trafic, sélectionnez Sortie.

  5. Sous Action en cas de correspondance, sélectionnez Refuser.

  6. Dans le menu déroulant Cibles, sélectionnez Toutes les instances du réseau.

  7. Dans le menu déroulant Filtre de destination, sélectionnez Plages d'adresses IP, puis saisissez 0.0.0.0/0 dans la zone Plages d'adresses IP de destination.

  8. Sous Protocoles et ports, sélectionnez Tout refuser.

  9. Cliquez sur Désactiver la règle puis, sous Application, sélectionnez Activée.

  10. Cliquez sur Créer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Essential contacts not configured

Nom de la catégorie dans l'API : ESSENTIAL_CONTACTS_NOT_CONFIGURED

Votre organisation n'a pas désigné de personne ni de groupe pour recevoir des notifications de Google Cloud sur les événements importants tels que les attaques, les failles et les incidents liés aux données dans votre organisation Google Cloud. Nous vous recommandons de désigner une ou plusieurs personnes ou groupes de votre organisation comme contacts essentiels.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Contacts essentiels dans la console Google Cloud.

    Accéder aux contacts essentiels

  2. Assurez-vous que l'organisation apparaît dans le sélecteur de ressources en haut de la page. Le sélecteur de ressources vous indique pour quel projet, dossier ou organisation vous gérez actuellement les contacts.

  3. Cliquez sur + Ajouter un contact. Le panneau Ajouter un contact s'ouvre.

  4. Dans les champs Adresse e-mail et Confirmer l'adresse e-mail, saisissez l'adresse e-mail du contact.

  5. Dans la section Catégories de notifications, sélectionnez les catégories de notifications pour lesquelles vous souhaitez que le contact reçoive des communications. Assurez-vous que les adresses e-mail appropriées sont configurées pour chacune des catégories de notification suivantes:

    1. Juridique
    2. Sécurité
    3. Suspension
    4. Technique
  6. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Firewall not monitored

Nom de la catégorie dans l'API : FIREWALL_NOT_MONITORED

Les statistiques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées aux règles de pare-feu de réseau VPC.

La surveillance des événements de création et de mise à jour des règles de pare-feu vous donne le détail des modifications d'accès au réseau, et vous permet de détecter rapidement les activités suspectes. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez les tarifs de Google Cloud Observability.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      resource.type="gce_firewall_rule"
      AND (protoPayload.methodName:"compute.firewalls.insert"
      OR protoPayload.methodName:"compute.firewalls.patch"
      OR protoPayload.methodName:"compute.firewalls.delete")

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification en cas d'ouverture et de fermeture d'un incident, cochez la case Notifier en cas de fermeture des incidents. Par défaut, les notifications ne sont envoyées que lorsque des incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Firewall rule logging disabled

Nom de la catégorie dans l'API : FIREWALL_RULE_LOGGING_DISABLED

La journalisation des règles de pare-feu est désactivée.

La journalisation des règles de pare-feu vous permet de réaliser des audits, des vérifications et des analyses sur les effets de vos règles de pare-feu. Cela peut vous être utile pour auditer l'accès au réseau ou pour identifier le plus tôt possible les cas d'utilisation non approuvée du réseau. Le coût des journaux peut être important. Pour en savoir plus sur la journalisation des règles de pare-feu et son coût, consultez la page Utiliser la journalisation des règles de pare-feu.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu souhaitée.

  3. Cliquez sur Modifier.

  4. Sous Journaux, sélectionnez Activé.

  5. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Flow logs disabled

Nom de la catégorie dans l'API : FLOW_LOGS_DISABLED

Les journaux de flux sont désactivés dans un sous-réseau VPC.

Les journaux de flux VPC enregistrent un échantillon des flux réseau envoyés et reçus par les instances de VM. Ces journaux peuvent être utilisés pour la surveillance et l'investigation des réseaux, l'analyse de la sécurité en temps réel et l'optimisation des dépenses. Pour en savoir plus sur les journaux de flux et leur coût, consultez la page Utiliser des journaux de flux VPC.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC dans Google Cloud Console.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau souhaité.

  3. Sur la page Détails du réseau VPC, cliquez sur l'onglet Sous-réseaux.

  4. Dans la liste des sous-réseaux, cliquez sur le nom du sous-réseau indiqué dans le résultat.

  5. Sur la page Détails du sous-réseau, cliquez sur Modifier.

  6. Sous Journaux de flux, sélectionnez Activé.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Nom de la catégorie dans l'API : VPC_FLOW_LOGS_SETTINGS_NOT_RECOMMENDED

Dans la configuration d'un sous-réseau de réseau VPC, le service de journaux de flux VPC est désactivé ou n'est pas configuré conformément aux recommandations tirées des benchmarks CIS 1.3. Les journaux de flux VPC enregistrent un échantillon des flux réseau envoyés et reçus par les instances de VM, lequel peut être utilisé pour détecter des menaces.

Pour en savoir plus sur les journaux de flux VPC et leur coût, consultez la section Utiliser des journaux de flux VPC.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC dans Google Cloud Console.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau.

  3. Sur la page Détails du réseau VPC, cliquez sur l'onglet Sous-réseaux.

  4. Dans la liste des sous-réseaux, cliquez sur le nom du sous-réseau indiqué dans le résultat.

  5. Sur la page Détails du sous-réseau, cliquez sur Modifier.

  6. Sous Journaux de flux, sélectionnez Activé.

    1. Vous pouvez aussi modifier la configuration des journaux en cliquant sur le bouton Configurer les journaux, qui permet de développer l'onglet. Les benchmarks CIS recommandent les paramètres suivants :
      1. Définissez l'intervalle d'agrégation sur 5 secondes.
      2. Dans la case Champs supplémentaires, sélectionnez l'option Inclure les métadonnées.
      3. Définissez le taux d'échantillonnage sur 100%.
      4. Cliquez sur le bouton ENREGISTRER.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Full API access

Nom de la catégorie dans l'API : FULL_API_ACCESS

Une instance Compute Engine est configurée pour utiliser le compte de service par défaut avec un accès complet à toutes les API Google Cloud.

Une instance configurée avec le compte de service par défaut et le niveau d'accès de l'API défini sur Autoriser l'accès complet à l'ensemble des API Cloud peut permettre aux utilisateurs d'effectuer des opérations ou des appels d'API pour lesquels ils ne disposent pas d'autorisations IAM. Pour plus d'informations, consultez la section Compte de service Compute Engine par défaut.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Si l'instance est en cours d'exécution, cliquez sur Arrêter.

  4. Lorsque l'instance est arrêtée, cliquez sur Modifier.

  5. Dans la section Sécurité et accès, sous Comptes de service, sélectionnez Compte de service Compute Engine par défaut.

  6. Sous Champs d'application de l'accès, sélectionnez Autoriser l'accès par défaut ou Définir l'accès pour chaque API. Cela limite les API auxquelles tout processus ou charge de travail utilisant le compte de service de VM par défaut peut accéder.

  7. Si vous avez sélectionné Définir l'accès pour chaque API, procédez comme suit:

    • Désactivez Cloud Platform en le définissant sur Aucun.
    • Activez les API spécifiques auxquelles le compte de service de VM par défaut doit avoir accès.
  8. Cliquez sur Enregistrer.

  9. Cliquez sur  Démarrer pour démarrer l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

HTTP load balancer

Nom de la catégorie dans l'API : HTTP_LOAD_BALANCER

Une instance utilise un équilibreur de charge configuré pour utiliser un proxy HTTP au lieu d'un proxy HTTPS comme cible.

Pour protéger l'intégrité de vos données et empêcher des intrus de falsifier vos communications, configurez vos équilibreurs de charge HTTP(S) de manière à autoriser uniquement le trafic HTTPS. Pour plus d'informations, consultez la page Présentation de l'équilibrage de charge HTTP(S) externe.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Proxies cibles de la console Google Cloud.

    Accéder aux proxys cibles

  2. Dans la liste des proxys cibles, cliquez sur le nom du proxy cible dans le résultat.

  3. Cliquez sur le lien dans la section Mappage d'URL.

  4. Cliquez sur Modifier.

  5. Cliquez sur Frontend configuration (Configuration du frontend).

  6. Supprimez toutes les configurations IP frontend et de port qui autorisent le trafic HTTP et créez-en de nouvelles qui autorisent le trafic HTTPS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Instance OS login disabled

Nom de la catégorie dans l'API : INSTANCE_OS_LOGIN_DISABLED

OS Login est désactivé sur cette instance Compute Engine.

OS Login active la gestion centralisée des clés SSH avec IAM et désactive les configurations de clés SSH basées sur les métadonnées dans toutes les instances d'un projet. Découvrez comment Configurer OS Login.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Sur la page Détails de l'instance qui s'affiche, cliquez sur Arrêter.

  4. Une fois l'instance arrêtée, cliquez sur Modifier.

  5. Dans la section Métadonnées personnalisées, assurez-vous que l'élément avec la clé enable-oslogin a la valeur TRUE.

  6. Cliquez sur Enregistrer.

  7. Cliquez sur  Démarrer pour démarrer l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Integrity monitoring disabled

Nom de la catégorie dans l'API : INTEGRITY_MONITORING_DISABLED

La surveillance de l'intégrité est désactivée sur un cluster GKE.

La surveillance de l'intégrité vous permet de contrôler et de valider l'intégrité, au démarrage de l'environnement d'exécution, de vos nœuds protégés avec Cloud Monitoring. Vous pouvez ainsi réagir aux échecs d'intégrité et empêcher le déploiement de nœuds compromis dans le cluster.

Pour corriger ce résultat, procédez comme suit :

Une fois qu'un nœud est provisionné, il ne peut pas être mis à jour pour activer la surveillance de l'intégrité. Vous devez créer un pool de nœuds dans lequel la surveillance de l'intégrité est activée.

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur le nom du cluster dans le résultat.

  3. Cliquez sur Aouter un pool de nœuds.

  4. Dans l'onglet Sécurité, assurez-vous que l'option Activer la surveillance de l'intégrité est activée.

  5. Cliquez sur Create (Créer).

  6. Pour migrer vos charges de travail des pools de nœuds non conformes existants vers les nouveaux pools de nœuds, consultez la page Migrer des charges de travail vers différents types de machines.

  7. Une fois les charges de travail déplacées, supprimez le pool de nœuds non conforme d'origine.

    1. Sur la page du cluster Kubernetes, dans le menu Pools de nœuds, cliquez sur le nom du pool que vous voulez supprimer.
    2. Cliquez sur Supprimer le pool de nœuds.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Intranode visibility disabled

Nom de la catégorie dans l'API : INTRANODE_VISIBILITY_DISABLED

La visibilité intranœud est désactivée pour un cluster GKE.

L'activation de la visibilité intranœud rend le trafic intranœud entre pods visible par la structure de mise en réseau. Grâce à cette fonctionnalité, vous pouvez utiliser la journalisation de flux VPC ou d'autres fonctionnalités de VPC pour surveiller ou contrôler le trafic intranœud. Pour obtenir les journaux, vous devez activer les journaux de flux VPC dans le sous-réseau sélectionné. Pour plus d'informations, consultez la page Utiliser des journaux de flux VPC.

Pour corriger ce résultat, procédez comme suit :

Une fois qu'un nœud est provisionné, il ne peut pas être mis à jour pour activer la surveillance de l'intégrité. Vous devez créer un pool de nœuds dans lequel la surveillance de l'intégrité est activée.

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la section Mise en réseau, cliquez sur Modifier la visibilité intranœud dans la ligne Visibilité intranœud.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  3. Dans la boîte de dialogue, sélectionnez Activer la visibilité intranœud.

  4. Cliquez sur Save Changes (Enregistrer les modifications).

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

IP alias disabled

Nom de la catégorie dans l'API : IP_ALIAS_DISABLED

Un cluster GKE a été créé avec des plages d'adresses IP d'alias désactivées.

Lorsque vous activez les plages d'adresses IP d'alias, les clusters GKE allouent des adresses IP provenant d'un bloc CIDR connu, pour que votre cluster soit évolutif et interagisse plus facilement avec les produits et entités Google Cloud. Pour plus d'informations, consultez la page Présentation des plages d'adresses IP d'alias.

Pour corriger ce résultat, procédez comme suit :

Il n'est pas possible de migrer un cluster existant pour qu'il utilise des adresses IP d'alias. Pour créer un nouveau cluster avec les adresses IP d'alias activées, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur Create (Créer).

  3. Dans le volet de navigation, sous Cluster, cliquez sur Réseau.

  4. Sous Options de mise en réseau avancées, sélectionnez Activer le routage du trafic de VPC natif (utilisation d'une adresse IP d'alias).

  5. Cliquez sur Create (Créer).

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

IP forwarding enabled

Nom de la catégorie dans l'API : IP_FORWARDING_ENABLED

Le transfert IP est activé sur les instances Compute Engine.

Évitez les pertes de données et la divulgation d'informations en désactivant le transfert IP des paquets de données pour vos VM.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cochez la case située à côté du nom de l'instance dans le résultat.

  3. Cliquez sur Supprimer.

  4. Sélectionnez Créer une instance pour créer une instance afin de remplacer celle que vous avez supprimée.

  5. Pour vous assurer que le transfert IP est désactivé, cliquez sur Gestion, disques, réseau, clés SSH, puis sur Réseau.

  6. Sous Interfaces réseau, cliquez sur Modifier.

  7. Sous Transfert IP, dans le menu déroulant, assurez-vous que l'option Désactivé est sélectionnée.

  8. Renseignez les autres paramètres d'instance, puis cliquez sur Créer. Pour en savoir plus, consultez la page Créer et démarrer une instance de VM.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

KMS key not rotated

Nom de la catégorie dans l'API : KMS_KEY_NOT_ROTATED

La rotation n'est pas configurée sur une clé de chiffrement Cloud KMS.

La rotation de vos clés de chiffrement offre régulièrement une protection en cas de compromission d'une clé et limite le nombre de messages chiffrés disponibles à la cryptanalyse pour une version de clé spécifique. Pour en savoir plus, consultez la page Rotation des clés.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés Cloud KMS de la console Google Cloud.

    Accéder à la page Clés Cloud KMS

  2. Cliquez sur le nom du trousseau de clés indiqué dans le résultat.

  3. Cliquez sur le nom de la clé indiquée dans le résultat.

  4. Cliquez sur Modifier la période de rotation.

  5. Définissez la période de rotation sur 90 jours au maximum.

  6. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

KMS project has owner

Nom de la catégorie dans l'API : KMS_PROJECT_HAS_OWNER

Un utilisateur dispose des autorisations roles/Owner sur un projet disposant de clés cryptographiques. Pour en savoir plus, consultez la section Autorisations et rôles.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page "IAM" de Google Cloud Console.

    Accéder à la page IAM

  2. Si nécessaire, sélectionnez le projet dans les résultats.

  3. Pour chaque compte principal auquel le rôle Propriétaire a été attribué :

    1. Cliquez sur Modifier.
    2. Dans le panneau Modifier les autorisations, à côté du rôle Propriétaire, cliquez sur Supprimer.
    3. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

KMS public key

Nom de la catégorie dans l'API : KMS_PUBLIC_KEY

Une clé Cryptokey Cloud KMS ou un trousseau de clés Cloud KMS est public et accessible à tous les internautes. Pour en savoir plus, consultez la page Utiliser IAM avec Cloud KMS.

Pour corriger ce résultat, s'il est lié à une clé Cryptokey :

  1. Accédez à la page des clés de chiffrement dans la console Google Cloud.

    Cryptographic Keys

  2. Sous Nom, sélectionnez le trousseau de clés contenant la clé cryptographique associée au résultat de Security Health Analytics.

  3. Sur la page Informations sur le trousseau qui s'affiche, cochez la case en regard de la clé cryptographique.

  4. Si le PANNEAU D'INFORMATIONS n'apparaît pas, cliquez sur le bouton AFFICHER LE PANNEAU D'INFORMATIONS.

  5. Utilisez la zone de filtre précédant Rôle / Compte principal pour rechercher les comptes principaux pour allUsers et allAuthenticatedUsers, puis cliquez sur Supprimer pour supprimer l'accès de ces comptes principaux.

Pour corriger ce résultat, s'il est lié à un trousseau de clés :

  1. Accédez à la page des clés de chiffrement dans la console Google Cloud.

    Cryptographic Keys

  2. Recherchez la ligne contenant le trousseau de clés dans le résultat, puis cochez la case correspondante.

  3. Si le PANNEAU D'INFORMATIONS n'apparaît pas, cliquez sur le bouton AFFICHER LE PANNEAU D'INFORMATIONS.

  4. Utilisez la zone de filtre précédant Rôle / Compte principal pour rechercher les comptes principaux pour allUsers et allAuthenticatedUsers, puis cliquez sur Supprimer pour supprimer l'accès de ces comptes principaux.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

KMS role separation

Nom de la catégorie dans l'API : KMS_ROLE_SEPARATION

Cette information n'est pas disponible pour les activations au niveau du projet.

Plusieurs autorisations Cloud KMS sont attribuées à un ou plusieurs comptes principaux. Nous vous recommandons de ne pas attribuer simultanément l'autorisation Administrateur Cloud KMS avec d'autres autorisations Cloud KMS. Pour en savoir plus, consultez la section Autorisations et rôles.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page "IAM" de Google Cloud Console.

    Accéder à IAM

  2. Pour chaque compte principal répertorié dans le résultat, procédez comme suit :

    1. Pour vérifier si le rôle a été hérité d'un dossier ou d'une ressource d'organisation, consultez la colonne Héritage. Si la colonne contient un lien vers une ressource parente, cliquez sur ce lien pour accéder à la page IAM de la ressource parente.
    2. Cliquez sur  Modifier à côté d'un compte principal.
    3. Pour supprimer des autorisations, cliquez sur Supprimer à côté de l'option Administrateur Cloud KMS. Si vous souhaitez supprimer toutes les autorisations du membre, cliquez sur Supprimer à côté de toutes les autres autorisations.
  3. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Legacy authorization enabled

Nom de la catégorie dans l'API : LEGACY_AUTHORIZATION_ENABLED

L'ancienne autorisation est activée sur les clusters GKE.

Dans Kubernetes, le contrôle des accès basé sur les rôles permet de définir des rôles avec des règles contenant un ensemble d'autorisations, et d'accorder des autorisations au niveau du cluster et de l'espace de noms. Ce mécanisme renforce la sécurité en garantissant que les utilisateurs n'ont accès qu'à des ressources spécifiques. Envisagez de désactiver l'ancien contrôle des accès basé sur les attributs (ABAC).

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Sélectionnez le cluster répertorié dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Dans la liste déroulante Ancienne autorisation, sélectionnez Désactivée.

  5. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Legacy metadata enabled

Nom de la catégorie dans l'API : LEGACY_METADATA_ENABLED

Les anciennes métadonnées sont activées sur les clusters GKE.

Le serveur de métadonnées d'instance de Compute Engine expose les anciens points de terminaison /0.1/ et /v1beta1/ qui n'appliquent pas les en-têtes de requête de métadonnées. Il s'agit d'une fonctionnalité des API /v1/ qui rend plus difficile la récupération de métadonnées d'instance par un éventuel pirate informatique. Sauf indication contraire, nous vous recommandons de désactiver ces anciennes API /0.1/ et /v1beta1/.

Pour en savoir plus, consultez la section Désactiver les anciennes API de métadonnées et effectuer une migration.

Pour corriger ce résultat, procédez comme suit :

Vous ne pouvez désactiver les anciennes API de métadonnées que lorsque vous créez un cluster ou lorsque vous ajoutez un nouveau pool de nœuds à un cluster existant. Pour mettre à jour un cluster existant afin de désactiver les anciennes API de métadonnées, consultez la section Migrer des charges de travail vers différents types de machines.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Legacy network

Nom de la catégorie dans l'API : LEGACY_NETWORK

Un ancien réseau existe dans un projet.

Les anciens réseaux ne sont pas recommandés, car de nombreuses nouvelles fonctionnalités de sécurité Google Cloud ne sont pas compatibles avec les anciens réseaux. Utilisez plutôt les réseaux VPC. Pour en savoir plus, consultez la section Anciens réseaux.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC dans Google Cloud Console.

    Accéder aux réseaux VPC

  2. Pour créer un réseau non hérité, cliquez sur Créer un réseau.

  3. Revenez à la page VPC networks (Réseaux VPC).

  4. Dans la liste des réseaux, cliquez sur legacy_network.

  5. Sur la page Détails du réseau VPC, cliquez sur Supprimer le réseau VPC.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Load balancer logging disabled

Nom de la catégorie dans l'API : LOAD_BALANCER_LOGGING_DISABLED

La journalisation est désactivée pour le service de backend d'un équilibreur de charge.

L'activation de la journalisation pour un équilibreur de charge vous permet d'afficher le trafic réseau HTTP(S) pour vos applications Web. Pour en savoir plus, consultez Équilibreur de charge.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Équilibrage de charge dans le cloud dans la console Google Cloud.

    Accéder à Cloud Load Balancing

  2. Cliquez sur le nom de votre équilibreur de charge.

  3. Cliquez sur Modifier.

  4. Cliquez sur Configuration du backend.

  5. Sur la page Configuration du backend, cliquez sur Modifier.

  6. Dans la section Journalisation, sélectionnez Activer la journalisation et choisissez le meilleur taux d'échantillonnage pour votre projet.

  7. Pour terminer la modification du service de backend, cliquez sur Mettre à jour.

  8. Pour terminer la modification de l'équilibreur de charge, cliquez sur Mettre à jour.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Locked retention policy not set

Nom de la catégorie dans l'API : LOCKED_RETENTION_POLICY_NOT_SET

Une règle de conservation verrouillée n'est pas définie pour les journaux.

Une règle de conservation verrouillée empêche d'écraser des journaux et de supprimer le bucket de journaux. Pour en savoir plus, consultez la section Verrouillage de bucket.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Navigateur de stockage de la console Google Cloud.

    Accéder au navigateur Cloud Storage

  2. Sélectionnez le bucket répertorié dans le résultat de Security Health Analytics.

  3. Sur la page Informations sur le bucket, cliquez sur l'onglet Autorisations.

  4. Si aucune règle de conservation n'a été définie, cliquez sur Définir une règle de conservation.

  5. Indiquez une durée de conservation.

  6. Cliquez sur Enregistrer. La règle de conservation s'affiche dans l'onglet Conservation.

  7. Cliquez sur Verrouiller pour vous assurer que la durée de conservation n'est pas raccourcie ni supprimée.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Log not exported

Nom de la catégorie dans l'API : LOG_NOT_EXPORTED

Aucun récepteur de journaux approprié n'est configuré pour une ressource.

Cloud Logging vous aide à trouver rapidement la cause des problèmes dans votre système et vos applications. Toutefois, la plupart des journaux ne sont conservés par défaut que pendant 30 jours. Exportez des copies de toutes les entrées de journal pour prolonger la période de stockage. Pour en savoir plus, consultez la section Présentation des exportations de journaux.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Routeur de journaux de la console Google Cloud.

    Accéder au Routeur de journaux

  2. Cliquez sur Créer un récepteur.

  3. Pour exporter tous les journaux, laissez les filtres d'inclusion et d'exclusion vides.

  4. Cliquez sur Créer un récepteur.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Master authorized networks disabled

Nom de la catégorie dans l'API : MASTER_AUTHORIZED_NETWORKS_DISABLED

Les réseaux autorisés du plan de contrôle ne sont pas activés sur les clusters GKE.

Les réseaux autorisés du plan de contrôle améliorent la sécurité de votre cluster de conteneurs en empêchant des adresses IP spécifiées d'accéder au plan de contrôle du cluster. Pour en savoir plus, consultez la section Ajouter des réseaux autorisés pour l'accès au plan de contrôle.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Sélectionnez le cluster répertorié dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Dans la liste déroulante Réseaux autorisés pour le plan de contrôle, sélectionnez Activés.

  5. Cliquez sur Add authorized network (Ajouter un réseau autorisé).

  6. Spécifiez les réseaux autorisés que vous souhaitez utiliser.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

MFA not enforced

Nom de la catégorie dans l'API : MFA_NOT_ENFORCED

Cette information n'est pas disponible pour les activations au niveau du projet.

L'authentification multifacteur, plus précisément la validation en deux étapes, est désactivée pour certains utilisateurs de votre organisation.

Vous pouvez utiliser l'authentification multifacteur pour protéger les comptes contre les accès non autorisés. C'est l'outil le plus important pour protéger votre organisation en cas d'identifiants de connexion compromis. Pour en savoir plus, consultez la page Protéger votre entreprise avec la validation en deux étapes.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Console d'administration de la console Google Cloud.

    Accéder à la console d'administration

  2. Appliquez la validation en deux étapes pour toutes les unités organisationnelles.

Supprimer les résultats de ce type

Pour supprimer les résultats de ce type, définissez une règle de blocage qui les ignore automatiquement. Pour en savoir plus, consultez la section Ignorer les résultats dans Security Command Center.

Bien que ce ne soit pas une méthode recommandée pour supprimer les résultats, vous pouvez également ajouter des marques de sécurité dédiées aux éléments afin que les détecteurs Security Health Analytics ne créent pas de résultats de sécurité pour ces éléments.

  • Pour empêcher la réactivation de ce résultat, ajoutez la marque de sécurité allow_mfa_not_enforced avec la valeur true à l'élément.
  • Pour ignorer les violations potentielles pour des unités organisationnelles spécifiques, ajoutez la marque de sécurité excluded_orgunits à l'élément avec une liste de chemins d'accès des unités organisationnelles séparés par des virgules dans le champ valeur. Exemple : excluded_orgunits:/people/vendors/vendorA,/people/contractors/contractorA.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Network not monitored

Nom de la catégorie dans l'API : NETWORK_NOT_MONITORED

Les statistiques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées au réseau VPC.

Pour détecter les modifications incorrectes ou non autorisées apportées à la configuration réseau, surveillez les modifications du réseau VPC. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez les tarifs de Google Cloud Observability.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      resource.type="gce_network"
      AND (protoPayload.methodName:"compute.networks.insert"
      OR protoPayload.methodName:"compute.networks.patch"
      OR protoPayload.methodName:"compute.networks.delete"
      OR protoPayload.methodName:"compute.networks.removePeering"
      OR protoPayload.methodName:"compute.networks.addPeering")

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification en cas d'ouverture et de fermeture d'un incident, cochez la case Notifier en cas de fermeture des incidents. Par défaut, les notifications ne sont envoyées que lorsque des incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Network policy disabled

Nom de la catégorie dans l'API : NETWORK_POLICY_DISABLED

La stratégie de réseau est désactivée sur les clusters GKE.

La communication entre les pods est ouverte par défaut. Une communication ouverte permet aux pods de se connecter directement aux nœuds, avec ou sans traduction d'adresse réseau. Une ressource NetworkPolicy est semblable à un pare-feu au niveau du pod qui restreint les connexions entre les pods, sauf si la ressource NetworkPolicy autorise explicitement la connexion. Découvrez comment définir une règle de réseau.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur le nom du cluster répertorié dans le résultat de Security Health Analytics.

  3. Sous Mise en réseau, sur la ligne Règle de réseau Kubernetes pour Calico, cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Dans la boîte de dialogue, sélectionnez Activer la règle de réseau Kubernetes pour Calico pour le plan de contrôle et Activer la règle de réseau Kubernetes pour Calico pour les nœuds.

  5. Cliquez sur Save Changes (Enregistrer les modifications).

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Nodepool boot CMEK disabled

Nom de la catégorie dans l'API : NODEPOOL_BOOT_CMEK_DISABLED

Les disques de démarrage de ce pool de nœuds ne sont pas chiffrés avec des clés de chiffrement gérées par le client (CMEK). La fonctionnalité CMEK permet à l'utilisateur de configurer les clés de chiffrement par défaut pour les disques de démarrage d'un pool de nœuds.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la liste des clusters, cliquez sur le nom du cluster dans le résultat.

  3. Cliquez sur l'onglet Nœuds.

  4. Pour chaque pool de nœuds default-pool, cliquez sur Supprimer.

  5. Lorsque vous êtes invité à confirmer votre choix, cliquez sur Supprimer.

  6. Pour créer des pools de nœuds à l'aide de CMEK, consultez la page Utiliser des clés de chiffrement gérées par le client (CMEK). CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Nodepool secure boot disabled

Nom de la catégorie dans l'API : NODEPOOL_SECURE_BOOT_DISABLED

Le démarrage sécurisé est désactivé pour un cluster GKE.

Activez le démarrage sécurisé pour les nœuds GKE protégés afin de valider les signatures numériques des composants de démarrage des nœuds. Pour plus d'informations, consultez la section Démarrage sécurisé.

Pour corriger ce résultat, procédez comme suit :

Une fois un pool de nœuds provisionné, il ne peut plus être mis à jour pour activer le démarrage sécurisé. Vous devez créer un pool de nœuds avec le démarrage sécurisé activé.

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur le nom du cluster dans le résultat.

  3. Cliquez sur Aouter un pool de nœuds.

  4. Dans le menu Pools de nœuds, procédez comme suit :

    1. Cliquez sur le nom du nouveau pool de nœuds pour développer l'onglet.
    2. Sélectionnez Sécurité puis, sous Options protégées, sélectionnez Activer le démarrage sécurisé.
    3. Cliquez sur Create (Créer).
    4. Pour migrer vos charges de travail des pools de nœuds non conformes existants vers les nouveaux pools de nœuds, consultez la page Migrer des charges de travail vers différents types de machines.
    5. Une fois les charges de travail déplacées, supprimez le pool de nœuds non conforme d'origine.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Non org IAM member

Nom de la catégorie dans l'API : NON_ORG_IAM_MEMBER

Un utilisateur hors de votre organisation ou de votre projet dispose d'autorisations IAM pour un projet ou une organisation. Découvrez les autorisations IAM.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page "IAM" de Google Cloud Console.

    Accéder à IAM

  2. Cochez la case à côté des utilisateurs externes à votre organisation ou à votre projet.

  3. Cliquez sur Supprimer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Object versioning disabled

Nom de la catégorie dans l'API : OBJECT_VERSIONING_DISABLED

La gestion des versions d'objets n'est pas activée sur un bucket de stockage dans lequel les récepteurs sont configurés.

Pour permettre la récupération des objets supprimés ou écrasés, Cloud Storage propose la fonctionnalité de gestion des versions d'objets. Activez la gestion des versions d'objets pour éviter que vos données Cloud Storage ne soient accidentellement écrasées ou supprimées. Découvrez comment Activer la gestion des versions d'objets.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, utilisez l'option --versioning dans une commande gcloud storage buckets update avec la valeur appropriée:

    gcloud storage buckets update gs://finding.assetDisplayName --versioning

Remplacez finding.assetDisplayName par le nom du bucket concerné.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open Cassandra port

Nom de la catégorie dans l'API : OPEN_CASSANDRA_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports Cassandra peuvent exposer vos services Cassandra aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service Cassandra sont les suivants :

  • TCP - 7000, 7001, 7199, 8888, 9042, 9160, 61620, 61621

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open ciscosecure websm port

Nom de la catégorie dans l'API : OPEN_CISCOSECURE_WEBSM_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports CiscoSecure/WebSM peuvent exposer vos services CiscoSecure/WebSM à des pirates informatiques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service CiscoSecure/WebSM sont les suivants :

  • TCP - 9090

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open directory services port

Nom de la catégorie dans l'API : OPEN_DIRECTORY_SERVICES_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports d'annuaire risquent d'exposer vos services d'annuaire aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports du service d'annuaire sont les suivants :

  • TCP - 445
  • UDP - 445

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open DNS port

Nom de la catégorie dans l'API : OPEN_DNS_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports DNS peuvent exposer vos services DNS aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service DNS sont les suivants :

  • TCP - 53
  • UDP - 53

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open Elasticsearch port

Nom de la catégorie dans l'API : OPEN_ELASTICSEARCH_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports Elasticsearch peuvent exposer vos services Elasticsearch aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports du service Elasticsearch sont les suivants :

  • TCP - 9200, 9300

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open firewall

Nom de la catégorie dans l'API : OPEN_FIREWALL

Les règles de pare-feu qui autorisent les connexions à partir de toutes les adresses IP (telles que 0.0.0.0/0) ou de tous les ports peuvent exposer inutilement les ressources à des attaques d'origine imprévue. Ces règles doivent être supprimées ou appliquées de façon explicite aux plages d'adresses IP sources ou aux ports prévus. Par exemple, dans les applications destinées à être publiques, envisagez de limiter les ports autorisés à ceux nécessaires à l'application, comme 80 et 443. Si votre application doit autoriser les connexions à partir de tous les ports ou adresses IP, vous pouvez ajouter l'élément à une liste d'autorisation. En savoir plus sur la mise à jour des règles de pare-feu.

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Règles de pare-feu de la console Google Cloud.

    Accéder aux règles de pare-feu

  2. Cliquez sur la règle de pare-feu répertoriée dans le résultat de Security Health Analytics, puis sur Modifier.

  3. Sous Plages d'adresses IP sources, modifiez les valeurs de d'adresse IP pour restreindre la plage d'adresses IP autorisées.

  4. Dans la section Protocoles et ports, sélectionnez Protocoles et ports spécifiés, sélectionnez les protocoles autorisés et saisissez les ports autorisés.

  5. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open FTP port

Nom de la catégorie dans l'API : OPEN_FTP_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports FTP peuvent exposer vos services FTP aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service FTP sont les suivants :

  • TCP - 21

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open group IAM member

Nom de la catégorie dans l'API : OPEN_GROUP_IAM_MEMBER

Un ou plusieurs comptes principaux ayant accès à une organisation, un projet ou un dossier sont des comptes Google Groupes pouvant être associés sans approbation.

Les clients Google Cloud peuvent utiliser des groupes Google pour gérer les rôles et les autorisations des membres de leur organisation, ou appliquer des règles d'accès à des groupes d'utilisateurs. Au lieu d'attribuer des rôles directement aux membres, les administrateurs peuvent attribuer des rôles et des autorisations à des groupes Google, puis ajouter des membres à des groupes spécifiques. Les membres du groupe héritent de l'ensemble des rôles et des autorisations de ce groupe, ce qui leur permet d'accéder à des ressources et à des services spécifiques.

Si un compte Google Groupes ouvert est utilisé comme compte principal dans une liaison IAM, n'importe qui peut hériter du rôle associé en rejoignant le groupe directement ou indirectement (via un sous-groupe). Nous vous recommandons de révoquer les rôles des groupes ouverts ou de limiter l'accès à ces groupes.

Pour corriger ce problème, effectuez l'une des procédures suivantes.

Supprimer le groupe de la stratégie IAM

  1. Accédez à la page "IAM" de Google Cloud Console.

    Accéder à IAM

  2. Si nécessaire, sélectionnez le projet, le dossier ou l'organisation dans le résultat.

  3. Révoquez le rôle de chaque groupe ouvert identifié dans le résultat.

Limiter l'accès aux groupes ouverts

  1. Connectez-vous à Google Groupes.
  2. Mettez à jour les paramètres de chaque groupe ouvert et des sous-groupes associés pour spécifier qui peut rejoindre le groupe et qui doit approuver les demandes.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open HTTP port

Nom de la catégorie dans l'API : OPEN_HTTP_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports HTTP peuvent exposer vos services HTTP aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service HTTP sont les suivants :

  • TCP - 80

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open LDAP port

Nom de la catégorie dans l'API : OPEN_LDAP_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports LDAP peuvent exposer vos services LDAP à des pirates informatiques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service LDAP sont les suivants :

  • TCP - 389, 636
  • UDP - 389

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open Memcached port

Nom de la catégorie dans l'API : OPEN_MEMCACHED_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports Memcached peuvent exposer vos services Memcached aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service Memcached sont les suivants :

  • TCP - 11211, 11214, 11215
  • UDP - 11211, 11214, 11215

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open MongoDB port

Nom de la catégorie dans l'API : OPEN_MONGODB_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports MongoDB peuvent exposer vos services MongoDB aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service MongoDB sont les suivants :

  • TCP - 27017, 27018, 27019

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open MySQL port

Nom de la catégorie dans l'API : OPEN_MYSQL_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports MySQL peuvent exposer vos services MySQL aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service MySQL sont les suivants :

  • TCP - 3306

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open NetBIOS port

Nom de la catégorie dans l'API : `OPEN_NETBIOS_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports NetBIOS peuvent exposer vos services NetBIOS aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports du service NetBIOS sont les suivants :

  • TCP - 137, 138, 139
  • UDP - 137, 138, 139

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open OracleDB port

Nom de la catégorie dans l'API : OPEN_ORACLEDB_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports OracleDB peuvent exposer vos services OracleDB aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service OracleDB sont les suivants :

  • TCP - 1521, 2483, 2484
  • UDP - 2483, 2484

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open POP3 port

Nom de la catégorie dans l'API : OPEN_POP3_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports POP3 peuvent exposer vos services POP3 aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service POP3 sont les suivants :

  • TCP - 110

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open PostgreSQL port

Nom de la catégorie dans l'API : OPEN_POSTGRESQL_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports PostgreSQL peuvent exposer vos services PostgreSQL aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service PostgreSQL sont les suivants :

  • TCP - 5432
  • UDP - 5432

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open RDP port

Nom de la catégorie dans l'API : OPEN_RDP_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports RDP peuvent exposer vos services RDP aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service RDP sont les suivants :

  • TCP - 3389
  • UDP - 3389

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open Redis port

Nom de la catégorie dans l'API : OPEN_REDIS_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports Redis peuvent exposer vos services Redis aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service Redis sont les suivants :

  • TCP - 6379

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open SMTP port

Nom de la catégorie dans l'API : OPEN_SMTP_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports SMTP peuvent exposer vos services SMTP aux pirates informatiques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service SMTP sont les suivants :

  • TCP - 25

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open SSH port

Nom de la catégorie dans l'API : OPEN_SSH_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports SSH peuvent exposer vos services SSH aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service SSH sont les suivants :

  • SCTP - 22
  • TCP - 22

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Open Telnet port

Nom de la catégorie dans l'API : OPEN_TELNET_PORT

Les règles de pare-feu autorisant toute adresse IP à se connecter aux ports Telnet peuvent exposer vos services Telnet aux attaques. Pour en savoir plus, consultez la page Présentation des règles de pare-feu VPC.

Les ports de service Telnet sont les suivants :

  • TCP - 23

Ce résultat est généré pour les règles de pare-feu vulnérables, même si vous désactivez intentionnellement les règles. Les résultats actifs des règles de pare-feu désactivées vous avertissent des configurations non sécurisées qui autoriseront le trafic indésirable si elles sont activées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Pare-feu de la console Google Cloud.

    Accéder à la page "Pare-feu"

  2. Dans la liste des règles de pare-feu, cliquez sur le nom de la règle de pare-feu dans le résultat.

  3. Cliquez sur Modifier.

  4. Sous Plages d'adresses IP sources, supprimez 0.0.0.0/0.

  5. Ajoutez des adresses IP ou des plages d'adresses IP spécifiques pour permettre les connexions à l'instance à partir de ces adresses

  6. Ajoutez les protocoles et ports spécifiques que vous souhaitez ouvrir sur votre instance.

  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Org policy Confidential VM policy

Nom de la catégorie dans l'API : ORG_POLICY_CONFIDENTIAL_VM_POLICY

Une ressource Compute Engine n'est pas conforme à la règle d'administration constraints/compute.restrictNonConfidentialComputing. Pour plus d'informations sur cette contrainte de règle d'administration, consultez la section Appliquer des contraintes de règle d'administration.

Le service Confidential VM doit être activé sur cette VM selon les règles définies par votre organisation. Les VM pour lesquelles ce service n'est pas activé n'utilisent pas le chiffrement de la mémoire d'exécution, ce qui les expose à des attaques ciblant cette section de mémoire.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cliquez sur le nom de l'instance dans le résultat.

  3. Si la VM ne nécessite pas le service Confidential VM, déplacez-la dans un nouveau dossier ou un nouveau projet.

  4. Si la VM requiert Confidential VM, cliquez sur Supprimer.

  5. Pour créer une instance avec Confidential VM activée, consultez la page Démarrage rapide : créer une instance de Confidential VM.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Org policy location restriction

Nom de la catégorie dans l'API : ORG_POLICY_LOCATION_RESTRICTION

La contrainte de règle d'administration gcp.resourceLocations vous permet de limiter la création de ressources aux régions cloud que vous sélectionnez. Pour en savoir plus, consultez la section Restreindre les emplacements de ressources.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Le détecteur ORG_POLICY_LOCATION_RESTRICTION couvre de nombreux types de ressources et les instructions de correction sont différentes pour chaque ressource. L'approche générale pour corriger les violations de localisation est la suivante :

  1. Copiez, déplacez ou sauvegardez la ressource hors région ou ses données dans une ressource située dans la région. Lisez la documentation sur les services individuels pour obtenir des instructions sur le déplacement des ressources.
  2. Supprimez la ressource d'origine hors région ou ses données.

Cette approche n'est pas possible pour tous les types de ressources. Pour obtenir des conseils, consultez les recommandations personnalisées fournies dans le résultat.

Autres considérations

Lorsque vous corrigez ce résultat, tenez compte des éléments suivants.

Ressources gérées

Le cycle de vie des ressources est parfois géré et contrôlé par d'autres ressources. Par exemple, un groupe d'instances Compute Engine géré crée et détruit des instances Compute Engine conformément à la règle d'autoscaling du groupe d'instances. Si les ressources gérées et de gestion sont couvertes par l'application des emplacements, les deux peuvent être signalées comme ne respectant pas la règle d'administration. La correction des résultats pour les ressources gérées doit être effectuée dans la gestion des ressources pour garantir la stabilité opérationnelle.

Ressources utilisées

Certaines ressources sont utilisées par d'autres ressources. Par exemple, un disque Compute Engine associé à une instance Compute Engine en cours d'exécution est considéré comme utilisé par l'instance. Si la ressource en cours d'utilisation enfreint la règle d'administration de l'emplacement, vous devez vous assurer qu'elle n'est pas utilisée avant de remédier à la violation de l'emplacement.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

OS login disabled

Nom de la catégorie dans l'API : OS_LOGIN_DISABLED

OS Login est désactivé sur cette instance Compute Engine.

OS Login active la gestion centralisée des clés SSH avec IAM et désactive les configurations de clés SSH basées sur les métadonnées dans toutes les instances d'un projet. Découvrez comment Configurer OS Login.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Métadonnées de la console Google Cloud.

    Accéder à la page "Métadonnées"

  2. Cliquez sur Modifier, puis sur Ajouter un élément.

  3. Ajoutez un élément comportant la clé enable-oslogin et la valeur TRUE.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Over privileged account

Nom de la catégorie dans l'API : OVER_PRIVILEGED_ACCOUNT

Ce nœud GKE utilise le nœud de service Compute Engine par défaut, qui dispose d'un accès étendu par défaut et potentiellement de privilèges trop élevés pour exécuter votre cluster GKE.

Pour corriger ce résultat, procédez comme suit :

Suivez les instructions pour Utiliser le principe du moindre privilège pour les comptes de service Google.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Over privileged scopes

Nom de la catégorie dans l'API : OVER_PRIVILEGED_SCOPES

Un compte de service de nœud possède des niveaux d'accès étendus.

Les niveaux d'accès représentent l'ancienne méthode de spécification des autorisations associées à votre instance. Pour réduire le risque d'élévation des privilèges lors d'une attaque, vous devez créer et utiliser un compte de service doté de privilèges minimaux pour exécuter votre cluster GKE.

Pour corriger ce résultat, suivez les instructions de la section Utiliser le principe du moindre privilège pour les comptes de service Google.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Over privileged service account user

Nom de la catégorie dans l'API : OVER_PRIVILEGED_SERVICE_ACCOUNT_USER

Un utilisateur possède les rôles iam.serviceAccountUser ou iam.serviceAccountTokenCreator au niveau du projet, du dossier ou de l'organisation, et non pour un compte de service spécifique.

L'attribution de ces rôles à un utilisateur pour un projet, un dossier ou une organisation permet à cet utilisateur d'accéder à tous les comptes de service existants et futurs de ce champ d'application. Cela peut entraîner une élévation involontaire des privilèges. Pour en savoir plus, consultez la section Autorisations des comptes de service.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page "IAM" de Google Cloud Console.

    Accéder à la page IAM

  2. Si nécessaire, sélectionnez le projet, le dossier ou l'organisation dans le résultat.

  3. Pour chaque compte principal auquel on a attribué roles/iam.serviceAccountUser ou roles/iam.serviceAccountTokenCreator, procédez comme suit :

    1. Cliquez sur Modifier.
    2. Dans le panneau Modifier les autorisations, à côté des rôles, cliquez sur Supprimer.
    3. Cliquez sur Enregistrer.
  4. Suivez ce guide pour autoriser des utilisateurs individuels à emprunter l'identité d'un seul compte de service. Vous devez suivre les instructions du guide pour chaque compte de service pour lequel vous souhaitez autoriser l'emprunt d'identité par les utilisateurs choisis.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Owner not monitored

Nom de la catégorie dans l'API : OWNER_NOT_MONITORED

Les métriques et les alertes de journal ne sont pas configurées pour surveiller les attributions ou les modifications de propriétaire de projet.

Le rôle de propriétaire Cloud IAM dispose du niveau de droits le plus élevé sur un projet. Pour sécuriser vos ressources, configurez des alertes afin d'être averti lorsque de nouveaux propriétaires sont ajoutés ou supprimés. Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez les tarifs de Google Cloud Observability.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      (protoPayload.serviceName="cloudresourcemanager.googleapis.com")
      AND (ProjectOwnership OR projectOwnerInvitee)
      OR (protoPayload.serviceData.policyDelta.bindingDeltas.action="REMOVE"
      AND protoPayload.serviceData.policyDelta.bindingDeltas.role="roles/owner")
      OR (protoPayload.serviceData.policyDelta.bindingDeltas.action="ADD"
      AND protoPayload.serviceData.policyDelta.bindingDeltas.role="roles/owner")

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification en cas d'ouverture et de fermeture d'un incident, cochez la case Notifier en cas de fermeture des incidents. Par défaut, les notifications ne sont envoyées que lorsque des incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Pod security policy disabled

Nom de la catégorie dans l'API : POD_SECURITY_POLICY_DISABLED

Cet objet PodSecurityPolicy est désactivé sur un cluster GKE.

Une stratégie PodSecurityPolicy est une ressource de contrôleur d'admission qui valide les demandes de création et de mise à jour de pods sur un cluster. Les clusters n'acceptent pas les pods qui ne répondent pas aux conditions définies dans PodSecurityPolicy.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, définissez et autorisez les règles PodSecurityPolicies, puis activez le contrôleur PodSecurityPolicy. Pour obtenir des instructions, consultez la page Utiliser PodSecurityPolicies.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Primitive roles used

Nom de la catégorie dans l'API : PRIMITIVE_ROLES_USED

Un utilisateur possède l'un des rôles de base IAM suivants : roles/owner, roles/editor ou roles/viewer. Ces rôles sont trop permissifs et ne doivent pas être utilisés. Ils doivent plutôt être attribués par projet.

Pour en savoir plus, consultez la page Comprendre les rôles.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page IAM de la console Google Cloud.

    Accéder à la stratégie IAM

  2. Pour chaque utilisateur attribué à un rôle primitif, envisagez plutôt d'utiliser des rôles plus précis.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Private cluster disabled

Nom de la catégorie dans l'API : PRIVATE_CLUSTER_DISABLED

Un cluster GKE possède un cluster privé désactivé.

Les nœuds de clusters privés ne peuvent utiliser que des adresses IP privées. Cette fonctionnalité limite l'accès Internet sortant pour les nœuds. Si un nœud de cluster ne dispose pas d'une adresse IP publique, il n'est pas visible ni exposé sur le réseau Internet public. Vous pouvez toutefois utiliser un équilibreur de charge interne pour acheminer le trafic vers ce nœud. Pour plus d'informations, consultez la section Clusters privés.

Vous ne pouvez pas créer un cluster privé à partir d'un cluster existant. Pour corriger ce résultat, créez un cluster privé :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur Create Cluster (Créer le cluster).

  3. Dans le menu de navigation, sous Cluster, sélectionnez Networking (Mise en réseau).

  4. Sélectionnez la case d'option Private cluster (Cluster privé).

  5. Sous Options de mise en réseau avancées, cochez la case Activer le routage du trafic de VPC natif (utilisation d'une adresse IP d'alias).

  6. Cliquez sur Créer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Private Google access disabled

Nom de la catégorie dans l'API : PRIVATE_GOOGLE_ACCESS_DISABLED

Il existe des sous-réseaux privés sans accès aux API publiques Google.

L'accès privé à Google permet aux instances de VM n'ayant que des adresses IP internes (privées) d'atteindre les adresses IP publiques des API et des services Google.

Pour plus d'informations, consultez la section Configurer l'accès privé à Google.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Réseaux VPC dans Google Cloud Console.

    Accéder aux réseaux VPC

  2. Dans la liste des réseaux, cliquez sur le nom du réseau souhaité.

  3. Sur la page Détails du réseau VPC, cliquez sur l'onglet Sous-réseaux.

  4. Dans la liste des sous-réseaux, cliquez sur le nom du sous-réseau associé au cluster Kubernetes dans le résultat.

  5. Sur la page Détails du sous-réseau, cliquez sur Modifier.

  6. Dans le champ Accès privé à Google, sélectionnez Activé.

  7. Cliquez sur Enregistrer.

  8. Pour supprimer les adresses IP publiques (externes) des instances de VM dont le seul trafic externe est destiné aux API Google, consultez la section Annuler l'attribution d'une adresse IP externe statique.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Public bucket ACL

Nom de la catégorie dans l'API : PUBLIC_BUCKET_ACL

Un bucket est public et accessible sur Internet par tous les internautes.

Pour en savoir plus, consultez la page Présentation du contrôle des accès.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Navigateur de stockage de la console Google Cloud.

    Accéder au navigateur Cloud Storage

  2. Sélectionnez le bucket répertorié dans le résultat de Security Health Analytics.

  3. Sur la page Informations sur le bucket, cliquez sur l'onglet Autorisations.

  4. À côté de Afficher par, cliquez sur Rôles.

  5. Dans le champ Filtre, recherchez allUsers et allAuthenticatedUsers.

  6. Cliquez sur Supprimer pour supprimer toutes les autorisations IAM accordées à allUsers et allAuthenticatedUsers.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Public Compute image

Nom de la catégorie dans l'API : PUBLIC_COMPUTE_IMAGE

Une image Compute Engine est publique et tous les internautes peuvent y accéder. allUsers représente n'importe quel internaute, tandis que allAuthenticatedUsers représente toute personne authentifiée avec un compte Google. Aucune de ces personnes n'est limitée aux utilisateurs de votre organisation.

Les images Compute Engine peuvent contenir des informations sensibles telles que des clés de chiffrement ou des logiciels sous licence. Ces informations sensibles ne doivent pas être accessibles publiquement. Si vous souhaitez rendre cette image Compute publique, assurez-vous qu'elle ne contient aucune information sensible.

Pour en savoir plus, consultez la page Présentation du contrôle des accès.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Images Compute Engine dans la console Google Cloud.

    Accéder aux images Compute Engine

  2. Cochez la case à côté de l'image public-image (Image publique), puis cliquez sur Afficher le panneau d'informations.

  3. Dans la zone Filtre, recherchez les membres allUsers et allAuthenticatedUsers.

  4. Développez le rôle au sein duquel vous souhaitez supprimer des utilisateurs.

  5. Cliquez sur Supprimer pour retirer un utilisateur de ce rôle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Public dataset

Nom de la catégorie dans l'API : PUBLIC_DATASET

Les ensembles de données BigQuery sont publics et accessibles à tous les internautes. Le membre IAM allUsers représente n'importe quel internaute, tandis qu'allAuthenticatedUsers représente toute personne connectée à un service Google. Aucun de ces membres ne se limite aux utilisateurs de votre organisation.

Pour en savoir plus, consultez la page Contrôler l'accès aux ensembles de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Explorateur de la console Google Cloud.

    Accéder à la page "Ensemble de données BigQuery"

  2. Dans la liste des ensembles de données, cliquez sur le nom de celui identifié dans le résultat. Le panneau Informations sur l'ensemble de données s'affiche.

  3. En haut du panneau Informations sur l'ensemble de données, cliquez sur PARTAGE.

  4. Dans le menu déroulant, cliquez sur Autorisations.

  5. Dans le panneau Autorisations d'ensemble de données, saisissez allUsers et allAuthenticatedUsers, puis supprimez l'accès pour ces comptes principaux.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Public IP address

Nom de la catégorie dans l'API : PUBLIC_IP_ADDRESS

Une instance Compute Engine possède une adresse IP publique.

Pour réduire la surface d'attaque de votre organisation, évitez d'attribuer des adresses IP publiques à vos VM. Il se peut que les instances arrêtées déclenchent tout de même un résultat de type "adresse IP publique", par exemple si les interfaces réseau sont configurées pour attribuer une adresse IP publique éphémère au démarrage. Assurez-vous que les configurations réseau pour les instances arrêtées n'incluent pas l'accès externe.

Pour en savoir plus, consultez la section Se connecter en toute sécurité aux instances de VM.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page Instances de VM

  2. Dans la liste des instances, cochez la case située à côté du nom de l'instance dans le résultat.

  3. Cliquez sur Modifier.

  4. Pour chaque interface sous Interfaces réseau, cliquez sur Modifier et définissez Adresse IP externe sur Aucune.

  5. Cliquez sur OK, puis sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Public log bucket

Nom de la catégorie dans l'API : PUBLIC_LOG_BUCKET

Cette information n'est pas disponible pour les activations au niveau du projet.

Un bucket de stockage est public et utilisé comme récepteur de journaux, ce qui signifie que n'importe qui sur Internet peut accéder aux journaux stockés dans ce bucket. allUsers représente n'importe quel utilisateur sur Internet, tandis que allAuthenticatedUsers représente toute personne connectée à un service Google. Aucun des deux ne se limite aux utilisateurs de votre organisation.

Pour en savoir plus, consultez la page Présentation du contrôle des accès.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page du navigateur Cloud Storage dans la console Google Cloud.

    Accéder au navigateur Cloud Storage

  2. Dans la liste des buckets, cliquez sur le nom du bucket indiqué dans le résultat.

  3. Cliquez sur l'onglet Autorisations.

  4. Supprimez allUsers et allAuthenticatedUsers de la liste des comptes principaux.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Public SQL instance

Nom de la catégorie dans l'API : PUBLIC_SQL_INSTANCE

Votre instance SQL comprend 0.0.0.0/0 comme réseau autorisé. Cela signifie que des clients IPv4 peuvent traverser le pare-feu du réseau et tenter de se connecter à votre instance, y compris des clients que vous ne souhaitiez pas autoriser. Les clients ont toujours besoin d'identifiants valides pour se connecter à votre instance.

Pour plus d'informations, consultez la section Autoriser avec des réseaux autorisés.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans le panneau de navigation, cliquez sur Connexions.

  5. Sous Réseaux autorisés, supprimez 0.0.0.0/0 et ajoutez des adresses IP ou des plages d'adresses IP spécifiques que vous souhaitez autoriser à se connecter à votre instance.

  6. Cliquez sur OK, puis sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Pubsub CMEK disabled

Nom de la catégorie dans l'API : PUBSUB_CMEK_DISABLED

Un sujet Pub/Sub n'est pas chiffré avec des clés de chiffrement gérées par le client (CMEK).

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés que Google utilise pour chiffrer vos données, vous permettant ainsi de mieux contrôler vos accès.

Pour corriger ce résultat, supprimez le sujet existant et créez-en un autre :

  1. Accédez à la page Sujets de Pub/Sub dans la console Google Cloud.

    Accéder aux sujets

  2. Si nécessaire, sélectionnez le projet contenant le sujet Pub/Sub.

  3. Cochez la case située à côté du sujet répertorié dans le résultat, puis cliquez sur Supprimer.

  4. Pour créer un sujet Pub/Sub avec CMEK activé, consultez la page Utiliser des clés de chiffrement gérées par le client. CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

  5. Publiez les résultats ou d'autres données dans le sujet Pub/Sub compatible avec CMEK.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Route not monitored

Nom de la catégorie dans l'API : ROUTE_NOT_MONITORED

Les statistiques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées à la route de réseau VPC.

Les routes Google Cloud sont une série de destinations et de sauts qui définissent le chemin du trafic réseau entre une instance de VM et une adresse IP de destination. En surveillant les modifications apportées aux tables de routage, vous pouvez vous assurer que tout le trafic VPC transite par un chemin attendu.

Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez les tarifs de Google Cloud Observability.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      resource.type="gce_route"
      AND (protoPayload.methodName:"compute.routes.delete"
      OR protoPayload.methodName:"compute.routes.insert")

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification en cas d'ouverture et de fermeture d'un incident, cochez la case Notifier en cas de fermeture des incidents. Par défaut, les notifications ne sont envoyées que lorsque des incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Redis role used on org

Nom de la catégorie dans l'API : REDIS_ROLE_USED_ON_ORG

Cette information n'est pas disponible pour les activations au niveau du projet.

Un rôle IAM Redis est attribué au niveau de l'organisation ou du dossier.

Les rôles Redis IAM suivants ne doivent être attribués que par projet, et non au niveau de l'organisation ou du dossier :

  • roles/redis.admin
  • roles/redis.viewer
  • roles/redis.editor

Pour en savoir plus, consultez la page Contrôle des accès et autorisations.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page IAM de la console Google Cloud.

    Accéder à la stratégie IAM

  2. Supprimez les rôles IAM Redis indiqués dans le résultat et ajoutez-les à chaque projet.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Release channel disabled

Nom de la catégorie dans l'API : RELEASE_CHANNEL_DISABLED

Un cluster GKE n'est pas abonné à une version disponible.

Abonnez-vous à une version disponible pour automatiser les mises à niveau de version sur le cluster GKE. Ces fonctionnalités réduisent également la complexité de la gestion des versions en termes de nombre de fonctionnalités et de niveau de stabilité requis. Pour en savoir plus, consultez la page Versions disponibles.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Dans la section Paramètres de base du cluster, cliquez sur  Mettre à niveau la version maître du cluster sur la ligne Canal de publication.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  3. Dans la boîte de dialogue, sélectionnez Version disponible, puis la version disponible à laquelle vous souhaitez vous abonner.

    Si la version du plan de contrôle de votre cluster ne peut pas être mise à niveau vers une version disponible, cette version peut être désactivée.

  4. Cliquez sur Save Changes (Enregistrer les modifications).

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

RSASHA1 for signing

Nom de la catégorie dans l'API : RSASHA1_FOR_SIGNING

RSASHA1 est utilisé pour la signature de clé dans les zones Cloud DNS. L'algorithme utilisé pour la signature des clés ne doit pas être faible.

Pour corriger ce résultat, remplacez l'algorithme par un algorithme recommandé en suivant le guide Utiliser les options de signature avancées.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Service account key not rotated

Nom de la catégorie dans l'API : SERVICE_ACCOUNT_KEY_NOT_ROTATED

Cette information n'est pas disponible pour les activations au niveau du projet.

La clé d'un compte de service géré par l'utilisateur n'a pas subi de rotation depuis plus de 90 jours.

En général, les clés de compte de service gérées par l'utilisateur doivent être alternées au moins tous les 90 jours pour garantir que les données ne sont pas accessibles avec une ancienne clé qui aurait été perdue, compromise ou volée. Pour en savoir plus, consultez la page Effectuer une rotation des clés de compte de service pour réduire le risque de sécurité causé par les clés piratées.

Si vous avez généré vous-même la paire de clés publique/privée, stocké la clé privée dans un module de sécurité matérielle (HSM) et importé la clé publique dans Google, vous n'aurez peut-être pas besoin pour effectuer une rotation de la clé tous les 90 jours. Au lieu de cela, vous pouvez alterner la clé si vous pensez qu'elle a peut-être été compromise.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Comptes de service dans la console Google Cloud.

    Accéder à la page "Comptes de service"

  2. Si nécessaire, sélectionnez le projet indiqué dans le résultat.

  3. Dans la liste des comptes de service, recherchez celui qui figure dans le résultat, puis cliquez sur Supprimer. Avant de continuer, réfléchissez à l'impact qu'une suppression de compte de service pourrait avoir sur vos ressources de production.

  4. Créez une clé de compte de service pour remplacer la clé supprimée. Pour en savoir plus, consultez la section Créer des clés de compte de service.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Service account role separation

Nom de la catégorie dans l'API : SERVICE_ACCOUNT_ROLE_SEPARATION

Cette information n'est pas disponible pour les activations au niveau du projet.

Plusieurs autorisations de compte de service ont été attribuées à un ou plusieurs comptes principaux de votre organisation. Aucun compte ne doit disposer simultanément de Administrateur de compte de service et d'autres autorisations de compte de service. Pour en savoir plus sur les comptes de service et les rôles disponibles, consultez la page Comptes de service.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page IAM de la console Google Cloud.

    Accéder à IAM

  2. Pour chaque compte principal répertorié dans le résultat, procédez comme suit :

    1. Pour vérifier si le rôle a été hérité d'un dossier ou d'une ressource d'organisation, consultez la colonne Héritage. Si la colonne contient un lien vers une ressource parente, cliquez sur ce lien pour accéder à la page IAM de la ressource parente.
    2. Cliquez sur  Modifier à côté d'un compte principal.
    3. Pour supprimer des autorisations, cliquez sur Supprimer à côté de l'option Administrateur de compte de service. Si vous souhaitez supprimer toutes les autorisations de compte de service, cliquez sur Supprimer à côté de toutes les autres autorisations.
  3. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Shielded VM disabled

Nom de la catégorie dans l'API : SHIELDED_VM_DISABLED

La VM protégée est désactivée sur cette instance Compute Engine.

Les VM protégées sont des machines virtuelles (VM) hébergées sur Google Cloud Platform, renforcées par un ensemble de paramètres de sécurité conçus pour éliminer les rootkits et les bootkits. Les VM protégées permettent de garantir que le bootloader et le micrologiciel sont signés et validés. En savoir plus sur les VM protégées.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances de VM de la console Google Cloud.

    Accéder à la page "Instances de VM"

  2. Sélectionnez l'instance associée au résultat de Security Health Analytics.

  3. Sur la page Détails de l'instance qui s'affiche, cliquez sur Arrêter.

  4. Une fois l'instance arrêtée, cliquez sur Modifier.

  5. Dans la section VM protégée, cochez les options Activer vTPM et Activer la surveillance de l'intégrité pour activer la VM protégée.

  6. Si vous n'utilisez aucun pilote personnalisé ou non signé, vous pouvez également activer le démarrage sécurisé.

  7. Cliquez sur Enregistrer. La nouvelle configuration s'affiche sur la page Détails de l'instance.

  8. Cliquez sur  Démarrer pour démarrer l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL CMEK disabled

Nom de la catégorie dans l'API : SQL_CMEK_DISABLED

Une instance de base de données SQL n'utilise pas de clés de chiffrement gérées par le client (CMEK).

Avec CMEK, les clés que vous créez et gérez dans Cloud KMS encapsulent les clés que Google utilise pour chiffrer vos données, vous permettant ainsi de mieux contrôler vos accès. Pour en savoir plus, consultez la présentation des clés CMEK de votre produit : Cloud SQL pour MySQL, Cloud SQL pour PostgreSQL ou Cloud SQL pour SQL Server. CMEK entraîne des coûts supplémentaires liés à Cloud KMS.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Supprimer.

  4. Pour créer une instance sur laquelle CMEK est activé, suivez les instructions permettant de configurer CMEK pour votre produit :

    1. Cloud SQL pour MySQL
    2. Cloud SQL pour PostgreSQL
    3. Cloud SQL pour SQL Server

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL contained database authentication

Nom de la catégorie dans l'API : SQL_CONTAINED_DATABASE_AUTHENTICATION

L'option de base de données contenant l'authentification de base de données n'est pas défini sur Désactivé pour une instance de base de données Cloud SQL pour SQL Server.

L'option contained database authentication (authentification de la base de données autonome) permet de créer ou d'associer des bases de données autonomes au moteur de base de données. Une base de données autonome contient tous les paramètres et métadonnées nécessaires à la définition de la base de données et ne possède aucune dépendance de configuration sur l'instance du moteur de base de données où elle est installée.

L'activation de cet indicateur n'est pas recommandée pour les raisons suivantes :

  • Les utilisateurs peuvent se connecter à la base de données sans authentification au niveau du moteur.
  • L'isolation de la base de données du moteur permet de déplacer la base de données vers une autre instance SQL Server.

Les bases de données autonomes sont confrontées à des menaces uniques qui doivent être comprises et contrées par les administrateurs de moteur de base de données SQL Server. La plupart des menaces résultent du processus d'authentification USER WITH PASSWORD (utilisateur avec mot de passe), ce qui déplace la limite d'authentification du moteur de base de données jusqu'à la base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données contained database authentication (authentification de la base de données autonome) avec la valeur Désactivé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL cross DB ownership chaining

Nom de la catégorie dans l'API : SQL_CROSS_DB_OWNERSHIP_CHAINING

L'indicateur de base de données cross dbproperty chainchaining n'est pas défini sur Désactivé pour une instance de base de données Cloud SQL pour SQL Server.

L'option cross db ownership chaining (chaînage de propriété entre les bases de données) vous permet de contrôler le chaînage de propriété entre les bases de données au niveau de la base de données, ou d'autoriser ce chaînage pour toutes les instructions de base de données.

Il n'est pas recommandé d'activer cette option, sauf si toutes les bases de données hébergées par l'instance SQL Server participent à un chaînage de propriété entre les bases de données et que vous connaissez les implications de ce paramètre sur la sécurité.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données cross db ownership chaining (chaînage de propriété entre les bases de données) avec la valeur Désactivé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL external scripts enabled

Nom de la catégorie dans l'API : SQL_EXTERNAL_SCRIPTS_ENABLED

L'indicateur de base de données Scripts externes activés n'est pas défini sur Off pour une instance de base de données Cloud SQL pour SQL Server.

Lorsqu'il est activé, ce paramètre permet d'exécuter des scripts avec certaines extensions de langage distant. Étant donné que cette fonctionnalité peut avoir un impact négatif sur la sécurité du système, nous vous recommandons de la désactiver.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Indicateurs de base de données, définissez l'indicateur de base de données scripts externes activés avec la valeur Off.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL instance not monitored

Nom de la catégorie dans l'API : SQL_INSTANCE_NOT_MONITORED

Cette information n'est pas disponible pour les activations au niveau du projet.

Les métriques et les alertes de journal ne sont pas configurées pour surveiller les modifications apportées à l'instance Cloud SQL.

Une mauvaise configuration des options des instances SQL peut entraîner des risques de sécurité. La désactivation des options de sauvegarde automatique et de haute disponibilité peut avoir un impact sur la continuité de l'activité et ne pas limiter les réseaux autorisés peut augmenter l'exposition aux réseaux non approuvés. La surveillance des modifications apportées à la configuration de l'instance SQL vous permet de réduire le temps nécessaire à la détection et à la correction des erreurs de configuration.

Pour en savoir plus, consultez la présentation des métriques basées sur les journaux.

Selon la quantité d'informations, les coûts liés à Cloud Monitoring peuvent être importants. Pour comprendre votre utilisation du service et son coût, consultez la page Tarifs de Google Cloud Observability.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

Créer une métrique

  1. Accédez à la page Métriques basées sur les journaux de la console Google Cloud.

    Accéder aux métriques basées sur les journaux

  2. Cliquez sur Créer la métrique.

  3. Sous Type de métrique, sélectionnez Compteur.

  4. Sous Détails :

    1. Définissez un nom de métrique de journal.
    2. Ajoutez une description.
    3. Définissez le champ Unités sur 1.
  5. Sous Sélection du filtre, copiez et collez le texte suivant dans la zone Créer un filtre, en remplaçant le texte existant si nécessaire :

      protoPayload.methodName="cloudsql.instances.update"
      OR protoPayload.methodName="cloudsql.instances.create"
      OR protoPayload.methodName="cloudsql.instances.delete"

  6. Cliquez sur Créer la métrique. Un message de confirmation s'affiche.

Créer une règle d'alerte

  1. Dans la console Google Cloud, accédez à la page Métriques basées sur les journaux.

    Accéder à la page Métriques basées sur les journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Sous la section Métriques définies par l'utilisateur, sélectionnez la métrique que vous avez créée dans la section précédente.
  3. Cliquez sur Plus , puis sur Créer une alerte à partir de la métrique.

    La boîte de dialogue Nouvelle condition s'affiche, avec les options de métrique et de transformation de données préremplies.

  4. Cliquez sur Suivant.
    1. Vérifiez les paramètres préremplis. Vous voudrez peut-être modifier le champ Valeur du seuil.
    2. Cliquez sur Nom de la condition, puis saisissez un nom pour la condition.
  5. Cliquez sur Suivant.
  6. Pour ajouter des notifications à votre règle d'alerte, cliquez sur Canaux de notification. Dans la boîte de dialogue, sélectionnez un ou plusieurs canaux de notification dans le menu, puis cliquez sur OK.

    Pour recevoir une notification en cas d'ouverture et de fermeture d'un incident, cochez la case Notifier en cas de fermeture des incidents. Par défaut, les notifications ne sont envoyées que lorsque des incidents sont ouverts.

  7. (Facultatif) Mettez à jour la durée de fermeture automatique de l'incident. Ce champ détermine à quel moment Monitoring ferme les incidents en l'absence de données de métriques.
  8. Facultatif : Cliquez sur Documentation, puis ajoutez les informations à inclure dans le message de notification.
  9. Cliquez sur Nom de l'alerte et saisissez un nom pour la règle d'alerte.
  10. Cliquez sur Créer une règle.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL local infile

Nom de la catégorie dans l'API : SQL_LOCAL_INFILE

L'option de base de données local_infile n'est pas définie sur Désactivé pour une instance de base de données Cloud SQL pour MySQL. En raison de problèmes de sécurité associés à l'indicateur local_infile, vous devez le désactiver. Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données local_infile avec la valeur Désactivé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log checkpoints disabled

Nom de la catégorie dans l'API : SQL_LOG_CHECKPOINTS_DISABLED

L'option log_disconnections de la base de données n'est pas définie sur Activé pour une instance de base de données Cloud SQL pour PostgreSQL.

L'activation de log_checkpoints entraîne la journalisation des points de contrôle et des points de redémarrage dans le journal du serveur. Certaines statistiques sont incluses dans les messages de journal, par exemple le nombre de tampons écrits et le temps passé à les écrire.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_checkpoints avec la valeur Activé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log connections disabled

Nom de la catégorie dans l'API : SQL_LOG_CONNECTIONS_DISABLED

L'option log_disconnections de la base de données n'est pas définie sur Activé pour une instance de base de données Cloud SQL pour PostgreSQL.

L'activation du paramètre log_connections entraîne la journalisation des tentatives de connexions au serveur et des authentifications client réussies. Les journaux peuvent être utiles pour résoudre des problèmes et confirmer les tentatives de connexion au serveur inhabituelles.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_connections avec la valeur Activé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log disconnections disabled

Nom de la catégorie dans l'API : SQL_LOG_DISCONNECTIONS_DISABLED

L'option log_disconnections de la base de données Cloud SQL pour PostgreSQL n'est pas définie sur Activé.

L'activation du paramètre log_disconnections crée des entrées de journal à la fin de chaque session. Les journaux sont utiles pour résoudre les problèmes et confirmer une activité inhabituelle sur une période donnée. Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_disconnections avec la valeur Activé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log duration disabled

Nom de la catégorie dans l'API : SQL_LOG_DURATION_DISABLED

L'option log_duration de la base de données Cloud SQL pour PostgreSQL n'est pas définie sur Activé.

Lorsque log_duration est activé, ce paramètre entraîne la journalisation de l'heure et de la durée d'exécution de chaque instruction terminée à consigner. Surveiller le temps que prend l'exécution des requêtes peut s'avérer crucial pour identifier les requêtes lentes et résoudre les problèmes de base de données.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_duration sur Activée.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log error verbosity

Nom de la catégorie dans l'API : SQL_LOG_ERROR_VERBOSITY

L'option de base de données log_error_verbosity n'est pas définie sur par défaut ou verbose pour une instance de base de données Cloud SQL pour PostgreSQL.

L'option log_error_verbosity contrôle la quantité de détails des messages consignés. Plus la verbosité est élevée, plus les messages enregistrés contiennent de détails. Nous vous recommandons de définir cette option sur default (par défaut) ou verbose (détaillé).

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_error_verbosity sur default ou verbose.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log lock waits disabled

Nom de la catégorie dans l'API : SQL_LOG_LOCK_WAITS_DISABLED

L'option de base de données log_lock_waits n'est pas définie sur Activé pour une instance de base de données Cloud SQL pour PostgreSQL.

L'activation du paramètre log_lock_waits crée des entrées de journal lorsque le temps nécessaire à l'acquisition d'un verrou par une session est supérieur au délai deadlock_timeout. Les journaux sont utiles pour déterminer si les temps de verrouillage causent de mauvaises performances.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_lock_waits sur Activé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log min duration statement enabled

Nom de la catégorie dans l'API : SQL_LOG_MIN_DURATION_STATEMENT_ENABLED

L'indicateur de base de données log_min_duration_statement n'est pas défini sur -1 pour une instance de base de données Cloud SQL pour PostgreSQL.

L'option log_min_duration_statement entraîne la journalisation des instructions SQL dont la durée d'exécution dépasse un seuil spécifié. Envisagez de désactiver ce paramètre, car les instructions SQL peuvent contenir des informations sensibles qui ne doivent pas être consignées. Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_min_duration_statement sur la valeur -1.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log min error statement

Nom de la catégorie dans l'API : SQL_LOG_MIN_ERROR_STATEMENT

L'option log_min_error_statement n'est pas définie correctement pour une instance de base de données Cloud SQL pour PostgreSQL.

L'option log_min_error_statement détermine si les instructions SQL provoquant des conditions d'erreur sont enregistrées dans les journaux du serveur. Les instructions SQL présentant un niveau de gravité supérieur ou égal à celui spécifié sont consignées avec les messages associés aux instructions en état d'erreur. Plus le niveau de gravité est élevé, moins le nombre de messages enregistrés est important.

Si l'option log_min_error_statement n'est pas définie sur la valeur souhaitée, il est possible que certains messages ne soient pas classés comme messages d'erreur. Un niveau de gravité défini sur une valeur trop basse a pour effet d'augmenter le nombre de messages et de rendre plus difficile l'identification des erreurs réelles. Si un niveau de gravité est défini sur une valeur trop élevée, il est possible que les messages correspondant à des erreurs réelles ne soient pas consignés.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_min_error_statement sur l'une des valeurs recommandées suivantes, en fonction de la stratégie de journalisation de votre organisation.

    • debug5
    • debug4
    • debug3
    • debug2
    • debug1
    • info
    • notice
    • warning
    • error
  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log min error statement severity

Nom de la catégorie dans l'API : SQL_LOG_MIN_ERROR_STATEMENT_SEVERITY

L'option log_min_error_statement n'est pas définie correctement pour une instance de base de données Cloud SQL pour PostgreSQL.

L'option log_min_error_statement détermine si les instructions SQL provoquant des conditions d'erreur sont enregistrées dans les journaux du serveur. Les instructions SQL présentant un niveau de gravité égal à celui spécifié ou plus strifct sont consignées avec les messages associés aux instructions en état d'erreur. Plus le niveau de gravité est strict, moins le nombre de messages enregistrés est important.

Si l'option log_min_error_statement n'est pas définie sur la valeur souhaitée, il est possible que certains messages ne soient pas classés comme messages d'erreur. Un niveau de gravité défini sur une valeur trop basse a pour effet d'augmenter le nombre de messages et de rendre plus difficile l'identification des erreurs réelles. Un niveau de gravité trop élevé (trop strict) peut empêcher la consignation des messages d'erreur pour des erreurs réelles.

Nous vous recommandons de définir cette option sur error ou plus strict.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_min_error_statement sur l'une des valeurs recommandées suivantes, en fonction de la stratégie de journalisation de votre organisation.

    • error
    • log
    • fatal
    • panic
  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log min messages

Nom de la catégorie dans l'API : SQL_LOG_MIN_MESSAGES

L'indicateur de base de données log_min_messages n'est pas défini au minimum sur warning pour une instance de base de données Cloud SQL pour PostgreSQL.

L'option log_min_messages contrôle les niveaux de message enregistrés dans les journaux du serveur. Plus le niveau de gravité est élevé, moins le nombre de messages enregistrés est important. Si vous définissez un seuil trop bas, la taille et la longueur des journaux stockés peuvent augmenter, ce qui risque de compliquer la recherche d'erreurs réelles.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_min_messages sur l'une des valeurs recommandées suivantes, en fonction de la stratégie de journalisation de votre organisation.

    • debug5
    • debug4
    • debug3
    • debug2
    • debug1
    • info
    • notice
    • warning
  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log executor stats enabled

Nom de la catégorie dans l'API : SQL_LOG_EXECUTOR_STATS_ENABLED

L'indicateur de base de données log_executor_stats n'est pas défini sur Off pour une instance de base de données Cloud SQL pour PostgreSQL.

Lorsque l'option log_executor_stats est activée, les statistiques de performance de l'exécuteur sont incluses dans les journaux PostgreSQL pour chaque requête. Ce réglage peut s'avérer utile pour le dépannage, mais peut aussi augmenter considérablement la quantité de journaux et altérer les performances.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_executor_stats sur Désactivé.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log hostname enabled

Nom de la catégorie dans l'API : `SQL_LOG_HOSTNAME_ENABLED

L'indicateur de base de données log_hostname n'est pas défini sur 0 pour une instance de base de données Cloud SQL pour PostgreSQL.

Lorsque l'indicateur log_hostname est activé, le nom de l'hôte connecté est enregistré. Par défaut, les messages de journal de connexion n'affichent que l'adresse IP. Ce paramètre peut s'avérer utile pour le dépannage. Toutefois, cela peut avoir une incidence sur les performances du serveur. En effet, pour chaque instruction consignée, une résolution DNS est requise pour convertir une adresse IP en nom d'hôte.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_hostname sur Off.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log parser stats enabled

Nom de la catégorie dans l'API : SQL_LOG_PARSER_STATS_ENABLED

L'indicateur de base de données log_parser_stats n'est pas défini sur Off pour une instance de base de données Cloud SQL pour PostgreSQL.

Lorsque l'option log_parser_stats est activée, les statistiques de performances de l'analyseur sont incluses dans les journaux PostgreSQL pour chaque requête. Ce réglage peut s'avérer utile pour le dépannage, mais peut aussi augmenter considérablement la quantité de journaux et altérer les performances.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_parser_stats sur Off (Désactivée).

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log planner stats enabled

Nom de la catégorie dans l'API : SQL_LOG_PLANNER_STATS_ENABLED

L'indicateur de base de données log_planner_stats n'est pas défini sur Off pour une instance de base de données Cloud SQL pour PostgreSQL.

Lorsque l'option log_planner_stats est activée, une méthode de profilage brut permettant de consigner les statistiques de performances du planificateur PostgreSQL est utilisée. Ce réglage peut s'avérer utile pour le dépannage, mais peut aussi augmenter considérablement la quantité de journaux et altérer les performances.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_planner_stats sur Off.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log statement

Nom de la catégorie dans l'API : SQL_LOG_STATEMENT

L'indicateur de base de données log_statement n'est pas défini sur ddl pour une instance de base de données Cloud SQL pour PostgreSQL.

La valeur de cette option contrôle quelles sont les instructions SQL qui sont consignées dans les journaux. La journalisation permet de résoudre les problèmes opérationnels et d'effectuer des analyses forensiques. Si cette option n'est pas définie sur la bonne valeur, des informations pertinentes peuvent être ignorées ou perdues dans un trop grand nombre de messages. Une valeur de ddl (toutes les instructions de définition de données) est recommandée, sauf indication contraire dans la stratégie de journalisation de votre organisation.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_statement sur ddl.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log statement stats enabled

Nom de la catégorie dans l'API : SQL_LOG_STATEMENT_STATS_ENABLED

L'indicateur de base de données log_statement_stats n'est pas défini sur Off pour une instance de base de données Cloud SQL pour PostgreSQL.

Lorsque l'option log_statement_stats est activé, des statistiques de performance de bout en bout sont incluses dans les journaux PostgreSQL pour chaque requête. Ce réglage peut s'avérer utile pour le dépannage, mais peut aussi augmenter considérablement la quantité de journaux et altérer les performances.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Indicateurs de base de données, définissez l'option de base de données log_statement_stats sur Off.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL log temp files

Nom de la catégorie dans l'API : SQL_LOG_TEMP_FILES

L'indicateur de base de données log_temp_files n'est pas défini sur 0 pour une instance de base de données Cloud SQL pour PostgreSQL.

Des fichiers temporaires peuvent être créés pour les tris, les hachages et les résultats de requête temporaires. Lorsque l'option log_temp_files est définie sur 0, tous les fichiers temporaires sont journalisés. Cela permet d'identifier d'éventuels problèmes de performances. Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options de base de données, définissez l'option de base de données log_temp_files sur 0.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL no root password

Nom de la catégorie dans l'API : SQL_NO_ROOT_PASSWORD

Une instance de base de données MySQL ne possède pas de mot de passe défini pour le compte racine. Vous devez ajouter un mot de passe à l'instance de base de données MySQL. Pour en savoir plus, consultez la page Utilisateurs MySQL.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Sur la page Détails de l'instance qui s'affiche, sélectionnez l'onglet Utilisateurs.

  4. À côté de l'utilisateur root, cliquez sur Plus , puis sélectionnez Modifier le mot de passe.

  5. Saisissez un nouveau mot de passe sécurisé, puis cliquez sur OK.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL public IP

Nom de la catégorie dans l'API : SQL_PUBLIC_IP

Une base de données Cloud SQL possède une adresse IP publique.

Pour réduire la surface d'attaque de votre organisation, les bases de données Cloud SQL ne doivent pas posséder d'adresses IP publiques. Les adresses IP privées offrent une sécurité réseau améliorée et une latence réduite pour votre application.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Dans le menu de gauche, cliquez sur Connexions.

  4. Cliquez sur l'onglet Réseau et décochez la case Adresse IP publique.

  5. Si l'instance n'est pas déjà configurée pour utiliser une adresse IP privée, consultez la page Configurer une adresse IP privée pour une instance existante.

  6. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL remote access enabled

Nom de la catégorie dans l'API : SQL_REMOTE_ACCESS_ENABLED

L'indicateur de base de données remote access n'est pas défini sur Off pour une instance de base de données Cloud SQL pour SQL Server.

Lorsqu'il est activé, ce paramètre permet d'exécuter des procédures stockées localement à partir de serveurs distants ou des procédures stockées à distance à partir d'un serveur local. Cette fonctionnalité peut être utilisée de manière abusive pour lancer une attaque par déni de service (DoS) sur les serveurs distants en redirigeant le traitement des requêtes vers une cible. Pour éviter les abus, nous vous recommandons de désactiver ce paramètre.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options, définissez remote access sur Off.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL skip show database disabled

Nom de la catégorie dans l'API : SQL_SKIP_SHOW_DATABASE_DISABLED

L'option skip_show_database de la base de données Cloud SQL pour MySQL n'est pas définie sur Activée.

Lorsqu'elle est activée, cette option empêche les utilisateurs d'employer l'instruction SHOW DATABASES s'ils ne disposent pas du droit SHOW DATABASES. Avec ce paramètre, les utilisateurs sans autorisation explicite ne peuvent pas voir les bases de données appartenant à d'autres utilisateurs. Nous vous recommandons d'activer cette option.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Options, définissez skip_show_database sur On.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL trace flag 3625

Nom de la catégorie dans l'API : SQL_TRACE_FLAG_3625

L'indicateur de base de données 3625 (trace flag) (Activé) est défini sur On pour une instance de base de données Cloud SQL pour SQL Server.

Cette option limite la quantité d'informations renvoyées aux utilisateurs qui ne sont pas membres du rôle serveur fixe sysadmin, en masquant les paramètres de certains messages d'erreur à l'aide d'astérisques (******). Pour éviter la divulgation d'informations sensibles, nous vous recommandons d'activer cette option.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Indicateurs de base de données, définissez 3625 sur On.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL user connections configured

Nom de la catégorie dans l'API : SQL_USER_CONNECTIONS_CONFIGURED

L'option de base de données user connections est configurée sur une instance de base de données Cloud SQL pour SQL Server.

L'option Connexions utilisateur spécifie le nombre maximal de connexions utilisateur simultanées autorisé sur une instance de SQL Server. Comme il s'agit d'une option dynamique (auto-configuration), SQL Server ajuste automatiquement le nombre maximal de connexions utilisateur jusqu'à atteindre la valeur maximale autorisée. La valeur par défaut est 0, ce qui signifie que jusqu'à 32 767 connexions utilisateur sont autorisées. Pour cette raison, nous vous déconseillons de configurer l'option de base de données user connections.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Indicateurs de base de données, cliquez sur Supprimer à côté de user connections.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL user options configured

Nom de la catégorie dans l'API : SQL_USER_OPTIONS_CONFIGURED

L'option de base de données user options est configurée sur une instance de base de données Cloud SQL pour SQL Server.

Ce paramètre remplace les valeurs globales par défaut des options SET pour tous les utilisateurs. Étant donné que les utilisateurs et les applications peuvent supposer que les options SET par défaut de la base de données sont en cours d'utilisation, modifier ces options peut entraîner des résultats inattendus. Pour cette raison, nous vous déconseillons de configurer l'option de base de données user options.

Pour en savoir plus, consultez la page Configurer des indicateurs de base de données.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL de la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

  4. Dans la section Indicateurs de base de données, cliquez sur Supprimer à côté de user options.

  5. Cliquez sur Enregistrer. La nouvelle configuration apparaît sur la page Présentation de l'instance.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SQL weak root password

Nom de la catégorie dans l'API : SQL_WEAK_ROOT_PASSWORD

Une instance de base de données MySQL possède un mot de passe peu sécurisé défini pour le compte racine. Vous devez définir un mot de passe sécurisé pour l'instance. Pour en savoir plus, consultez la page Utilisateurs MySQL.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Sur la page Détails de l'instance qui s'affiche, sélectionnez l'onglet Utilisateurs.

  4. À côté de l'utilisateur root, cliquez sur Plus , puis sélectionnez Modifier le mot de passe.

  5. Saisissez un nouveau mot de passe sécurisé, puis cliquez sur OK.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

SSL not enforced

Nom de la catégorie dans l'API : SSL_NOT_ENFORCED

Une instance de base de données Cloud SQL ne nécessite pas que toutes les connexions entrantes utilisent SSL.

Pour éviter la fuite de données sensibles pendant leur transit via des communications non chiffrées, toutes les connexions entrantes à votre instance de base de données SQL doivent utiliser le protocole SSL. Apprenez-en plus sur la configuration de SSL/TLS.

Pour corriger ce résultat, autorisez uniquement les connexions SSL pour vos instances SQL :

  1. Accédez à la page Instances Cloud SQL dans la console Google Cloud.

    Accéder à la page Instances Cloud SQL

  2. Sélectionnez l'instance répertoriée dans le résultat de Security Health Analytics.

  3. Dans l'onglet Connexions, cliquez sur Autoriser uniquement les connexions SSL ou sur Exiger des certificats client de confiance. Pour en savoir plus, consultez Appliquer le chiffrement SSL/TLS.

  4. Si vous avez choisi Exiger des certificats client de confiance, créez un certificat client. Pour en savoir plus, consultez la section Créer un certificat client.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Too many KMS users

Nom de la catégorie dans l'API : TOO_MANY_KMS_USERS

Limitez à trois le nombre d'utilisateurs principaux autorisés à utiliser des clés cryptographiques. Les rôles prédéfinis suivants accordent des autorisations permettant de chiffrer, déchiffrer ou signer des données à l'aide de clés cryptographiques :

  • roles/owner
  • roles/cloudkms.cryptoKeyEncrypterDecrypter
  • roles/cloudkms.cryptoKeyEncrypter
  • roles/cloudkms.cryptoKeyDecrypter
  • roles/cloudkms.signer
  • roles/cloudkms.signerVerifier

Pour en savoir plus, consultez la section Autorisations et rôles.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Clés Cloud KMS de la console Google Cloud.

    Accéder à la page Clés Cloud KMS

  2. Cliquez sur le nom du trousseau de clés indiqué dans le résultat.

  3. Cliquez sur le nom de la clé indiquée dans le résultat.

  4. Cochez la case à côté de la version principale, puis cliquez sur Afficher le panneau d'informations.

  5. Réduisez à trois ou moins le nombre de comptes principaux autorisés à chiffrer, déchiffrer ou signer des données. Pour révoquer les autorisations, cliquez sur Supprimer à côté de chaque compte principal.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Unconfirmed AppArmor profile

Nom de la catégorie dans l'API : GKE_APP_ARMOR

Un conteneur peut être explicitement configuré pour être non confiné par AppArmor. Cela garantit qu'aucun profil AppArmor n'est appliqué au conteneur et qu'il n'est donc pas limité par un profil. La désactivation de ce contrôle de sécurité préventif augmente le risque de fuite du conteneur.

Pour corriger ce résultat, procédez comme suit pour vos charges de travail concernées:

  1. Ouvrez le fichier manifeste de chaque charge de travail affectée.
  2. Définissez les champs restreints suivants pour l'une des valeurs autorisées.

Champs restreints

  • metadata.annotations["container.apparmor.security.beta.kubernetes.io/*"]

Valeurs autorisées

  • faux

User managed service account key

Nom de la catégorie dans l'API : USER_MANAGED_SERVICE_ACCOUNT_KEY

Un utilisateur gère une clé de compte de service. Les clés de compte de service constituent un risque pour la sécurité si elles ne sont pas gérées correctement. Dans la mesure du possible, vous devez choisir une alternative plus sécurisée aux clés de compte de service. Si vous devez vous authentifier avec une clé de compte de service, vous êtes responsable de la sécurité de la clé privée et des autres opérations décrites sur la page Bonnes pratiques pour gérer les clés de compte de service. Si vous ne parvenez pas à créer une clé de compte de service, la création de clé de compte de service peut être désactivée pour votre organisation. Pour en savoir plus, consultez la page Gérer les ressources d'organisation sécurisées par défaut.

Pour corriger ce résultat, procédez comme suit :

  1. Accédez à la page Comptes de service dans la console Google Cloud.

    Accéder à la page "Comptes de service"

  2. Si nécessaire, sélectionnez le projet indiqué dans le résultat.

  3. Supprimez les clés de compte de service gérées par l'utilisateur indiquées dans le résultat, si elles ne sont pas utilisées par une application.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Weak SSL policy

Nom de la catégorie dans l'API : WEAK_SSL_POLICY

Une instance Compute Engine a une stratégie SSL peu sécurisée ou utilise la stratégie SSL par défaut de Google Cloud avec une version TLS inférieure à 1.2.

Les équilibreurs de charge HTTPS et SSL utilisent des règles SSL pour déterminer le protocole et les suites de chiffrement utilisés dans les connexions TLS établies entre les utilisateurs et Internet. Ces connexions chiffrent les données sensibles pour empêcher les personnes malveillantes d'y accéder. Une règle SSL faible permet aux clients utilisant des versions obsolètes de TLS de se connecter à une suite de chiffrement ou un protocole moins sécurisés. Pour obtenir la liste des suites de chiffrement recommandées et obsolètes, consultez la page des paramètres TLS iana.org.

Pour les activations au niveau du projet du niveau Premium de Security Command Center, ce résultat n'est disponible que si le niveau Standard est activé dans l'organisation parente.

Les étapes de correction de cette anomalie diffèrent selon qu'elle a été déclenchée par l'utilisation d'une règle SSL Google Cloud par défaut ou d'une règle SSL qui autorise une suite de chiffrement faible ou une version TLS minimale antérieure à 1.2. Suivez la procédure ci-dessous correspondant au déclencheur de la non-conformité.

Correction des problèmes liés aux règles SSL Google Cloud par défaut

  1. Accédez à la page Proxies cibles de la console Google Cloud.

    Accéder aux proxys cibles

  2. Recherchez le proxy cible indiqué dans le résultat et notez les règles de transfert dans la colonne Utilisée par.

  3. Pour créer une règle SSL, consultez la page Utiliser des règles SSL. La règle doit avoir une version TLS minimale de 1.2 et un profil moderne ou restreint.

  4. Pour utiliser un profil personnalisé, assurez-vous que les suites de chiffrement suivantes sont désactivées :

    • TLS_RSA_WITH_AES_128_GCM_SHA256
    • TLS_RSA_WITH_AES_256_GCM_SHA384
    • TLS_RSA_WITH_AES_128_CBC_SHA
    • TLS_RSA_WITH_AES_256_CBC_SHA
    • TLS_RSA_WITH_3DES_EDE_CBC_SHA
  5. Appliquez la règle SSL à chaque règle de transfert que vous avez notée précédemment.

Correction d'une suite de chiffrement faible ou d'une version TLS antérieure

  1. Dans la console Google Cloud, accédez à la page Règles SSL .

    Accéder aux règles SSL

  2. Recherchez l'équilibreur de charge indiqué dans la colonne Utilisée par.

  3. Cliquez sous le nom de la règle.

  4. Cliquez sur Modifier.

  5. Définissez Version minimale de TLS sur TLS 1.2 et Profil sur Moderne ou Limité.

  6. Pour utiliser un profil personnalisé, assurez-vous que les suites de chiffrement suivantes sont désactivées:

    • TLS_RSA_WITH_AES_128_GCM_SHA256
    • TLS_RSA_WITH_AES_256_GCM_SHA384
    • TLS_RSA_WITH_AES_128_CBC_SHA
    • TLS_RSA_WITH_AES_256_CBC_SHA
    • TLS_RSA_WITH_3DES_EDE_CBC_SHA
  7. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Web UI enabled

Nom de la catégorie dans l'API : WEB_UI_ENABLED

L'interface utilisateur Web de GKE (tableau de bord) est activée.

L'interface Web de Kubernetes est protégée par un compte de service Kubernetes hautement privilégié, qui peut être utilisé de manière abusive s'il est compromis. Si vous utilisez déjà la console Google Cloud, l'interface Web de Kubernetes étend inutilement votre surface d'attaque. Découvrez comment désactiver l'interface Web de Kubernetes.

Pour corriger ce résultat, désactivez l'interface Web de Kubernetes :

  1. Accédez à la page des Clusters Kubernetes GKE dans la console Google Cloud.

    Accéder à la page "Clusters Kubernetes"

  2. Cliquez sur le nom du cluster répertorié dans le résultat de Security Health Analytics.

  3. Cliquez sur Modifier.

    Si la configuration du cluster a récemment été modifiée, il est possible que le bouton "Modifier" ne soit pas disponible. Si vous ne pouvez pas modifier les paramètres du cluster, attendez quelques minutes, puis réessayez.

  4. Cliquez sur Modules complémentaires. La section se développe pour afficher les modules complémentaires disponibles.

  5. Dans la liste déroulante Tableau de bord Kubernetes, sélectionnez Désactivé.

  6. Cliquez sur Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Workload Identity disabled

Nom de la catégorie dans l'API : WORKLOAD_IDENTITY_DISABLED

Workload Identity est désactivé sur un cluster GKE.

Workload Identity est la solution recommandée pour accéder aux services Google Cloud à partir de GKE, car elle propose des propriétés de sécurité renforcée et simplifie la gestion. Son activation permet de protéger certaines métadonnées système potentiellement sensibles contre les charges de travail d'utilisateur exécutées sur votre cluster. En savoir plus sur la Dissimulation de métadonnées.

Pour corriger ce résultat, suivez le guide Activer Workload Identity sur un cluster.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Corriger les erreurs de configuration AWS

AWS Cloud Shell Full Access Restricted

Nom de la catégorie dans l'API : ACCESS_AWSCLOUDSHELLFULLACCESS_RESTRICTED

AWS CloudShell est un moyen pratique d'exécuter des commandes CLI sur les services AWS. Une stratégie IAM gérée ('AWSCloudShellFullAccess') offre un accès complet à CloudShell, ce qui permet d'importer et de télécharger des fichiers entre le système local d'un utilisateur et l'environnement CloudShell. Dans l'environnement CloudShell, un utilisateur dispose d'autorisations sudo et peut accéder à Internet. Il est donc possible d'installer un logiciel de transfert de fichiers (par exemple) et de déplacer des données de CloudShell vers des serveurs Internet externes.

Recommandation: Assurez-vous que l'accès à AWSCloudShellFullAccess est restreint

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Dans le volet de gauche, sélectionnez "Règles".
  3. Recherchez et sélectionnez AWSCloudShellFullAccess.
  4. Dans l'onglet "Entités associées", cochez la case correspondant à chaque élément, puis sélectionnez "Dissocier".

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Access Keys Rotated Every 90 Days or Less

Nom de la catégorie dans l'API : ACCESS_KEYS_ROTATED_90_DAYS_LESS

Les clés d'accès se composent d'un ID de clé d'accès et d'une clé d'accès secrète, qui permettent de signer les requêtes programmatiques que vous envoyez à AWS. Les utilisateurs AWS ont besoin de leurs propres clés d'accès pour effectuer des appels programmatiques à AWS à partir de l'interface de ligne de commande AWS (CLI AWS), des outils pour Windows PowerShell, des SDK AWS ou d'appels HTTP directs à l'aide des API de services AWS individuels. Il est recommandé d'alterner régulièrement toutes les clés d'accès.

Recommandation: Assurez-vous que les clés d'accès sont alternées tous les 90 jours au maximum

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Accédez à la console de gestion (https://console.aws.amazon.com/iam).
  2. Cliquez sur Users.
  3. Cliquez sur Security Credentials.
  4. En tant qu'administrateur
     : cliquez sur Make Inactive pour les clés qui n'ont pas été remplacées depuis 90 jours.
  5. En tant qu'utilisateur IAM
     : cliquez sur Make Inactive ou Delete pour les clés qui n'ont pas été alternées ni utilisées depuis 90 jours.
  6. Cliquez sur Create Access Key.
  7. Mettre à jour l'appel programmatique avec de nouveaux identifiants de clé d'accès

CLI AWS

  1. Tant que la première clé d'accès est toujours active, créez une deuxième clé d'accès, qui est active par défaut. Exécutez la commande suivante :
aws iam create-access-key

À ce stade, l'utilisateur dispose de deux clés d'accès actives.

  1. Mettez à jour toutes les applications et tous les outils pour qu'ils utilisent la nouvelle clé d'accès.
  2. Déterminez si la première clé d'accès est toujours utilisée à l'aide de la commande suivante:
aws iam get-access-key-last-used
  1. Une approche consiste à attendre plusieurs jours, puis à vérifier si l'ancienne clé d'accès est utilisée avant de continuer.

Même si l'étape 3 indique que l'ancienne clé n'est pas utilisée, nous vous recommandons de ne pas la supprimer immédiatement. Modifiez plutôt l'état de la première clé d'accès sur "Inactive" à l'aide de la commande suivante:

aws iam update-access-key
  1. Utilisez uniquement la nouvelle clé d'accès pour vérifier que vos applications fonctionnent. À ce stade, toutes les applications et tous les outils qui utilisent encore la clé d'accès d'origine cesseront de fonctionner, car ils n'auront plus accès aux ressources AWS. Si vous trouvez une telle application ou un tel outil, vous pouvez rétablir son état sur "Actif" pour réactiver la première clé d'accès. Revenez ensuite à l'étape 2 et mettez à jour cette application pour qu'elle utilise la nouvelle clé.

  2. Après avoir attendu un certain temps pour vous assurer que toutes les applications et tous les outils ont été mis à jour, vous pouvez supprimer la première clé d'accès à l'aide de la commande suivante:

aws iam delete-access-key

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

All Expired Ssl Tls Certificates Stored Aws Iam Removed

Nom de la catégorie dans l'API : ALL_EXPIRED_SSL_TLS_CERTIFICATES_STORED_AWS_IAM_REMOVED

Pour activer les connexions HTTPS à votre site Web ou à votre application dans AWS, vous avez besoin d'un certificat de serveur SSL/TLS. Vous pouvez utiliser ACM ou IAM pour stocker et déployer des certificats de serveur.
N'utilisez IAM comme gestionnaire de certificats que lorsque vous devez prendre en charge les connexions HTTPS dans une région non prise en charge par ACM. IAM chiffre de manière sécurisée vos clés privées et stocke la version chiffrée dans le stockage de certificats SSL IAM. IAM permet de déployer des certificats de serveur dans toutes les régions, mais vous devez obtenir votre certificat auprès d'un fournisseur externe pour l'utiliser avec AWS. Vous ne pouvez pas importer un certificat ACM dans IAM. De plus, vous ne pouvez pas gérer vos certificats à partir de la console IAM.

Recommandation: Assurez-vous de la suppression de tous les certificats SSL/TLS expirés stockés dans AWS IAM

Pour corriger ce résultat, procédez comme suit :

Console AWS

Il n'est actuellement pas possible de supprimer des certificats expirés via la console de gestion AWS. Pour supprimer les certificats SSL/TLS stockés dans IAM via l'API AWS, utilisez l'interface de ligne de commande (CLI).

CLI AWS

Pour supprimer un certificat expiré, exécutez la commande suivante en remplaçant CERTIFICATE_NAME par le nom du certificat à supprimer:

aws iam delete-server-certificate --server-certificate-name <CERTIFICATE_NAME>

Si la commande précédente aboutit, elle ne renvoie aucun résultat.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Autoscaling Group Elb Healthcheck Required

Nom de la catégorie dans l'API : AUTOSCALING_GROUP_ELB_HEALTHCHECK_REQUIRED

Cette commande vérifie si vos groupes Auto Scaling associés à un équilibreur de charge utilisent des vérifications de l'état d'Elastic Load Balancing.

Cela permet au groupe de déterminer l'état d'une instance en fonction des tests supplémentaires fournis par l'équilibreur de charge. L'utilisation des vérifications de l'état d'Elastic Load Balancing peut contribuer à assurer la disponibilité des applications qui utilisent des groupes EC2 Auto Scaling.

Recommandation: Vérifie que tous les groupes d'autoscaling associés à un équilibreur de charge utilisent des vérifications de l'état

Pour corriger ce résultat, procédez comme suit :

Console AWS

Pour activer les vérifications d'état d'Elastic Load Balancing

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sous "Autoscaling" (Autoscaling), sélectionnez "Groupes Autoscaling".
  3. Cochez la case correspondant à votre groupe.
  4. Sélectionnez "Modifier".
  5. Sous "Vérifications de l'état", sélectionnez "ELB" pour le type de vérification de l'état.
  6. Pour le délai de grâce de la vérification d'état, saisissez 300.
  7. En bas de la page, sélectionnez "Mettre à jour".

Pour en savoir plus sur l'utilisation d'un équilibreur de charge avec un groupe Auto Scaling, consultez le guide de l'utilisateur AWS Auto Scaling.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Auto Minor Version Upgrade Feature Enabled Rds Instances

Nom de la catégorie dans l'API : AUTO_MINOR_VERSION_UPGRADE_FEATURE_ENABLED_RDS_INSTANCES

Assurez-vous que l'indicateur de mise à niveau automatique des versions mineures est activé pour les instances de base de données RDS afin qu'elles reçoivent automatiquement les mises à niveau mineures du moteur pendant la période de maintenance spécifiée. Les instances RDS peuvent ainsi bénéficier des nouvelles fonctionnalités, des corrections de bugs et des correctifs de sécurité pour leurs moteurs de base de données.

Recommandation: Assurez-vous que la fonctionnalité de mise à niveau automatique des versions mineures est activée pour les instances RDS

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS, puis accédez au tableau de bord RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le panneau de navigation de gauche, cliquez sur Databases.
  3. Sélectionnez l'instance RDS à mettre à jour.
  4. Cliquez sur le bouton Modify en haut à droite.
  5. Sur la page Modify DB Instance: <instance identifier>, dans la section Maintenance, sélectionnez Auto minor version upgrade, puis cliquez sur la case d'option Yes.
  6. En bas de la page, cliquez sur Continue, cochez la case "Appliquer immédiatement" pour appliquer les modifications immédiatement ou sélectionnez Apply during the next scheduled maintenance window pour éviter tout temps d'arrêt.
  7. Vérifiez les modifications, puis cliquez sur Modify DB Instance. L'état de l'instance doit passer de "disponible" à "modification", puis à "disponible". Une fois la fonctionnalité activée, l'état Auto Minor Version Upgrade devrait passer à Yes.

CLI AWS

  1. Exécutez la commande describe-db-instances pour afficher tous les noms d'instances de base de données RDS disponibles dans la région AWS sélectionnée:
aws rds describe-db-instances --region <regionName> --query 'DBInstances[*].DBInstanceIdentifier'
  1. La résultat de la commande doit renvoyer chaque identifiant d'instance de base de données.
  2. Exécutez la commande modify-db-instance pour modifier la configuration de l'instance RDS sélectionnée. Cette commande appliquera les modifications immédiatement. Supprimez --apply-immediately pour appliquer les modifications lors de la prochaine fenêtre de maintenance planifiée et éviter tout temps d'arrêt:
aws rds modify-db-instance --region <regionName> --db-instance-identifier <dbInstanceIdentifier> --auto-minor-version-upgrade --apply-immediately
  1. La résultat de la commande doit afficher les nouvelles métadonnées de configuration de l'instance RDS et vérifier la valeur du paramètre AutoMinorVersionUpgrade.
  2. Exécutez la commande describe-db-instances pour vérifier si la fonctionnalité de mise à niveau automatique des versions mineures a bien été activée:
aws rds describe-db-instances --region <regionName> --db-instance-identifier <dbInstanceIdentifier> --query 'DBInstances[*].AutoMinorVersionUpgrade'
  1. L'état actuel de la fonctionnalité doit être défini sur true, la fonctionnalité est enabled et les mises à niveau mineures du moteur seront appliquées à l'instance RDS sélectionnée.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Aws Config Enabled All Regions

Nom de la catégorie dans l'API : AWS_CONFIG_ENABLED_ALL_REGIONS

AWS Config est un service Web qui gère la configuration des ressources AWS compatibles dans votre compte et vous envoie des fichiers journaux. Les informations enregistrées incluent l'élément de configuration (ressource AWS), les relations entre les éléments de configuration (ressources AWS) et les modifications de configuration entre les ressources. Il est recommandé d'activer AWS Config dans toutes les régions.

Recommandation: Assurez-vous que la configuration AWS est activée dans toutes les régions

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Sélectionnez la région sur laquelle vous souhaitez vous concentrer en haut à droite de la console.
  2. Cliquez sur "Services".
  3. Cliquez sur "Config".
  4. Si un enregistreur de configuration est activé dans cette région, accédez à la page "Paramètres" depuis le menu de navigation sur la gauche. Si un enregistreur de configuration n'est pas encore activé dans cette région, sélectionnez "Commencer".
  5. Sélectionnez "Enregistrer toutes les ressources compatibles dans cette région".
  6. Choisir d'inclure des ressources globales (ressources IAM)
  7. Spécifier un bucket S3 dans le même compte ou dans un autre compte AWS géré
  8. Créer un sujet SNS à partir du même compte AWS ou d'un autre compte AWS géré

CLI AWS

  1. Assurez-vous qu'un bucket S3, un sujet SNS et un rôle IAM appropriés sont disponibles, conformément aux conditions préalables d'AWS Config Service.
  2. Exécutez cette commande pour créer un enregistreur de configuration:
aws configservice put-configuration-recorder --configuration-recorder name=default,roleARN=arn:aws:iam::012345678912:role/myConfigRole --recording-group allSupported=true,includeGlobalResourceTypes=true
  1. Créez localement un fichier de configuration du canal de diffusion qui spécifie les attributs du canal, renseignés à partir des conditions préalables configurées précédemment:
{
 "name": "default",
 "s3BucketName": "my-config-bucket",
 "snsTopicARN": "arn:aws:sns:us-east-1:012345678912:my-config-notice",
 "configSnapshotDeliveryProperties": {
 "deliveryFrequency": "Twelve_Hours"
 }
}
  1. Exécutez cette commande pour créer un canal de diffusion en référençant le fichier de configuration JSON créé à l'étape précédente:
aws configservice put-delivery-channel --delivery-channel file://deliveryChannel.json
  1. Démarrez l'enregistreur de configuration en exécutant la commande suivante:
aws configservice start-configuration-recorder --configuration-recorder-name default

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Aws Security Hub Enabled

Nom de la catégorie dans l'API : AWS_SECURITY_HUB_ENABLED

Security Hub collecte les données de sécurité de tous les comptes, services et produits tiers partenaires compatibles AWS. Il vous aide à analyser vos tendances de sécurité et à identifier les problèmes de sécurité les plus prioritaires. Lorsque vous activez Security Hub, il commence à consommer, agréger, organiser et hiérarchiser les résultats des services AWS que vous avez activés, tels qu'Amazon GuardDuty, Amazon Inspector et Amazon Macie. Vous pouvez également activer les intégrations avec les produits de sécurité des partenaires AWS.

Recommandation: Assurez-vous qu'AWS Security Hub est activé

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Utilisez les identifiants de l'identité IAM pour vous connecter à la console Security Hub.
  2. Lorsque vous ouvrez la console Security Hub pour la première fois, sélectionnez "Activer AWS Security Hub".
  3. Sur la page d'accueil, la section "Normes de sécurité" indique les normes de sécurité compatibles avec Security Hub.
  4. Sélectionnez "Activer Security Hub".

CLI AWS

  1. Exécutez la commande enable-security-hub. Pour activer les normes par défaut, incluez --enable-default-standards.
aws securityhub enable-security-hub --enable-default-standards
  1. Pour activer le hub de sécurité sans les normes par défaut, incluez --no-enable-default-standards.
aws securityhub enable-security-hub --no-enable-default-standards

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Cloudtrail Logs Encrypted Rest Using Kms Cmks

Nom de la catégorie dans l'API : CLOUDTRAIL_LOGS_ENCRYPTED_REST_USING_KMS_CMKS

AWS CloudTrail est un service Web qui enregistre les appels d'API AWS pour un compte et met ces journaux à la disposition des utilisateurs et des ressources conformément aux règles IAM. AWS Key Management Service (KMS) est un service géré qui permet de créer et de contrôler les clés de chiffrement utilisées pour chiffrer les données de compte. Il utilise des modules de sécurité matériels (HSM) pour protéger la sécurité des clés de chiffrement. Les journaux CloudTrail peuvent être configurés pour exploiter le chiffrement côté serveur (SSE) et les clés principales (CMK) créées par le client KMS afin de mieux protéger les journaux CloudTrail. Nous vous recommandons de configurer CloudTrail pour utiliser SSE-KMS.

Recommandation: Assurez-vous que les journaux CloudTrail sont chiffrés au repos à l'aide de CMK KMS

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS, puis ouvrez la console CloudTrail à l'adresse https://console.aws.amazon.com/cloudtrail.
  2. Dans le volet de navigation de gauche, sélectionnez Trails .
  3. Cliquer sur un parcours
  4. Dans la section S3, cliquez sur le bouton de modification (icône en forme de crayon).
  5. Cliquez sur Advanced.
  6. Sélectionnez une clé CMEK existante dans le menu déroulant KMS key Id
    - Remarque: Assurez-vous que la clé CMEK se trouve dans la même région que le bucket S3
    - Remarque: Vous devez appliquer une stratégie de clé KMS à la clé CMEK sélectionnée pour que CloudTrail en tant que service chiffre et déchiffre les fichiers journaux à l'aide de la clé CMEK fournie. Cliquez ici pour savoir comment modifier la stratégie de clé CMEK sélectionnée.
  7. Cliquez sur Save.
  8. Un message de notification s'affiche, indiquant que vous devez disposer d'autorisations de déchiffrement sur la clé KMS spécifiée pour déchiffrer les fichiers journaux.
  9. Cliquez sur Yes.

CLI AWS

aws cloudtrail update-trail --name <trail_name> --kms-id <cloudtrail_kms_key>
aws kms put-key-policy --key-id <cloudtrail_kms_key> --policy <cloudtrail_kms_key_policy>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Cloudtrail Log File Validation Enabled

Nom de la catégorie dans l'API : CLOUDTRAIL_LOG_FILE_VALIDATION_ENABLED

La validation des fichiers journaux CloudTrail crée un fichier récapitulatif signé numériquement contenant un hachage de chaque journal que CloudTrail écrit dans S3. Ces fichiers récapitulatifs permettent de déterminer si un fichier journal a été modifié, supprimé ou inchangé après l'envoi du journal par CloudTrail. Nous vous recommandons d'activer la validation des fichiers sur tous les CloudTrails.

Recommandation: Assurez-vous que la validation des fichiers journaux CloudTrail est activée

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM à l'adresse https://console.aws.amazon.com/cloudtrail.
  2. Cliquez sur Trails dans le volet de navigation de gauche.
  3. Cliquez sur la trajectoire cible.
  4. Dans la section General details, cliquez sur edit.
  5. Dans la section Advanced settings
  6. Cochez la case d'activation sous Log file validation.
  7. Cliquez sur Save changes.

CLI AWS

aws cloudtrail update-trail --name <trail_name> --enable-log-file-validation

Notez que vous pouvez effectuer une validation périodique des journaux à l'aide de ces récapitulatifs en exécutant la commande suivante:

aws cloudtrail validate-logs --trail-arn <trail_arn> --start-time <start_time> --end-time <end_time>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Cloudtrail Trails Integrated Cloudwatch Logs

Nom de la catégorie dans l'API : CLOUDTRAIL_TRAILS_INTEGRATED_CLOUDWATCH_LOGS

AWS CloudTrail est un service Web qui enregistre les appels d'API AWS effectués dans un compte AWS donné. Les informations enregistrées incluent l'identité de l'appelant de l'API, l'heure de l'appel d'API, l'adresse IP source de l'appelant de l'API, les paramètres de requête et les éléments de réponse renvoyés par le service AWS. CloudTrail utilise Amazon S3 pour le stockage et la diffusion des fichiers journaux. Les fichiers journaux sont donc stockés de manière durable. En plus de capturer les journaux CloudTrail dans un bucket S3 spécifié pour une analyse à long terme, vous pouvez effectuer une analyse en temps réel en configurant CloudTrail pour qu'il envoie des journaux à CloudWatch Logs. Pour une piste activée dans toutes les régions d'un compte, CloudTrail envoie les fichiers journaux de toutes ces régions à un groupe de journaux CloudWatch Logs. Il est recommandé d'envoyer les journaux CloudTrail à CloudWatch Logs.

Remarque: L'objectif de cette recommandation est de s'assurer que l'activité du compte AWS est enregistrée, surveillée et signalée de manière appropriée. CloudWatch Logs est une méthode native pour y parvenir à l'aide des services AWS, mais n'exclut pas l'utilisation d'une autre solution.

Recommandation: Assurez-vous que les pistes CloudTrail sont intégrées aux journaux CloudWatch

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console CloudTrail à l'adresse https://console.aws.amazon.com/cloudtrail/.
  2. Sélectionnez l'Trail à mettre à jour.
  3. Faites défiler la page vers le bas jusqu'à CloudWatch Logs.
  4. Cliquez sur Edit.
  5. Sous CloudWatch Logs, cochez la case Enabled.
  6. Sous Log Group, sélectionnez "Nouveau" ou un groupe de journaux existant.
  7. Modifiez Log group name pour qu'il corresponde à CloudTrail ou sélectionnez le groupe CloudWatch existant.
  8. Sous IAM Role, sélectionnez "Nouveau" ou un élément existant.
  9. Modifiez Role name pour qu'il corresponde à CloudTrail ou sélectionnez le rôle IAM existant.
  10. Cliquez sur "Enregistrer les modifications".

CLI AWS

aws cloudtrail update-trail --name <trail_name> --cloudwatch-logs-log-group-arn <cloudtrail_log_group_arn> --cloudwatch-logs-role-arn <cloudtrail_cloudwatchLogs_role_arn>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Cloudwatch Alarm Action Check

Nom de la catégorie dans l'API : CLOUDWATCH_ALARM_ACTION_CHECK

Cette vérification vérifie si Amazon CloudWatch a défini des actions lorsqu'une alarme passe d'un état à un autre (OK, ALARM ou INSUFFICIENT_DATA).

Il est très important de configurer des actions pour l'état ALARM dans les alarmes Amazon CloudWatch afin de déclencher une réponse immédiate lorsque les métriques surveillées dépassent les seuils.
Elle garantit une résolution rapide des problèmes, réduit les temps d'arrêt et permet une correction automatique, ce qui permet de maintenir l'état du système et d'éviter les pannes.

Les alarmes comportent au moins une action.
Les alarmes ont au moins une action lorsque l'alarme passe de n'importe quel autre état à l'état "INSUFFICIENT_DATA".
(Facultatif) Les alarmes comportent au moins une action lorsque l'alarme passe à l'état "OK" à partir de n'importe quel autre état.

Recommandation: Vérifie si les alarmes CloudWatch ont au moins une action d'alarme, une action INSUFFICIENT_DATA ou une action OK activée.

Pour corriger ce résultat, procédez comme suit :

Console AWS

Pour configurer des actions ALARM pour vos alarmes Amazon CloudWatch, procédez comme suit :

  1. Ouvrez la console Amazon CloudWatch à l'adresse https://console.aws.amazon.com/cloudwatch/.
  2. Dans le volet de navigation, sous "Alarmes", sélectionnez "Toutes les alarmes".
  3. Sélectionnez l'alarme Amazon CloudWatch que vous souhaitez modifier, puis "Actions" et "Modifier".
  4. À gauche, sélectionnez "Étape 2 : Configurer les actions facultatives".
  5. Pour le "Déclencheur d'état de l'alarme", sélectionnez l'option "En alarme" afin de configurer une action basée sur ALARM.
  6. Pour envoyer une notification à un sujet SNS que vous venez de créer, sélectionnez "Créer un sujet".
  7. Dans le champ "Créer un sujet…", spécifiez un nom de sujet SNS unique.
  8. Dans le champ "Points de terminaison d'e-mail qui recevront la notification…", spécifiez une ou plusieurs adresses e-mail.
  9. Sélectionnez ensuite "Créer un sujet" pour créer le sujet Amazon SNS requis.
  10. En bas à droite, sélectionnez "Suivant", "Suivant", puis "Mettre à jour l'alarme" pour appliquer les modifications.
  11. Ouvrez votre client de messagerie et, dans l'e-mail provenant d'AWS Notifications, cliquez sur le lien pour confirmer votre abonnement au sujet SNS en question.
  12. Répétez les étapes 4 à 11. À l'étape 5, sélectionnez "OK" et "Données insuffisantes" pour le "déclencheur d'état de l'alarme" afin de configurer des actions pour ces deux états.
  13. Répétez la procédure pour toutes les autres alarmes CloudWatch de la même région AWS.
  14. Répétez la procédure pour toutes les autres alarmes CloudWatch dans toutes les autres régions AWS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Cloudwatch Log Group Encrypted

Nom de la catégorie dans l'API : CLOUDWATCH_LOG_GROUP_ENCRYPTED

Cette vérification garantit que les journaux CloudWatch sont configurés avec KMS.

Les données des groupes de journaux sont toujours chiffrées dans CloudWatch Logs. Par défaut, CloudWatch Logs chiffre les données de journal au repos côté serveur. Vous pouvez également utiliser AWS Key Management Service pour ce chiffrement. Dans ce cas, le chiffrement est effectué à l'aide d'une clé AWS KMS. Le chiffrement à l'aide d'AWS KMS est activé au niveau du groupe de journaux en associant une clé KMS à un groupe de journaux, soit lorsque vous le créez, soit après sa création.

Recommandation: Vérifiez que tous les groupes de journaux dans Amazon CloudWatch sont chiffrés avec KMS

Pour en savoir plus, consultez la section Chiffrer les données de journal dans les journaux CloudWatch à l'aide d'AWS Key Management Service dans le guide de l'utilisateur Amazon CloudWatch.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

CloudTrail CloudWatch Logs Enabled

Nom de la catégorie dans l'API : CLOUD_TRAIL_CLOUD_WATCH_LOGS_ENABLED

Cette commande vérifie si les pistes CloudTrail sont configurées pour envoyer des journaux à CloudWatch Logs. La vérification échoue si la propriété CloudWatchLogsLogGroupArn de la piste est vide.

CloudTrail enregistre les appels d'API AWS effectués dans un compte donné. Les informations enregistrées incluent les éléments suivants:

  • Identité de l'appelant de l'API
  • Heure de l'appel d'API
  • Adresse IP source de l'appelant de l'API
  • Paramètres de la requête
  • Éléments de réponse renvoyés par le service AWS

CloudTrail utilise Amazon S3 pour le stockage et la diffusion des fichiers journaux. Vous pouvez capturer les journaux CloudTrail dans un bucket S3 spécifié pour une analyse à long terme. Pour effectuer une analyse en temps réel, vous pouvez configurer CloudTrail pour qu'il envoie des journaux à CloudWatch Logs.

Pour une piste activée dans toutes les régions d'un compte, CloudTrail envoie les fichiers journaux de toutes ces régions à un groupe de journaux CloudWatch Logs.

Security Hub vous recommande d'envoyer les journaux CloudTrail à CloudWatch Logs. Notez que cette recommandation vise à s'assurer que l'activité du compte est enregistrée, surveillée et signalée de manière appropriée. Vous pouvez utiliser CloudWatch Logs pour configurer cela avec vos services AWS. Cette recommandation n'exclut pas l'utilisation d'une autre solution.

L'envoi des journaux CloudTrail à CloudWatch Logs facilite la journalisation des activités en temps réel et historiques en fonction de l'utilisateur, de l'API, de la ressource et de l'adresse IP. Vous pouvez utiliser cette approche pour définir des alarmes et des notifications en cas d'activité inhabituelle ou sensible sur votre compte.

Recommandation: Vérifiez que toutes les pistes CloudTrail sont configurées pour envoyer des journaux à AWS CloudWatch

Pour intégrer CloudTrail à CloudWatch Logs, consultez Envoyer des événements à CloudWatch Logs dans le guide de l'utilisateur AWS CloudTrail.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

No AWS Credentials in CodeBuild Project Environment Variables

Nom de la catégorie dans l'API : CODEBUILD_PROJECT_ENVVAR_AWSCRED_CHECK

Cette opération vérifie si le projet contient les variables d'environnement AWS_ACCESS_KEY_ID et AWS_SECRET_ACCESS_KEY.

Les identifiants d'authentification AWS_ACCESS_KEY_ID et AWS_SECRET_ACCESS_KEY ne doivent jamais être stockés en texte brut, car cela pourrait entraîner une exposition involontaire des données et un accès non autorisé.

Recommandation: Vérifiez que tous les projets contenant les variables d'environnement AWS_ACCESS_KEY_ID et AWS_SECRET_ACCESS_KEY ne sont pas en texte brut

Pour supprimer des variables d'environnement d'un projet CodeBuild, consultez la section Modifier les paramètres d'un projet de compilation dans AWS CodeBuild du guide de l'utilisateur AWS CodeBuild. Assurez-vous que rien n'est sélectionné pour les variables d'environnement.

Vous pouvez stocker des variables d'environnement contenant des valeurs sensibles dans AWS Systems Manager Parameter Store ou AWS Secrets Manager, puis les récupérer à partir de votre spécification de compilation. Pour obtenir des instructions, consultez la zone intitulée "Important" dans la section "Environnement" du guide de l'utilisateur AWS CodeBuild.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Codebuild Project Source Repo Url Check

Nom de la catégorie dans l'API : CODEBUILD_PROJECT_SOURCE_REPO_URL_CHECK

Cette vérification permet de déterminer si l'URL du dépôt source Bitbucket d'un projet AWS CodeBuild contient des jetons d'accès personnels ou un nom d'utilisateur et un mot de passe. Le contrôle échoue si l'URL du dépôt source Bitbucket contient des jetons d'accès personnels ou un nom d'utilisateur et un mot de passe.

Les identifiants de connexion ne doivent pas être stockés ni transmis en texte brut, ni apparaître dans l'URL du dépôt source. Au lieu d'utiliser des jetons d'accès personnels ou des identifiants de connexion, vous devez accéder à votre fournisseur de sources dans CodeBuild et modifier l'URL de votre dépôt source pour qu'elle ne contienne que le chemin d'accès à l'emplacement du dépôt Bitbucket. L'utilisation de jetons d'accès personnels ou d'identifiants de connexion peut entraîner une exposition involontaire de données ou un accès non autorisé.

Recommandation: Vérifiez que tous les projets utilisant GitHub ou Bitbucket comme source ont recours à OAuth

Vous pouvez mettre à jour votre projet CodeBuild pour qu'il utilise OAuth.

Pour supprimer l'authentification de base/le jeton d'accès personnel (GitHub) de la source du projet CodeBuild

  1. Ouvrez la console CodeBuild à l'adresse https://console.aws.amazon.com/codebuild/.
  2. Choisissez le projet de compilation contenant des jetons d'accès personnels ou un nom d'utilisateur et un mot de passe.
  3. Dans "Modifier", sélectionnez "Source".
  4. Sélectionnez "Dissocier de GitHub / Bitbucket".
  5. Sélectionnez "Se connecter à l'aide d'OAuth", puis "Se connecter à GitHub / Bitbucket".
  6. Lorsque vous y êtes invité, choisissez d'autoriser l'application.
  7. Reconfigurez l'URL de votre dépôt et les paramètres de configuration supplémentaires, si nécessaire.
  8. Sélectionnez "Mettre à jour la source".

Pour en savoir plus, consultez les exemples basés sur des cas d'utilisation de CodeBuild dans le guide de l'utilisateur AWS CodeBuild.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Credentials Unused 45 Days Greater Disabled

Nom de la catégorie dans l'API : CREDENTIALS_UNUSED_45_DAYS_GREATER_DISABLED

Les utilisateurs AWS IAM peuvent accéder aux ressources AWS à l'aide de différents types d'identifiants, tels que des mots de passe ou des clés d'accès. Nous vous recommandons de désactiver ou de supprimer tous les identifiants qui n'ont pas été utilisés depuis au moins 45 jours.

Recommandation: Assurez-vous que les identifiants non utilisés pendant au moins 45 jours sont désactivés

Pour corriger ce résultat, procédez comme suit :

Console AWS

Pour gérer le mot de passe inutilisé (accès à la console de l'utilisateur IAM), procédez comme suit :

  1. Connectez-vous à la console AWS Management Console:
  2. Cliquez sur Services.
  3. Cliquez sur IAM.
  4. Cliquez sur Users.
  5. Cliquez sur Security Credentials.
  6. Sélectionner l'utilisateur dont la Console last sign-in est supérieure à 45 jours
  7. Cliquez sur Security credentials.
  8. Dans la section Sign-in credentials, Console password cliquez sur Manage.
  9. Sous "Accès à la console", sélectionnez Disable
    10.Cliquez sur Apply

Pour désactiver les clés d'accès, procédez comme suit:

  1. Connectez-vous à la console AWS Management Console:
  2. Cliquez sur Services.
  3. Cliquez sur IAM.
  4. Cliquez sur Users.
  5. Cliquez sur Security Credentials.
  6. Sélectionnez les clés d'accès datant de plus de 45 jours et qui ont été utilisées, puis
    - Cliquez sur Make Inactive
  7. Sélectionnez les clés d'accès datant de plus de 45 jours et qui n'ont pas été utilisées, puis
     cliquez sur X pour Delete.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Default Security Group Vpc Restricts All Traffic

Nom de la catégorie dans l'API : DEFAULT_SECURITY_GROUP_VPC_RESTRICTS_ALL_TRAFFIC

Un VPC est fourni avec un groupe de sécurité par défaut dont les paramètres initiaux refusent tout trafic entrant, autorisent tout trafic sortant et autorisent tout trafic entre les instances attribuées au groupe de sécurité. Si vous ne spécifiez pas de groupe de sécurité lorsque vous lancez une instance, celle-ci est automatiquement affectée à ce groupe de sécurité par défaut. Les groupes de sécurité fournissent un filtrage avec état du trafic réseau entrant/sortant vers les ressources AWS. Il est recommandé que le groupe de sécurité par défaut limite tout le trafic.

Le groupe de sécurité par défaut du VPC par défaut de chaque région doit être mis à jour pour être conforme. Tous les VPC nouvellement créés contiennent automatiquement un groupe de sécurité par défaut qui devra être corrigé pour respecter cette recommandation.

REMARQUE:Lorsque vous implémentez cette recommandation, la journalisation des flux VPC est indispensable pour déterminer le niveau d'accès au port le moindre privilège requis par les systèmes pour fonctionner correctement, car elle peut consigner toutes les acceptations et les refus de paquets qui se produisent dans les groupes de sécurité actuels. Cela réduit considérablement la principale barrière à l'ingénierie du moindre privilège : la découverte des ports minimaux requis par les systèmes de l'environnement. Même si la recommandation de journalisation des flux VPC de ce benchmark n'est pas adoptée comme mesure de sécurité permanente, elle doit être utilisée pendant toute période de découverte et d'ingénierie pour les groupes de sécurité les moins privilégiés.

Recommandation: Assurez-vous que le groupe de sécurité par défaut de chaque VPC limite tout le trafic

Membres du groupe de sécurité

Pour implémenter l'état prescrit, procédez comme suit:

  1. Identifier les ressources AWS qui existent dans le groupe de sécurité par défaut
  2. Créer un ensemble de groupes de sécurité avec le principe du moindre privilège pour ces ressources
  3. Placer les ressources dans ces groupes de sécurité
  4. Supprimez les ressources indiquées au point 1 du groupe de sécurité par défaut.

État du groupe de sécurité

  1. Connectez-vous à la console de gestion AWS à l'adresse https://console.aws.amazon.com/vpc/home.
  2. Répétez les étapes suivantes pour tous les VPC, y compris le VPC par défaut de chaque région AWS:
  3. Dans le volet de gauche, cliquez sur Security Groups.
  4. Pour chaque groupe de sécurité par défaut, procédez comme suit:
  5. Sélectionnez le groupe de sécurité default.
  6. Cliquez sur l'onglet Inbound Rules.
  7. Supprimer les règles entrantes
  8. Cliquez sur l'onglet Outbound Rules.
  9. Supprimez toutes les règles sortantes.

Recommandations :

Les groupes IAM vous permettent de modifier le champ "name". Après avoir corrigé les règles de groupes par défaut pour tous les VPC de toutes les régions, modifiez ce champ pour ajouter un texte semblable à "NE PAS UTILISER". N'AJOUTEZ PAS DE RÈGLES"

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Dms Replication Not Public

Nom de la catégorie dans l'API : DMS_REPLICATION_NOT_PUBLIC

Vérifie si les instances de réplication AWS DMS sont publiques. Pour ce faire, il examine la valeur du champ PubliclyAccessible.

Une instance de réplication privée dispose d'une adresse IP privée à laquelle vous ne pouvez pas accéder en dehors du réseau de réplication. Une instance de réplication doit disposer d'une adresse IP privée lorsque les bases de données source et cible se trouvent sur le même réseau. Le réseau doit également être connecté au VPC de l'instance de réplication à l'aide d'un VPN, d'AWS Direct Connect ou d'un appairage de réseaux VPC. Pour en savoir plus sur les instances de réplication publiques et privées, consultez la section Instances de réplication publiques et privées du guide de l'utilisateur d'AWS Database Migration Service.

Vous devez également vous assurer que l'accès à la configuration de votre instance AWS DMS est limité aux seuls utilisateurs autorisés. Pour ce faire, limitez les autorisations IAM des utilisateurs pour qu'ils ne puissent pas modifier les paramètres et les ressources AWS DMS.

Recommandation: Vérifie si les instances de réplication AWS Database Migration Service sont publiques

Vous ne pouvez pas modifier le paramètre d'accès public d'une instance de réplication DMS après l'avoir créée. Pour modifier le paramètre d'accès public, supprimez votre instance actuelle, puis recréez-la. Ne sélectionnez pas l'option "Accessible au public".

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Do Setup Access Keys During Initial User Setup All Iam Users Console

Nom de la catégorie dans l'API : DO_SETUP_ACCESS_KEYS_DURING_INITIAL_USER_SETUP_ALL_IAM_USERS_CONSOLE

Par défaut, aucune case n'est cochée dans la console AWS lorsque vous créez un utilisateur IAM. Lorsque vous créez les identifiants utilisateur IAM, vous devez déterminer le type d'accès dont ils ont besoin.

Accès programmatique: l'utilisateur IAM peut être amené à effectuer des appels d'API, à utiliser la CLI AWS ou les outils pour Windows PowerShell. Dans ce cas, créez une clé d'accès (ID de clé d'accès et clé d'accès secrète) pour cet utilisateur.

Accès à la console de gestion AWS: si l'utilisateur doit accéder à la console de gestion AWS, créez un mot de passe pour lui.

Recommandation: Ne configurez pas les clés d'accès lors de la configuration initiale de l'utilisateur pour tous les utilisateurs IAM disposant d'un mot de passe de console

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console AWS Management Console:
  2. Cliquez sur Services.
  3. Cliquez sur IAM.
  4. Cliquez sur Users.
  5. Cliquez sur Security Credentials.
  6. En tant qu'administrateur
     : cliquez sur le X (Delete) pour les clés créées en même temps que le profil utilisateur, mais qui n'ont pas été utilisées.
  7. En tant qu'utilisateur IAM
     : cliquez sur le X (Delete) pour les clés créées en même temps que le profil utilisateur, mais qui n'ont pas été utilisées.

CLI AWS

aws iam delete-access-key --access-key-id <access-key-id-listed> --user-name <users-name>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Dynamodb Autoscaling Enabled

Nom de la catégorie dans l'API : DYNAMODB_AUTOSCALING_ENABLED

Cette opération vérifie si une table Amazon DynamoDB peut adapter sa capacité de lecture et d'écriture en fonction des besoins. Cette vérification réussit si la table utilise le mode de capacité à la demande ou le mode provisionné avec l'autoscaling configuré. Évoluer la capacité en fonction de la demande évite les exceptions de limitation, ce qui permet de maintenir la disponibilité de vos applications.

Les tables DynamoDB en mode capacité à la demande ne sont limitées que par les quotas de table par défaut de débit DynamoDB. Pour augmenter ces quotas, vous pouvez envoyer une demande d'assistance à l'assistance AWS.

Les tables DynamoDB en mode provisionné avec le scaling automatique ajustent de manière dynamique la capacité de débit provisionnée en fonction des modèles de trafic. Pour en savoir plus sur le débit limité des requêtes DynamoDB, consultez la section "Limitation du débit des requêtes et capacité de pic" dans le guide du développeur Amazon DynamoDB.

Recommandation: Les tables DynamoDB doivent automatiquement adapter la capacité en fonction de la demande

Pour obtenir des instructions détaillées sur l'activation de l'autoscaling automatique DynamoDB sur les tables existantes en mode capacité, consultez la section Activer l'autoscaling automatique DynamoDB sur les tables existantes du guide du développeur Amazon DynamoDB.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Dynamodb In Backup Plan

Nom de la catégorie dans l'API : DYNAMODB_IN_BACKUP_PLAN

Cette vérification évalue si une table DynamoDB est couverte par un plan de sauvegarde. Le contrôle échoue si une table DynamoDB n'est pas couverte par un plan de sauvegarde. Cette commande n'évalue que les tables DynamoDB à l'état "ACTIVE".

Les sauvegardes vous aident à vous remettre plus rapidement d'un incident de sécurité. Elles renforcent également la résilience de vos systèmes. Inclure des tables DynamoDB dans un plan de sauvegarde vous aide à protéger vos données contre la perte ou la suppression accidentelle.

Recommandation: Les tables DynamoDB doivent être couvertes par un plan de sauvegarde

Pour ajouter une table DynamoDB à un plan de sauvegarde AWS Backup, consultez la section Attribuer des ressources à un plan de sauvegarde du guide du développeur AWS Backup.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Dynamodb Pitr Enabled

Nom de la catégorie dans l'API : DYNAMODB_PITR_ENABLED

La récupération à un moment précis (PITR) est l'un des mécanismes disponibles pour sauvegarder des tables DynamoDB.

Une sauvegarde ponctuelle est conservée pendant 35 jours. Si vous avez besoin d'une durée de conservation plus longue, consultez Configurer des sauvegardes planifiées pour Amazon DynamoDB à l'aide d'AWS Backup dans la documentation AWS.

Recommandation: Vérifiez que la récupération à un moment précis (PITR) est activée pour toutes les tables AWS DynamoDB

Pour corriger ce résultat, procédez comme suit :

Terraform

Pour définir la récupération à un moment précis pour les tables DynamoDB, définissez le bloc point_in_time_recovery:

resource "aws_dynamodb_table" "example" {
  # ... other configuration ...
  point_in_time_recovery {
    enabled = true
  }
}

Console AWS

Activer la récupération à un moment précis DynamoDB pour une table existante

  1. Ouvrez la console DynamoDB à l'adresse https://console.aws.amazon.com/dynamodb/.
  2. Sélectionnez la table avec laquelle vous souhaitez travailler, puis "Sauvegardes".
  3. Dans la section "Récupération à un moment précis", sous "État", sélectionnez "Activer".
  4. Sélectionnez "Activer" à nouveau pour confirmer la modification.

CLI AWS

aws dynamodb update-continuous-backups \
  --table-name "GameScoresOnDemand" \
  --point-in-time-recovery-specification "PointInTimeRecoveryEnabled=true"

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Dynamodb Table Encrypted Kms

Nom de la catégorie dans l'API : DYNAMODB_TABLE_ENCRYPTED_KMS

Vérifie si toutes les tables DynamoDB sont chiffrées avec une clé KMS gérée par le client (non par défaut).

Recommandation: Vérifiez que toutes les tables DynamoDB sont chiffrées avec AWS Key Management Service (KMS)

Pour corriger ce résultat, procédez comme suit :

Terraform

Pour corriger ce contrôle, créez une clé AWS KMS et utilisez-la pour chiffrer la ressource DynamoDB non conforme.

resource "aws_kms_key" "dynamodb_encryption" {
  description         = "Used for DynamoDB encryption configuration"
  enable_key_rotation = true
}

resource "aws_dynamodb_table" "example" {
  # ... other configuration ...
  server_side_encryption {
    enabled     = true
    kms_key_arn = aws_kms_key.dynamodb_encryption.arn
  }
}

Console AWS

Supposons qu'une clé AWS KMS soit disponible pour chiffrer DynamoDB.

Pour remplacer le chiffrement d'une table DynamoDB par une clé KMS gérée et détenue par le client.

  1. Ouvrez la console DynamoDB à l'adresse https://console.aws.amazon.com/dynamodb/.
  2. Sélectionnez le tableau avec lequel vous souhaitez travailler, puis "Paramètres supplémentaires".
  3. Sous "Chiffrement", sélectionnez "Gérer le chiffrement".
  4. Pour le chiffrement au repos, sélectionnez "Stocké dans votre compte, vous en êtes le propriétaire et le gestionnaire".
  5. Sélectionnez la clé AWS à utiliser. Enregistrez les modifications.

CLI AWS

aws dynamodb update-table \
  --table-name <value> \
  --sse-specification "Enabled=true,SSEType=KMS,KMSMasterKeyId=<kms_key_arn>"

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ebs Optimized Instance

Nom de la catégorie dans l'API : EBS_OPTIMIZED_INSTANCE

Vérifiez si l'optimisation EBS est activée pour vos instances EC2 pouvant être optimisées pour EBS

Recommandation: Vérifiez que l'optimisation EBS est activée pour toutes les instances compatibles

Pour configurer les paramètres des instances optimisées pour EBS, consultez la section Instances optimisées pour Amazon EBS du guide de l'utilisateur Amazon EC2.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ebs Snapshot Public Restorable Check

Nom de la catégorie dans l'API : EBS_SNAPSHOT_PUBLIC_RESTORABLE_CHECK

Vérifie si les instantanés Amazon Elastic Block Store ne sont pas publics. La commande échoue si n'importe qui peut restaurer des instantanés Amazon EBS.

Les instantanés EBS permettent de sauvegarder les données de vos volumes EBS dans Amazon S3 à un moment spécifique. Vous pouvez utiliser les instantanés pour restaurer les états précédents des volumes EBS. Il est rarement acceptable de partager un instantané avec le public. En général, la décision de partager un instantané publiquement a été prise par erreur ou sans comprendre complètement les conséquences. Cette vérification permet de s'assurer que tous ces partages ont été entièrement planifiés et intentionnels.

Recommandation: Les instantanés Amazon EBS ne doivent pas pouvoir être restaurés publiquement

Pour corriger ce résultat, procédez comme suit :

Console AWS

Pour résoudre ce problème, modifiez votre instantané EBS pour le rendre privé plutôt que public.

Pour rendre un instantané EBS public privé:

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sous Elastic Block Store, sélectionnez le menu "Instantanés", puis votre instantané public.
  3. Dans "Actions", sélectionnez "Modifier les autorisations".
  4. Sélectionnez "Privé".
  5. (Facultatif) Ajoutez les numéros de compte AWS des comptes autorisés à partager votre instantané, puis sélectionnez "Ajouter une autorisation".
  6. Sélectionnez "Enregistrer".

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ebs Volume Encryption Enabled All Regions

Nom de la catégorie dans l'API : EBS_VOLUME_ENCRYPTION_ENABLED_ALL_REGIONS

Elastic Compute Cloud (EC2) est compatible avec le chiffrement au repos lorsque vous utilisez le service Elastic Block Store (EBS). Bien qu'il soit désactivé par défaut, le forçage du chiffrement lors de la création d'un volume EBS est accepté.

Recommandation: Assurez-vous que le chiffrement de volume EBS est activé dans toutes les régions

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS et ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Sous Account attributes, cliquez sur EBS encryption.
  3. Cliquez sur Manage.
  4. Cochez la case Enable.
  5. Cliquez sur Update EBS encryption.
  6. Répétez l'opération pour chaque région nécessitant une modification.

Remarque:Le chiffrement de volume EBS est configuré par région.

CLI AWS

  1. Exécuter
aws --region <region> ec2 enable-ebs-encryption-by-default
  1. Vérifiez que "EbsEncryptionByDefault": true s'affiche.
  2. Répétez l'opération pour chaque région nécessitant une modification.

Remarque:Le chiffrement de volume EBS est configuré par région.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ec2 Instances In Vpc

Nom de la catégorie dans l'API : EC2_INSTANCES_IN_VPC

Amazon VPC offre plus de fonctionnalités de sécurité qu'EC2 Classic. Il est recommandé que tous les nœuds appartiennent à un VPC Amazon.

Recommandation: Assurez-vous que toutes les instances appartiennent à un VPC

Pour corriger ce résultat, procédez comme suit :

Terraform

Si vous avez défini des instances EC2 classiques dans Terraform, vous pouvez modifier vos ressources pour qu'elles fassent partie d'un VPC. Cette migration dépendra de l'architecture qui répond le mieux à vos besoins. Voici un exemple Terraform simple qui illustre un EC2 exposé publiquement dans un VPC.

  resource "aws_vpc" "example_vpc" {
    cidr_block = "10.0.0.0/16"
  }

  resource "aws_subnet" "example_public_subnet" {
    vpc_id            = aws_vpc.example_vpc.id
    cidr_block        = "10.0.1.0/24"
    availability_zone = "1a"
  }

  resource "aws_internet_gateway" "example_igw" {
    vpc_id = aws_vpc.example_vpc.id
  }

  resource "aws_key_pair" "example_key" {
    key_name   = "web-instance-key"
    public_key = "ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQD3F6tyPEFEzV0LX3X8BsXdMsQz1x2cEikKDEY0aIj41qgxMCP/iteneqXSIFZBp5vizPvaoIR3Um9xK7PGoW8giupGn+EPuxIA4cDM4vzOqOkiMPhz5XK0whEjkVzTo4+S0puvDZuwIsdiW9mxhJc7tgBNL0cYlWSYVkz4G/fslNfRPW5mYAM49f4fhtxPb5ok4Q2Lg9dPKVHO/Bgeu5woMc7RY0p1ej6D4CKFE6lymSDJpW0YHX/wqE9+cfEauh7xZcG0q9t2ta6F6fmX0agvpFyZo8aFbXeUBr7osSCJNgvavWbM/06niWrOvYX2xwWdhXmXSrbX8ZbabVohBK41 email@example.com"
  }

  resource "aws_security_group" "web_sg" {
    name   = "http and ssh"
    vpc_id = aws_vpc.some_custom_vpc.id

    ingress {
      from_port   = 80
      to_port     = 80
      protocol    = "tcp"
      cidr_blocks = ["0.0.0.0/0"]
    }

    ingress {
      from_port   = 22
      to_port     = 22
      protocol    = "tcp"
      cidr_blocks = ["0.0.0.0/0"]
    }

    egress {
      from_port   = 0
      to_port     = 0
      protocol    = -1
      cidr_blocks = ["0.0.0.0/0"]
    }
  }

  resource "aws_instance" "web" {
    ami                    = <ami_id>
    instance_type          = <instance_flavor>
    key_name               = aws_key_pair.example_key.name
    monitoring             = true
    subnet_id              = aws_subnet.example_public_subnet.id
    vpc_security_group_ids = [aws_security_group.web_sg.id]
    metadata_options {
      http_tokens = "required"
    }
  }

Console AWS

Pour migrer votre environnement EC2 Classic vers un VPC, consultez Migrer d'EC2 Classic vers un VPC.

CLI AWS

Cet exemple de CLI AWS illustre la même infrastructure définie avec Terraform. Il s'agit d'un exemple simple d'une instance EC2 exposée publiquement dans un VPC.

Créer un VPC

  aws ec2 create-vpc \
  --cidr-block 10.0.0.0/16

Créer un sous-réseau public

  aws ec2 create-subnet \
  --availability-zone 1a \
  --cidr-block 10.0.1.0/24 \
  --vpc-id <id_from_create-vpc_command>

Créer une passerelle Internet

  aws ec2 create-internet-gateway

Associer une passerelle Internet à un VPC

  aws ec2 attach-internet-gateway \
  --internet-gateway-id <id_from_create-internet-gateway_command> \
  --vpc-id <id_from_create-vpc_command>

Créer une paire de clés : votre clé privée sera enregistrée dans /.ssh/web-instance-key.pem.

  aws ec2 create-key-pair \
  --key-name web-instance-key \
  --query "KeyMaterial" \
  --output text > ~/.ssh/web-instance-key.pem && \
  chmod 400 ~/.ssh/web-instance-key.pem

Créer un groupe de sécurité

  aws ec2 create-security-group \
  --group-name "http and ssh" \
  --vpc-id <id_from_create-vpc_command>

Créer des règles de groupe de sécurité : pour un accès plus restreint, définissez un CIDR plus restreint pour SSH sur le port 22

  aws ec2 authorize-security-group-ingress \
  --group-id <id_from_create-security-group_command>
  --protocol tcp \
  --port 80 \
  --cidr 0.0.0.0/0

  aws ec2 authorize-security-group-ingress \
  --group-id <id_from_create-security-group_command>
  --protocol tcp \
  --port 22 \
  --cidr 0.0.0.0/0

  aws ec2 authorize-security-group-egress \
  --group-id <id_from_create-security-group_command>
  --protocol -1 \
  --port 0 \
  --cidr 0.0.0.0/0

Créez une instance EC2

  aws ec2 run-instances \
  --image-id <ami_id> \
  --instance-type <instance_flavor> \
  --metadata-options "HttpEndpoint=enabled,HttpTokens=required" \
  --monitoring true \
  --key-name web-instance-key \
  --subnet-id <id_from_create-subnet_command> \
  --security-group-ids <id_from_create-security-group_command>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ec2 Instance No Public Ip

Nom de la catégorie dans l'API : EC2_INSTANCE_NO_PUBLIC_IP

Les instances EC2 disposant d'une adresse IP publique sont plus exposées aux risques de compromission. Il est recommandé de ne pas configurer d'adresse IP publique pour les instances EC2.

Recommandation: Assurez-vous qu'aucune instance ne dispose d'une adresse IP publique

Pour corriger ce résultat, procédez comme suit :

Terraform

Utilisez l'argument associate_public_ip_address = false avec la ressource aws_instance pour vous assurer que les instances EC2 sont provisionnées sans adresse IP publique.

resource "aws_instance" "no_public_ip" {
  ...
  associate_public_ip_address = false
}

Console AWS

Par défaut, l'attribut d'adressage public IPv4 est défini sur "false" pour les sous-réseaux non par défaut et sur "true" pour les sous-réseaux par défaut. Une exception est un sous-réseau non par défaut créé par l'assistant de lancement d'instance Amazon EC2. L'assistant définit l'attribut sur "true". Vous pouvez modifier cet attribut à l'aide de la console Amazon VPC.

Pour modifier le comportement d'adressage IPv4 public de votre sous-réseau

  1. Ouvrez la console Amazon VPC à l'adresse https://console.aws.amazon.com/vpc/.
  2. Dans le volet de navigation, sélectionnez Sous-réseaux.
  3. Sélectionnez votre sous-réseau, puis choisissez Actions > Modifier les paramètres du sous-réseau.
  4. Si vous cochez la case Enable auto-assign public IPv4 address (Activer l'attribution automatique d'une adresse IPv4 publique), une adresse IPv4 publique est demandée pour toutes les instances lancées dans le sous-réseau sélectionné. Cochez ou décochez la case selon vos besoins, puis sélectionnez Enregistrer.

CLI AWS

La commande suivante exécute une instance EC2 dans un sous-réseau par défaut sans lui associer d'adresse IP publique.

aws ec2 run-instances \
--image-id <ami_id> \
--instance-type <instance_flavor> \
--no-associate-public-ip-address \
--key-name MyKeyPair

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ec2 Managedinstance Association Compliance Status Check

Nom de la catégorie dans l'API : EC2_MANAGEDINSTANCE_ASSOCIATION_COMPLIANCE_STATUS_CHECK

Une association à State Manager est une configuration attribuée à vos instances gérées. La configuration définit l'état que vous souhaitez conserver sur vos instances. Par exemple, une association peut spécifier qu'un logiciel antivirus doit être installé et exécuté sur vos instances, ou que certains ports doivent être fermés. Les instances EC2 associées à AWS Systems Manager sont gérées par Systems Manager, ce qui facilite l'application des correctifs, la correction des erreurs de configuration et la réponse aux événements de sécurité.

Recommandation: Vérifiez l'état de conformité de l'association AWS Systems Manager

Pour corriger ce résultat, procédez comme suit :

Terraform

L'exemple suivant montre comment créer une instance EC2 simple, un document AWS Systems Manager (SSM) et une association entre SSM et l'instance EC2. Les documents acceptés sont de type Command et Policy.

resource "aws_instance" "web" {
  ami           = "<iam_id>"
  instance_type = "<instance_flavor>"
}

resource "aws_ssm_document" "check_ip" {
  name          = "check-ip-config"
  document_type = "Command"

  content = <<DOC
  {
    "schemaVersion": "1.2",
    "description": "Check ip configuration of a Linux instance.",
    "parameters": {

    },
    "runtimeConfig": {
      "aws:runShellScript": {
        "properties": [
          {
            "id": "0.aws:runShellScript",
            "runCommand": ["ifconfig"]
          }
        ]
      }
    }
  }
DOC
}

resource "aws_ssm_association" "check_ip_association" {
  name = aws_ssm_document.check_ip.name

  targets {
    key    = "InstanceIds"
    values = [aws_instance.web.id]
  }
}

Console AWS

Pour savoir comment configurer des associations avec AWS Systems Manager à l'aide de la console, consultez la section Créer des associations dans la documentation AWS Systems Manager.

CLI AWS

Créer un document SSM

aws ssm create-document \
--name <document_name> \
--content  file://path/to-file/document.json \
--document-type "Command"

Créer une association SSM

aws ssm create-association \
--name <association_name> \
--targets "Key=InstanceIds,Values=<instance-id-1>,<instance-id-2>"

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ec2 Managedinstance Patch Compliance Status Check

Nom de la catégorie dans l'API : EC2_MANAGEDINSTANCE_PATCH_COMPLIANCE_STATUS_CHECK

Cette commande vérifie si l'état de conformité de l'association AWS Systems Manager est COMPLIANT ou NON_COMPLIANT après l'exécution de l'association sur une instance. La vérification échoue si l'état de conformité de l'association est NON_COMPLIANT.

Une association à State Manager est une configuration attribuée à vos instances gérées. La configuration définit l'état que vous souhaitez conserver sur vos instances. Par exemple, une association peut spécifier qu'un logiciel antivirus doit être installé et exécuté sur vos instances, ou que certains ports doivent être fermés.

Une fois que vous avez créé une ou plusieurs associations à State Manager, les informations sur l'état de conformité sont immédiatement disponibles. Vous pouvez consulter l'état de conformité dans la console ou en réponse aux commandes AWS CLI ou aux actions de l'API Systems Manager correspondantes. Pour les associations, la colonne "Conformité de la configuration" indique l'état de conformité (conforme ou non conforme). Il indique également le niveau de gravité attribué à l'association, par exemple "Critique" ou "Moyenne".

Pour en savoir plus sur la conformité des associations State Manager, consultez la section À propos de la conformité des associations State Manager dans le guide de l'utilisateur d'AWS Systems Manager.

Recommandation: Vérifiez l'état de conformité des correctifs AWS Systems Manager

Une association échouée peut être liée à différents éléments, y compris aux cibles et aux noms de documents SSM. Pour résoudre ce problème, vous devez d'abord identifier et examiner l'association en consultant l'historique des associations. Pour savoir comment afficher l'historique des associations, consultez la section Afficher l'historique des associations du guide de l'utilisateur d'AWS Systems Manager.

Après examen, vous pouvez modifier l'association pour corriger le problème identifié. Vous pouvez modifier une association pour spécifier un nouveau nom, une planification, un niveau de gravité ou des cibles. Une fois que vous avez modifié une association, AWS Systems Manager crée une nouvelle version. Pour savoir comment modifier une association, consultez la section Modifier et créer une version d'une association du guide de l'utilisateur d'AWS Systems Manager.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ec2 Metadata Service Allows Imdsv2

Nom de la catégorie dans l'API : EC2_METADATA_SERVICE_ALLOWS_IMDSV2

Lorsque vous activez le service de métadonnées sur des instances AWS EC2, vous pouvez utiliser la version 1 du service de métadonnées d'instance (IMDSv1, méthode de requête/réponse) ou la version 2 (IMDSv2, méthode orientée session).

Recommandation: Assurez-vous que seul IMDSv2 est autorisé par le service de métadonnées pour EC2

Dans la console:
1. Connectez-vous à la console de gestion AWS et ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/
2. Dans le menu "Instances", sélectionnez "Instances".
3. Pour chaque instance, sélectionnez-la, puis choisissez Actions > Modifier les options de métadonnées de l'instance.
4. Si le service de métadonnées d'instance est activé, définissez IMDSv2 sur "Required" (Obligatoire).

Depuis la ligne de commande:

aws ec2 modify-instance-metadata-options --instance-id <instance_id> --http-tokens required

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Ec2 Volume Inuse Check

Nom de la catégorie dans l'API : EC2_VOLUME_INUSE_CHECK

Identifiez et supprimez les volumes EBS (Elastic Block Store) non associés (inutilisés) de votre compte AWS afin de réduire le coût de votre facture AWS mensuelle. Supprimer les volumes EBS inutilisés réduit également le risque de fuite de données confidentielles/sensibles depuis vos locaux. En outre, ce contrôle vérifie également si les instances EC2 archivées sont configurées pour supprimer les volumes à l'arrêt.

Par défaut, les instances EC2 sont configurées pour supprimer les données de tous les volumes EBS associés à l'instance, ainsi que le volume EBS racine de l'instance. Toutefois, tous les volumes EBS non racine associés à l'instance, au lancement ou pendant l'exécution, sont conservés après l'arrêt par défaut.

Recommandation: Vérifie si les volumes EBS sont associés aux instances EC2 et configurés pour être supprimés à l'arrêt de l'instance

Pour corriger ce résultat, procédez comme suit :

Terraform

Pour éviter ce scénario avec Terraform, créez des instances EC2 avec des blocs EBS intégrés. Ainsi, tous les blocs EBS associés à l'instance (et pas seulement la racine) seront supprimés à l'arrêt de l'instance, car l'attribut ebs_block_device.delete_on_termination est défini par défaut sur true.

resource "aws_instance" "web" {
    ami                    = <ami_id>
    instance_type          = <instance_flavor>
    ebs_block_device {
      delete_on_termination = true # Default
      device_name           = "/dev/sdh"
    }

Console AWS

Pour supprimer un volume EBS à l'aide de la console

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sélectionnez Volumes.
  3. Sélectionnez le volume à supprimer, puis choisissez Actions > Supprimer le volume.
  4. Remarque: Si l'option "Supprimer le volume" est grisée, le volume est associé à une instance. Vous devez dissocier le volume de l'instance avant de pouvoir le supprimer.
  5. Dans la boîte de dialogue de confirmation, sélectionnez Delete (Supprimer).

CLI AWS

Cet exemple de commande supprime un volume disponible dont l'ID est vol-049df61146c4d7901. Si la commande aboutit, aucun résultat n'est renvoyé.

aws ec2 delete-volume --volume-id vol-049df61146c4d7901

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Efs Encrypted Check

Nom de la catégorie dans l'API : EFS_ENCRYPTED_CHECK

Amazon EFS prend en charge deux formes de chiffrement pour les systèmes de fichiers : le chiffrement des données en transit et le chiffrement au repos. Cette vérification permet de vérifier que tous les systèmes de fichiers EFS sont configurés avec le chiffrement au repos dans toutes les régions activées du compte.

Recommandation: Vérifiez si EFS est configuré pour chiffrer les données de fichiers à l'aide de KMS

Pour corriger ce résultat, procédez comme suit :

Terraform

L'extrait de code suivant permet de créer un EFS chiffré KMS (remarque: l'attribut kms_key_id est facultatif, et une clé sera créée si aucun ID de clé KMS n'est transmis).

resource "aws_efs_file_system" "encrypted-efs" {
  creation_token = "my-kms-encrypted-efs"
  encrypted      = true
  kms_key_id     = "arn:aws:kms:us-west-2:12344375555:key/16393ebd-3348-483f-b162-99b6648azz23"

  tags = {
    Name = "MyProduct"
  }
}

Console AWS

Pour configurer EFS avec le chiffrement à l'aide de la console AWS, consultez Chiffrer un système de fichiers au repos à l'aide de la console.

CLI AWS

Notez que lorsque vous créez un EFS à partir de la console, le chiffrement au repos est activé par défaut, mais ce n'est pas le cas pour les EFS créés à l'aide de la CLI, de l'API ou du SDK. L'exemple suivant vous permet de créer un système de fichiers chiffré dans votre infrastructure.

aws efs create-file-system \
--backup \
--encrypted \
--region us-east-1 \

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Efs In Backup Plan

Nom de la catégorie dans l'API : EFS_IN_BACKUP_PLAN

Les bonnes pratiques d'Amazon recommandent de configurer des sauvegardes pour vos systèmes de fichiers élastiques (EFS). Cette commande vérifie si des sauvegardes sont activées pour tous les EFS de toutes les régions activées de votre compte AWS.

Recommandation: Vérifiez si les systèmes de fichiers EFS sont inclus dans les plans de sauvegarde AWS

Pour corriger ce résultat, procédez comme suit :

Terraform

Utilisez la ressource aws_efs_backup_policy pour configurer une stratégie de sauvegarde pour les systèmes de fichiers EFS.

resource "aws_efs_file_system" "encrypted-efs" {
  creation_token = "my-encrypted-efs"
  encrypted      = true

  tags = merge({
    Name = "${local.resource_prefix.value}-efs"
    }, {
    git_file             = "terraform/aws/efs.tf"
    git_org              = "your_git_org"
    git_repo             = "your_git_repo"
  })
}

resource "aws_efs_backup_policy" "policy" {
  file_system_id = aws_efs_file_system.encrypted-efs.id

  backup_policy {
    status = "ENABLED"
  }
}

Console AWS

Vous pouvez sauvegarder EFS de deux manières: via le service AWS Backup et la solution de sauvegarde EFS vers EFS. Pour résoudre les problèmes liés aux EFS non sauvegardés à l'aide de la console, consultez:

  1. Utiliser AWS Backup pour sauvegarder et restaurer des systèmes de fichiers Amazon EFS
  2. Sauvegarde EFS vers EFS

CLI AWS

Il existe plusieurs options pour créer des systèmes de fichiers EFS conformes à l'aide de la CLI:

  1. Créer un EFS avec la sauvegarde automatique activée (par défaut pour le stockage dans une seule zone et sous réserve de la disponibilité de la sauvegarde dans la région AWS)
  2. Créer un EFS et définir une stratégie de sauvegarde

Toutefois, si la correction doit être effectuée dans un EFS existant, la meilleure option consiste à créer une stratégie de sauvegarde et à l'associer à votre EFS non conforme. Vous aurez besoin d'une commande pour chaque EFS de votre infrastructure.

arr=( $(aws efs describe-file-systems | jq -r '.FileSystems[].FileSystemId') )
for efs in "${arr[@]}"
do
  aws efs put-backup-policy \
  --file-system-id "${efs}" \
  --backup-policy "Status=ENABLED"
done

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Elb Acm Certificate Required

Nom de la catégorie dans l'API : ELB_ACM_CERTIFICATE_REQUIRED

Vérifie si l'équilibreur de charge classique utilise les certificats HTTPS/SSL fournis par AWS Certificate Manager (ACM). La vérification échoue si l'équilibreur de charge classique configuré avec un écouteur HTTPS/SSL n'utilise pas de certificat fourni par ACM.

Pour créer un certificat, vous pouvez utiliser ACM ou un outil compatible avec les protocoles SSL et TLS, comme OpenSSL. Security Hub vous recommande d'utiliser ACM pour créer ou importer des certificats pour votre équilibreur de charge.

ACM s'intègre aux équilibreurs de charge classiques afin que vous puissiez déployer le certificat sur votre équilibreur de charge. Vous devez également renouveler automatiquement ces certificats.

Recommandation: Vérifiez que tous les équilibreurs de charge classiques utilisent les certificats SSL fournis par AWS Certificate Manager

Pour savoir comment associer un certificat SSL/TLS ACM à un équilibreur de charge classique, consultez l'article du centre de connaissances AWS Comment associer un certificat SSL/TLS ACM à un équilibreur de charge classique, d'application ou réseau ?

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Elb Deletion Protection Enabled

Nom de la catégorie dans l'API : ELB_DELETION_PROTECTION_ENABLED

Vérifie si la protection contre la suppression est activée pour un équilibreur de charge d'application. La commande échoue si la protection contre la suppression n'est pas configurée.

Activez la protection contre la suppression pour éviter que votre équilibreur de charge d'application ne soit supprimé.

Recommandation: Activez la protection contre la suppression de l'équilibreur de charge d'application

Pour corriger ce résultat, procédez comme suit :

Console AWS

Pour éviter la suppression accidentelle de votre équilibreur de charge, vous pouvez activer la protection contre la suppression. Par défaut, la protection contre la suppression est désactivée pour votre équilibreur de charge.

Si vous activez la protection contre la suppression pour votre équilibreur de charge, vous devez la désactiver avant de pouvoir le supprimer.

Pour activer la protection contre la suppression à partir de la console :

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sous ÉQUILIBRAGE DE CHARGE, sélectionnez Équilibreurs de charge.
  3. Choisissez l'équilibreur de charge.
  4. Dans l'onglet Description, sélectionnez Modifier les attributs.
  5. Sur la page Modifier les attributs de l'équilibreur de charge, sélectionnez Activer la protection contre la suppression, puis cliquez sur Enregistrer.
  6. Sélectionnez Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Elb Logging Enabled

Nom de la catégorie dans l'API : ELB_LOGGING_ENABLED

Cette commande vérifie si la journalisation est activée sur l'équilibreur de charge d'application et l'équilibreur de charge classique. La vérification échoue si access_logs.s3.enabled est défini sur "false".

Elastic Load Balancing fournit des journaux d'accès qui capturent des informations détaillées sur les requêtes envoyées à votre équilibreur de charge. Chaque journal contient des informations telles que l'heure de réception de la requête, l'adresse IP du client, les latences, les chemins de requête et les réponses du serveur. Vous pouvez utiliser ces journaux d'accès pour analyser les tendances de trafic et résoudre les problèmes.

Pour en savoir plus, consultez la section Journaux d'accès de votre équilibreur de charge classique dans le guide de l'utilisateur des équilibreurs de charge classiques.

Recommandation: Vérifiez si la journalisation est activée sur les équilibreurs de charge classiques et d'application

Pour corriger ce résultat, procédez comme suit :

Console AWS

Pour résoudre ce problème, mettez à jour vos équilibreurs de charge afin d'activer la journalisation.

Pour activer les journaux d'accès :

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sélectionnez Équilibreurs de charge.
  3. Choisissez un équilibreur de charge d'application ou un équilibreur de charge classique.
  4. Dans Actions, sélectionnez Modifier les attributs.
  5. Sous Journaux d'accès, sélectionnez Activer.
  6. Saisissez votre emplacement S3. Ce lieu peut exister ou être créé pour vous. Si vous ne spécifiez pas de préfixe, les journaux d'accès sont stockés à la racine du bucket S3.
  7. Sélectionnez Enregistrer.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Elb Tls Https Listeners Only

Nom de la catégorie dans l'API : ELB_TLS_HTTPS_LISTENERS_ONLY

Cette vérification garantit que tous les équilibreurs de charge classiques sont configurés pour utiliser une communication sécurisée.

Un écouteur est un processus qui recherche les requêtes de connexion. Il est configuré avec un protocole et un port pour les connexions côté client (client vers équilibreur de charge) et un protocole et un port pour les connexions côté serveur (équilibreur de charge vers instance). Pour en savoir plus sur les ports, les protocoles et les configurations d'écouteurs compatibles avec Elastic Load Balancing, consultez la section Écouteurs pour votre équilibreur de charge classique.

Recommandation: Vérifiez que tous les équilibreurs de charge classiques sont configurés avec des écouteurs SSL ou HTTPS

Pour configurer SSL ou TLS pour les équilibreurs de charge classiques, consultez Créer un équilibreur de charge HTTPS/SSL à l'aide de la console de gestion AWS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Encrypted Volumes

Nom de la catégorie dans l'API : ENCRYPTED_VOLUMES

Vérifie si les volumes EBS associés sont chiffrés. Pour que cette vérification soit effectuée, les volumes EBS doivent être utilisés et chiffrés. Si le volume EBS n'est pas associé, il n'est pas soumis à cette vérification.

Pour renforcer la sécurité de vos données sensibles dans les volumes EBS, vous devez activer le chiffrement au repos EBS. Le chiffrement Amazon EBS offre une solution de chiffrement simple pour vos ressources EBS. Vous n'avez pas besoin de créer, de gérer et de sécuriser votre propre infrastructure de gestion des clés. Il utilise des clés KMS lors de la création de volumes et d'instantanés chiffrés.

Pour en savoir plus sur le chiffrement Amazon EBS, consultez le chapitre "Chiffrement Amazon EBS" du guide de l'utilisateur Amazon EC2 pour les instances Linux.

Recommandation: Les volumes Amazon EBS associés doivent être chiffrés au repos

Pour corriger ce résultat, procédez comme suit :

Console AWS

Il n'existe aucun moyen direct de chiffrer un volume ou un instantané non chiffré existant. Vous ne pouvez chiffrer un nouveau volume ou un nouvel instantané que lorsque vous le créez.

Si vous avez activé le chiffrement par défaut, Amazon EBS chiffre le nouveau volume ou l'instantané créé à l'aide de votre clé par défaut pour le chiffrement Amazon EBS. Même si vous n'avez pas activé le chiffrement par défaut, vous pouvez l'activer lorsque vous créez un volume ou un instantané individuel. Dans les deux cas, vous pouvez remplacer la clé par défaut du chiffrement Amazon EBS et choisir une clé symétrique gérée par le client.

Pour en savoir plus, consultez les sections Créer un volume Amazon EBS et Copier un instantané Amazon EBS dans le guide de l'utilisateur Amazon EC2 pour les instances Linux.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Encryption At Rest Enabled Rds Instances

Nom de la catégorie dans l'API : ENCRYPTION_AT_REST_ENABLED_RDS_INSTANCES

Les instances de base de données chiffrées Amazon RDS utilisent l'algorithme de chiffrement AES-256, standard dans l'industrie, pour chiffrer vos données sur le serveur qui héberge vos instances de base de données Amazon RDS. Une fois vos données chiffrées, Amazon RDS gère de manière transparente l'authentification des accès et le déchiffrement de vos données, avec un impact minimal sur les performances.

Recommandation: Assurez-vous que le chiffrement au repos est activé pour les instances RDS

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS et ouvrez le tableau de bord RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le panneau de navigation de gauche, cliquez sur Databases.
  3. Sélectionnez l'instance de base de données à chiffrer.
  4. Cliquez sur le bouton Actions en haut à droite, puis sélectionnez Take Snapshot.
  5. Sur la page "Prendre un instantané", saisissez le nom de la base de données dont vous souhaitez prendre un instantané dans le champ Snapshot Name, puis cliquez sur Take Snapshot.
  6. Sélectionnez l'instantané que vous venez de créer, cliquez sur le bouton Action en haut à droite, puis sélectionnez Copy snapshot dans le menu "Action".
  7. Sur la page "Créer une copie de l'instantané de la base de données", procédez comme suit:
  • Dans le champ "Nouveau nom d'identifiant d'instantané de base de données", saisissez un nom pour l'new snapshot.
  • Cochez Copy Tags, le nouvel instantané doit avoir les mêmes tags que l'instantané source.
  • Sélectionnez Yes dans la liste déroulante Enable Encryption pour activer le chiffrement. Vous pouvez choisir d'utiliser la clé de chiffrement par défaut d'AWS ou une clé personnalisée dans la liste déroulante "Clé principale".
  1. Cliquez sur Copy Snapshot pour créer une copie chiffrée de l'instantané de l'instance sélectionnée.
  2. Sélectionnez la nouvelle copie chiffrée de l'instantané, cliquez sur le bouton Action en haut à droite, puis sélectionnez le bouton Restore Snapshot dans le menu "Action". Le cliché chiffré sera ainsi restauré dans une nouvelle instance de base de données.
  3. Sur la page "Restore DB Instance" (Restaurer une instance de base de données), saisissez un nom unique pour la nouvelle instance de base de données dans le champ "DB Instance Identifier" (Identifiant de l'instance de base de données).
  4. Vérifiez les détails de la configuration de l'instance, puis cliquez sur Restore DB Instance.
  5. Une fois le processus de provisionnement de la nouvelle instance terminé, vous pouvez modifier la configuration de l'application pour qu'elle fasse référence au point de terminaison de la nouvelle instance de base de données chiffrée. Une fois le point de terminaison de la base de données modifié au niveau de l'application, vous pouvez supprimer l'instance non chiffrée.

CLI AWS

  1. Exécutez la commande describe-db-instances pour lister tous les noms de bases de données RDS disponibles dans la région AWS sélectionnée. La résultat de la commande doit renvoyer l'identifiant de l'instance de base de données.
aws rds describe-db-instances --region <region-name> --query 'DBInstances[*].DBInstanceIdentifier'
  1. Exécutez la commande create-db-snapshot pour créer un instantané de l'instance de base de données sélectionnée. La résultat de la commande renverra l'new snapshot avec le nom "Nom de l'instantané de la base de données".
aws rds create-db-snapshot --region <region-name> --db-snapshot-identifier <DB-Snapshot-Name> --db-instance-identifier <DB-Name>
  1. Exécutez maintenant la commande list-aliases pour lister les alias de clés KMS disponibles dans une région spécifiée. L'résultat de la commande devrait renvoyer chaque key alias currently available. Pour notre processus d'activation du chiffrement RDS, recherchez l'ID de la clé KMS par défaut d'AWS.
aws kms list-aliases --region <region-name>
  1. Exécutez la commande copy-db-snapshot à l'aide de l'ID de clé KMS par défaut pour les instances RDS renvoyées précédemment afin de créer une copie chiffrée de l'instantané de l'instance de base de données. La résultat de la commande renverra encrypted instance snapshot configuration.
aws rds copy-db-snapshot --region <region-name> --source-db-snapshot-identifier <DB-Snapshot-Name> --target-db-snapshot-identifier <DB-Snapshot-Name-Encrypted> --copy-tags --kms-key-id <KMS-ID-For-RDS>
  1. Exécutez la commande restore-db-instance-from-db-snapshot pour restaurer l'instantané chiffré créé à l'étape précédente dans une nouvelle instance de base de données. Si l'opération réussit, la résultat de la commande doit renvoyer la nouvelle configuration de l'instance de base de données chiffrée.
aws rds restore-db-instance-from-db-snapshot --region <region-name> --db-instance-identifier <DB-Name-Encrypted> --db-snapshot-identifier <DB-Snapshot-Name-Encrypted>
  1. Exécutez la commande describe-db-instances pour lister tous les noms de bases de données RDS disponibles dans la région AWS sélectionnée. L'output affichera le nom de l'identifiant de l'instance de base de données. Sélectionnez le nom de la base de données chiffrée que nous venons de créer, DB-Name-Encrypted.
aws rds describe-db-instances --region <region-name> --query 'DBInstances[*].DBInstanceIdentifier'
  1. Exécutez à nouveau la commande describe-db-instances à l'aide de l'identifiant d'instance RDS renvoyé précédemment pour déterminer si l'instance de base de données sélectionnée est chiffrée. La résultat de la commande doit renvoyer l'état de chiffrement True.
aws rds describe-db-instances --region <region-name> --db-instance-identifier <DB-Name-Encrypted> --query 'DBInstances[*].StorageEncrypted'

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Encryption Enabled Efs File Systems

Nom de la catégorie dans l'API : ENCRYPTION_ENABLED_EFS_FILE_SYSTEMS

Les données EFS doivent être chiffrées au repos à l'aide d'AWS KMS (Key Management Service).

Recommandation: Assurez-vous que le chiffrement est activé pour les systèmes de fichiers EFS

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console AWS Management Console, puis accédez au tableau de bord Elastic File System (EFS).
  2. Sélectionnez File Systems dans le panneau de navigation de gauche.
  3. Cliquez sur le bouton Create File System dans le menu supérieur du tableau de bord pour lancer le processus de configuration du système de fichiers.
  4. Sur la page de configuration de Configure file system access, effectuez les actions suivantes.
    - Choisissez le bon VPC dans la liste déroulante.
    - Dans la section "Créer des cibles de montage", cochez les cases correspondant à toutes les zones de disponibilité (AZ) du VPC sélectionné. Ce sont vos cibles de montage.
    - Cliquez sur Next step pour continuer.

  5. Sur la page Configure optional settings, procédez comme suit :
    - Créez tags pour décrire votre nouveau système de fichiers.
    - Choisissez performance mode en fonction de vos exigences.
    - Cochez la case Enable encryption, puis sélectionnez aws/elasticfilesystem dans la liste déroulante "Sélectionner une clé principale KMS" pour activer le chiffrement du nouveau système de fichiers à l'aide de la clé principale par défaut fournie et gérée par AWS KMS.
    - Cliquez sur Next step pour continuer.

  6. Vérifiez les informations de configuration du système de fichiers sur la page review and create, puis cliquez sur Create File System pour créer votre système de fichiers AWS EFS.

  7. Copiez les données de l'ancien système de fichiers EFS non chiffré sur le nouveau système de fichiers chiffré.
  8. Supprimez le système de fichiers non chiffré dès que la migration de vos données vers le nouveau système de fichiers chiffré est terminée.
  9. Modifiez la région AWS dans la barre de navigation, puis répétez l'ensemble du processus pour les autres régions AWS.

Depuis la CLI:
1. Exécutez la commande describe-file-systems pour décrire les informations de configuration disponibles pour le système de fichiers sélectionné (non chiffré) (voir la section "Audit" pour identifier la bonne ressource):

aws efs describe-file-systems --region <region> --file-system-id <file-system-id from audit section step 2 output>
  1. Le résultat de la commande doit renvoyer les informations de configuration demandées.
  2. Pour provisionner un nouveau système de fichiers AWS EFS, vous devez générer un identifiant unique universel (UUID) afin de créer le jeton requis par la commande create-file-system. Pour créer le jeton requis, vous pouvez utiliser un UUID généré de manière aléatoire sur "https://www.uuidgenerator.net".
  3. Exécutez la commande create-file-system à l'aide du jeton unique créé à l'étape précédente.
aws efs create-file-system --region <region> --creation-token <Token (randomly generated UUID from step 3)> --performance-mode generalPurpose --encrypted
  1. La résultat de la commande doit renvoyer les métadonnées de configuration du nouveau système de fichiers.
  2. Exécutez la commande create-mount-target en utilisant l'ID du système de fichiers EFS nouvellement créé renvoyé à l'étape précédente comme identifiant et l'ID de la zone de disponibilité (AZ) qui représentera la cible d'installation:
aws efs create-mount-target --region <region> --file-system-id <file-system-id> --subnet-id <subnet-id>
  1. La résultat de la commande doit renvoyer les nouvelles métadonnées de la cible d'installation.
  2. Vous pouvez maintenant installer votre système de fichiers à partir d'une instance EC2.
  3. Copiez les données de l'ancien système de fichiers EFS non chiffré sur le nouveau système de fichiers chiffré.
  4. Supprimez le système de fichiers non chiffré dès que la migration de vos données vers le nouveau système de fichiers chiffré est terminée.
aws efs delete-file-system --region <region> --file-system-id <unencrypted-file-system-id>
  1. Modifiez la région AWS en mettant à jour --region, puis répétez l'ensemble du processus pour les autres régions AWS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Iam Password Policy

Nom de la catégorie dans l'API : IAM_PASSWORD_POLICY

AWS permet d'utiliser des stratégies de mot de passe personnalisées dans votre compte AWS pour spécifier des exigences de complexité et des périodes de rotation obligatoires pour les mots de passe de vos utilisateurs IAM. Si vous ne définissez pas de stratégie de mot de passe personnalisée, les mots de passe des utilisateurs IAM doivent respecter la stratégie de mot de passe AWS par défaut. Les bonnes pratiques de sécurité AWS recommandent les exigences de complexité de mot de passe suivantes:

  • Exiger au moins un caractère majuscule dans le mot de passe
  • Exiger au moins un caractère minuscule dans les mots de passe
  • Exiger au moins un symbole dans les mots de passe
  • Exiger au moins un chiffre dans les mots de passe
  • Exiger une longueur minimale de 14 caractères pour les mots de passe
  • Exiger au moins 24 mots de passe avant d'autoriser la réutilisation
  • Exiger au moins 90 jours avant l'expiration du mot de passe

Cette option permet de vérifier toutes les exigences de la stratégie de mots de passe spécifiée.

Recommandation: Vérifiez si la stratégie de mots de passe du compte pour les utilisateurs IAM répond aux exigences spécifiées

Pour corriger ce résultat, procédez comme suit :

Terraform

resource "aws_iam_account_password_policy" "strict" {
  allow_users_to_change_password = true
  require_uppercase_characters   = true
  require_lowercase_characters   = true
  require_symbols                = true
  require_numbers                = true
  minimum_password_length        = 14
  password_reuse_prevention      = 24
  max_password_age               = 90
}

Console AWS

Pour créer une règle de mots de passe personnalisée

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur la page https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, sélectionnez "Paramètres du compte".
  3. Dans la section "Règles relatives aux mots de passe", sélectionnez "Modifier les règles relatives aux mots de passe".
  4. Sélectionnez les options que vous souhaitez appliquer à votre stratégie de mots de passe, puis cliquez sur "Enregistrer les modifications".

Modifier une règle de mot de passe personnalisée

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur la page https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, sélectionnez "Paramètres du compte".
  3. Dans la section "Règle de mot de passe", sélectionnez "Modifier".
  4. Sélectionnez les options que vous souhaitez appliquer à votre stratégie de mots de passe, puis cliquez sur "Enregistrer les modifications".

CLI AWS

aws iam update-account-password-policy \
--allow-users-to-change-password \
--require-uppercase-characters \
--require-lowercase-characters \
--require-symbols \
--require-numbers \
--minimum-password-length 14 \
--password-reuse-prevention 24 \
--max-password-age 90

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Iam Password Policy Prevents Password Reuse

Nom de la catégorie dans l'API : IAM_PASSWORD_POLICY_PREVENTS_PASSWORD_REUSE

Les stratégies de mots de passe IAM peuvent empêcher la réutilisation d'un mot de passe donné par le même utilisateur. Nous vous recommandons de configurer la stratégie de mots de passe pour empêcher la réutilisation des mots de passe.

Recommandation: Assurez-vous que la stratégie IAM relative aux mots de passe empêche la réutilisation des mots de passe

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console AWS (avec les autorisations appropriées pour afficher les paramètres du compte Identity Access Management)
  2. Accéder au service IAM dans la console AWS
  3. Cliquez sur "Paramètres du compte" dans le volet de gauche.
  4. Cochez "Empêcher la réutilisation des mots de passe".
  5. Le nombre de mots de passe à mémoriser est défini sur 24.

CLI AWS

 aws iam update-account-password-policy --password-reuse-prevention 24

Remarque: Toutes les commandes commençant par "aws iam update-account-password-policy" peuvent être combinées en une seule commande.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Iam Password Policy Requires Minimum Length 14 Greater

Nom de la catégorie dans l'API : IAM_PASSWORD_POLICY_REQUIRES_MINIMUM_LENGTH_14_GREATER

Les règles relatives aux mots de passe servent, en partie, à appliquer des exigences de complexité des mots de passe. Les stratégies de mots de passe IAM peuvent être utilisées pour s'assurer que les mots de passe ont au moins une longueur donnée. Nous vous recommandons de définir une longueur minimale de 14 caractères pour les mots de passe.

Recommandation: Assurez-vous que la stratégie de mot de passe IAM exige au moins 14 caractères

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console AWS (avec les autorisations appropriées pour afficher les paramètres du compte Identity Access Management)
  2. Accéder au service IAM dans la console AWS
  3. Cliquez sur "Paramètres du compte" dans le volet de gauche.
  4. Définissez "Longueur minimale du mot de passe" sur 14 ou plus.
  5. Cliquez sur "Appliquer la stratégie de mot de passe".

CLI AWS

 aws iam update-account-password-policy --minimum-password-length 14

Remarque: Toutes les commandes commençant par "aws iam update-account-password-policy" peuvent être combinées en une seule commande.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Iam Policies Allow Full Administrative Privileges Attached

Nom de la catégorie dans l'API : IAM_POLICIES_ALLOW_FULL_ADMINISTRATIVE_PRIVILEGES_ATTACHED

Les stratégies IAM permettent d'accorder des droits à des utilisateurs, des groupes ou des rôles. Il est recommandé, et considéré comme un conseil de sécurité standard, d'accorder le moindre privilège, c'est-à-dire de n'accorder que les autorisations nécessaires à l'exécution d'une tâche. Déterminez ce que les utilisateurs doivent faire, puis créez des règles qui leur permettent d'effectuer uniquement ces tâches, au lieu de leur accorder des droits d'administrateur complets.

Recommandation: Assurez-vous que des stratégies IAM accordant les droits d'administrateur complets "*:*" ne sont pas associées

Pour corriger ce résultat, procédez comme suit :

Console AWS

Pour dissocier la règle disposant de droits d'administrateur complets, procédez comme suit:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, cliquez sur "Règles", puis recherchez le nom de la règle trouvé lors de l'étape d'audit.
  3. Sélectionnez la règle à supprimer.
  4. Dans le menu d'action de la règle, sélectionnez d'abord Detach.
  5. Sélectionner tous les utilisateurs, groupes et rôles auxquels cette stratégie est associée
  6. Cliquez sur Detach Policy.
  7. Dans le menu d'action de la règle, sélectionnez Detach.

CLI AWS

Pour dissocier la règle disposant de droits d'administrateur complets, comme indiqué lors de l'étape d'audit, procédez comme suit:

  1. Répertorie tous les utilisateurs, groupes et rôles IAM auxquels la stratégie gérée spécifiée est associée.
 aws iam list-entities-for-policy --policy-arn <policy_arn>
  1. Dissociez la stratégie de tous les utilisateurs IAM:
 aws iam detach-user-policy --user-name <iam_user> --policy-arn <policy_arn>
  1. Dissociez la stratégie de tous les groupes IAM:
 aws iam detach-group-policy --group-name <iam_group> --policy-arn <policy_arn>
  1. Dissociez la stratégie de tous les rôles IAM:
 aws iam detach-role-policy --role-name <iam_role> --policy-arn <policy_arn>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Iam Users Receive Permissions Groups

Nom de la catégorie dans l'API : IAM_USERS_RECEIVE_PERMISSIONS_GROUPS

Les utilisateurs IAM sont autorisés à accéder aux services, aux fonctions et aux données via des stratégies IAM. Il existe quatre façons de définir des stratégies pour un utilisateur: 1) modifier directement la stratégie utilisateur (également appelée stratégie intégrée ou stratégie utilisateur) ; 2) associer une stratégie directement à un utilisateur ; 3) ajouter l'utilisateur à un groupe IAM associé à une stratégie ; 4) ajouter l'utilisateur à un groupe IAM associé à une stratégie intégrée.

Seule la troisième implémentation est recommandée.

Recommandation: Assurez-vous que les utilisateurs IAM ne reçoivent des autorisations que via des groupes

Pour créer un groupe IAM et lui attribuer une stratégie, procédez comme suit:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, cliquez sur Groups, puis sur Create New Group .
  3. Dans la zone Group Name, saisissez le nom du groupe, puis cliquez sur Next Step .
  4. Dans la liste des règles, cochez la case correspondant à chaque règle que vous souhaitez appliquer à tous les membres du groupe. Cliquez ensuite sur Next Step .
  5. Cliquez sur Create Group.

Pour ajouter un utilisateur à un groupe donné, procédez comme suit:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, cliquez sur Groups.
  3. Sélectionnez le groupe auquel ajouter un utilisateur.
  4. Cliquez sur Add Users To Group.
  5. Sélectionnez les utilisateurs à ajouter au groupe.
  6. Cliquez sur Add Users.

Pour supprimer une association directe entre un utilisateur et une stratégie, procédez comme suit:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation de gauche, cliquez sur "Utilisateurs".
  3. Pour chaque utilisateur:
    - Sélectionnez l'utilisateur
    - Cliquez sur l'onglet Permissions
    - Développez Permissions policies
    - Cliquez sur X pour chaque stratégie, puis sur "Dissocier" ou "Supprimer" (selon le type de stratégie)

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Iam User Group Membership Check

Nom de la catégorie dans l'API : IAM_USER_GROUP_MEMBERSHIP_CHECK

Les utilisateurs IAM doivent toujours faire partie d'un groupe IAM afin de respecter les bonnes pratiques de sécurité IAM.

En ajoutant des utilisateurs à un groupe, vous pouvez partager des règles entre les types d'utilisateurs.

Recommandation: Vérifiez si les utilisateurs IAM sont membres d'au moins un groupe IAM

Pour corriger ce résultat, procédez comme suit :

Terraform

resource "aws_iam_user" "example" {
  name = "test-iam-user"
  path = "/users/dev/"
}

resource "aws_iam_group" "example" {
  name = "Developers"
  path = "/users/dev/"
}

resource "aws_iam_user_group_membership" "example" {
  user   = aws_iam_user.example.name
  groups = [aws_iam_group.example.name]
}

Console AWS

Lorsque vous utilisez la console de gestion AWS pour supprimer un utilisateur IAM, IAM supprime automatiquement les informations suivantes:

  1. L'utilisateur
  2. Les appartenances à des groupes d'utilisateurs, c'est-à-dire que l'utilisateur est supprimé de tous les groupes d'utilisateurs IAM dont il était membre
  3. Tout mot de passe associé à l'utilisateur
  4. Clés d'accès appartenant à l'utilisateur
  5. Toutes les règles intégrées à l'utilisateur (les règles appliquées à un utilisateur via les autorisations de groupe d'utilisateurs ne sont pas affectées)

Pour supprimer un utilisateur IAM:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur la page https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, sélectionnez "Utilisateurs", puis cochez la case à côté du nom d'utilisateur que vous souhaitez supprimer.
  3. En haut de la page, sélectionnez "Supprimer".
  4. Dans la boîte de dialogue de confirmation, saisissez le nom d'utilisateur dans le champ de saisie de texte pour confirmer la suppression de l'utilisateur.
  5. Sélectionnez "Supprimer".

Pour ajouter un utilisateur à un groupe d'utilisateurs IAM:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM sur la page https://console.aws.amazon.com/iam/.
  2. Dans le volet de navigation, sélectionnez "Groupes d'utilisateurs", puis le nom du groupe.
  3. Sélectionnez l'onglet "Utilisateurs", puis "Ajouter des utilisateurs". Cochez la case à côté des utilisateurs que vous souhaitez ajouter.
  4. Sélectionnez "Ajouter des utilisateurs".

CLI AWS

Contrairement à la console de gestion Amazon Web Services, lorsque vous supprimez un utilisateur par programmation, vous devez supprimer manuellement les éléments qui lui sont associés, sinon la suppression échoue.

Avant de tenter de supprimer un utilisateur, supprimez les éléments suivants:

  1. Mot de passe ( DeleteLoginProfile)
  2. Clés d'accès ( DeleteAccessKey )
  3. Certificat de signature ( DeleteSigningCertificate)
  4. Clé publique SSH ( DeleteSSHPublicKey )
  5. Identifiants Git ( DeleteServiceSpecificCredential )
  6. Appareil d'authentification multifacteur (MFA) ( DeactivateMFADevice , DeleteVirtualMFADevice )
  7. Règles intégrées ( DeleteUserPolicy )
  8. Stratégies gérées associées ( DetachUserPolicy )
  9. Adhésion aux groupes ( RemoveUserFromGroup )

Pour supprimer un utilisateur après avoir supprimé tous les éléments qui lui sont associés:

aws iam delete-user \
  --user-name "test-user"

Pour ajouter un utilisateur IAM à un groupe IAM:

aws iam add-user-to-group \
  --group-name "test-group"
  --user-name "test-user"

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Iam User Mfa Enabled

Nom de la catégorie dans l'API : IAM_USER_MFA_ENABLED

L'authentification multifacteur (MFA) est une bonne pratique qui ajoute une couche de protection supplémentaire aux noms d'utilisateur et mots de passe. Avec l'authentification multifacteur, lorsqu'un utilisateur se connecte à la console de gestion AWS, il doit fournir un code d'authentification à expiration limitée, fourni par un appareil virtuel ou physique enregistré.

Recommandation: Vérifiez que l'authentification multifacteur (MFA) est activée pour les utilisateurs AWS IAM

Pour corriger ce résultat, procédez comme suit :

Terraform

En ce qui concerne Terraform, plusieurs options s'offrent à vous pour remédier à l'absence d'appareils d'authentification MFA. Vous disposez probablement déjà d'une structure logique pour organiser vos utilisateurs en groupes et appliquer des règles restrictives.

L'exemple suivant montre comment:

  1. Créez des utilisateurs.
  2. Créez des profils de connexion utilisateur avec une clé publique PGP.
  3. Créez un groupe et une stratégie de groupe permettant de gérer le profil IAM de manière autonome.
  4. Associer des utilisateurs au groupe.
  5. Créez des appareils MFA virtuels pour les utilisateurs.
  6. Fournissez à chaque utilisateur le code QR et le mot de passe de sortie.
variable "users" {
  type = set(string)
  default = [
    "test@example.com",
    "test2@example.com"
  ]
}

resource "aws_iam_user" "test_users" {
  for_each = toset(var.users)
  name     = each.key
}

resource "aws_iam_user_login_profile" "test_users_profile" {
  for_each                = var.users
  user                    = each.key
  # Key pair created using GnuPG, this is the public key
  pgp_key = file("path/to/gpg_pub_key_base64.pem")
  password_reset_required = true
  lifecycle {
    ignore_changes = [
      password_length,
      password_reset_required,
      pgp_key,
    ]
  }
}

resource "aws_iam_virtual_mfa_device" "test_mfa" {
  for_each                = toset(var.users)
  virtual_mfa_device_name = each.key
}

resource "aws_iam_group" "enforce_mfa_group" {
  name = "EnforceMFAGroup"
}

resource "aws_iam_group_membership" "enforce_mfa_group_membership" {
  name  = "EnforceMFAGroupMembership"
  group = aws_iam_group.enforce_mfa_group.name
  users = [for k in aws_iam_user.test_users : k.name]
}

resource "aws_iam_group_policy" "enforce_mfa_policy" {
  name   = "EnforceMFAGroupPolicy"
  group  = aws_iam_group.enforce_mfa_group.id
  policy = <<POLICY
{
  "Version": "2012-10-17",
  "Statement": [
    {
        "Sid": "AllowViewAccountInfo",
        "Effect": "Allow",
        "Action": [
            "iam:GetAccountPasswordPolicy",
            "iam:ListVirtualMFADevices"
        ],
        "Resource": "*"
    },
    {
        "Sid": "AllowManageOwnPasswords",
        "Effect": "Allow",
        "Action": [
            "iam:ChangePassword",
            "iam:GetUser"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnAccessKeys",
        "Effect": "Allow",
        "Action": [
            "iam:CreateAccessKey",
            "iam:DeleteAccessKey",
            "iam:ListAccessKeys",
            "iam:UpdateAccessKey"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnSigningCertificates",
        "Effect": "Allow",
        "Action": [
            "iam:DeleteSigningCertificate",
            "iam:ListSigningCertificates",
            "iam:UpdateSigningCertificate",
            "iam:UploadSigningCertificate"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnSSHPublicKeys",
        "Effect": "Allow",
        "Action": [
            "iam:DeleteSSHPublicKey",
            "iam:GetSSHPublicKey",
            "iam:ListSSHPublicKeys",
            "iam:UpdateSSHPublicKey",
            "iam:UploadSSHPublicKey"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnGitCredentials",
        "Effect": "Allow",
        "Action": [
            "iam:CreateServiceSpecificCredential",
            "iam:DeleteServiceSpecificCredential",
            "iam:ListServiceSpecificCredentials",
            "iam:ResetServiceSpecificCredential",
            "iam:UpdateServiceSpecificCredential"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnVirtualMFADevice",
        "Effect": "Allow",
        "Action": [
            "iam:CreateVirtualMFADevice",
            "iam:DeleteVirtualMFADevice"
        ],
        "Resource": "arn:aws:iam::*:mfa/$${aws:username}"
    },
    {
        "Sid": "AllowManageOwnUserMFA",
        "Effect": "Allow",
        "Action": [
            "iam:DeactivateMFADevice",
            "iam:EnableMFADevice",
            "iam:ListMFADevices",
            "iam:ResyncMFADevice"
        ],
        "Resource": "arn:aws:iam::*:user/$${aws:username}"
    },
    {
        "Sid": "DenyAllExceptListedIfNoMFA",
        "Effect": "Deny",
        "NotAction": [
            "iam:CreateVirtualMFADevice",
            "iam:EnableMFADevice",
            "iam:GetUser",
            "iam:ListMFADevices",
            "iam:ListVirtualMFADevices",
            "iam:ResyncMFADevice",
            "sts:GetSessionToken"
        ],
        "Resource": "*",
        "Condition": {
            "BoolIfExists": {
                "aws:MultiFactorAuthPresent": "false"
            }
        }
    }
  ]
}
POLICY
}

output "user_password_map" {
  # Outputs a map in the format {"test@example.com": <PGPEncryptedPassword>, "test2@example.com": <PGPEncryptedPassword>}
  value = { for k, v in aws_iam_user_login_profile.test_users_profile : k => v.password }
}

output "user_qr_map" {
  # Outputs a map in the format {"test@example.com": <QRCode>, "test2@example.com": <QRCode>}
  value = { for k, v in aws_iam_virtual_mfa_device.test_mfa : k => v.qr_code_png }
}

Console AWS

Pour activer l'authentification multifacteur pour tous les comptes utilisateur disposant d'un accès à la console AWS, consultez Activer un appareil d'authentification multifacteur (MFA) virtuel (console) dans la documentation AWS.

CLI AWS

Créer un appareil MFA

aws iam create-virtual-mfa-device \
  --virtual-mfa-device-name "test@example.com" \
  --outfile ./QRCode.png \
  --bootstrap-method QRCodePNG

Activer l'appareil MFA pour un utilisateur existant

aws iam enable-mfa-device \
  --user-name "test@example.com" \
  --serial-number "arn:aws:iam::123456976749:mfa/test@example.com" \
  --authentication-code1 123456 \
  --authentication-code2 654321

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Iam User Unused Credentials Check

Nom de la catégorie dans l'API : IAM_USER_UNUSED_CREDENTIALS_CHECK

Cette commande recherche les mots de passe IAM ou les clés d'accès actives qui n'ont pas été utilisés au cours des 90 derniers jours.

Nous vous recommandons de supprimer, de désactiver ou d'alterner tous les identifiants inutilisés depuis au moins 90 jours. Cela réduit la période pendant laquelle les identifiants associés à un compte compromis ou abandonné peuvent être utilisés.

Recommandation: Vérifiez que tous les utilisateurs AWS IAM disposent de mots de passe ou de clés d'accès actives qui n'ont pas été utilisés depuis maxCredentialUsageAge jours (90 par défaut)

Pour corriger ce résultat, procédez comme suit :

Terraform

Pour supprimer les clés d'accès expirées créées via Terraform, supprimez la ressource aws_iam_access_key de votre module et appliquez la modification.

Pour réinitialiser le mot de passe de connexion d'un utilisateur IAM, utilisez -replace lorsque vous exécutez terraform apply.

Supposons que le profil de connexion de l'utilisateur soit le suivant :

resource "aws_iam_user" "example" {
  name          = "test@example.com"
  path          = "/users/"
  force_destroy = true
}

resource "aws_iam_user_login_profile" "example" {
  user    = aws_iam_user.example.name
  pgp_key = "keybase:some_person_that_exists"
}

Exécutez la commande suivante pour réinitialiser le mot de passe du profil de connexion de l'utilisateur.

terraform apply -replace="aws_iam_user_login_profile.example"

Console AWS

Pour désactiver les identifiants des comptes inactifs:

  1. Ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Sélectionnez "Utilisateurs".
  3. Sélectionnez le nom de l'utilisateur dont les identifiants ont plus de 90 jours/ont été utilisés pour la dernière fois.
  4. Sélectionnez "Informations d'identification de sécurité".
  5. Pour chaque identifiant de connexion et clé d'accès qui n'ont pas été utilisés depuis au moins 90 jours, sélectionnez "Désactiver".

Pour demander aux utilisateurs de la console de définir un nouveau mot de passe à la prochaine connexion:

  1. Ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Sélectionnez "Utilisateurs".
  3. Sélectionnez le nom de l'utilisateur dont les identifiants ont plus de 90 jours/ont été utilisés pour la dernière fois.
  4. Sélectionnez "Informations d'identification de sécurité".
  5. Sous "Identifiants de connexion et mot de passe de la console", sélectionnez "Gérer".
  6. Définissez un nouveau mot de passe (généré automatiquement ou personnalisé).
  7. Cochez la case "Exiger la réinitialisation du mot de passe".
  8. Sélectionnez "Appliquer".

CLI AWS

Pour désactiver des clés d'accès

aws iam update-access-key \
  --access-key-id <value> \
  --status "Inactive"

Pour supprimer des clés d'accès :

aws iam delete-access-key \
  --access-key-id <value>

Pour réinitialiser le mot de passe d'un profil de connexion utilisateur

aws iam update-login-profile \
  --user-name "test@example.com" \
  --password <temporary_password> \
  --password-reset-required

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Kms Cmk Not Scheduled For Deletion

Nom de la catégorie dans l'API : KMS_CMK_NOT_SCHEDULED_FOR_DELETION

Ce contrôle vérifie si la suppression de clés KMS est planifiée. La vérification échoue si la suppression d'une clé KMS est planifiée.

Une fois supprimées, les clés KMS ne peuvent plus être récupérées. Les données chiffrées avec une clé KMS ne peuvent pas être récupérées de manière définitive si la clé KMS est supprimée. Si des données importantes ont été chiffrées à l'aide d'une clé KMS programmée pour être supprimée, envisagez de les déchiffrer ou de les chiffrer à nouveau avec une nouvelle clé KMS, sauf si vous effectuez intentionnellement une suppression cryptographique.

Lorsqu'une clé KMS est programmée pour être supprimée, un délai d'attente obligatoire est appliqué pour vous permettre d'annuler la suppression, si elle a été programmée par erreur. La période d'attente par défaut est de 30 jours, mais elle peut être réduite à sept jours maximum lorsque la clé KMS est programmée pour être supprimée. Pendant le délai d'attente, la suppression planifiée peut être annulée et la clé KMS ne sera pas supprimée.

Pour en savoir plus sur la suppression de clés KMS, consultez la section Supprimer des clés KMS dans le guide du développeur AWS Key Management Service.

Recommandation: Vérifiez que la suppression de toutes les CMK n'est pas planifiée

Pour annuler la suppression d'une clé KMS programmée, consultez la section Annuler la suppression de clé sous Programmer et annuler la suppression de clé (console) du guide du développeur AWS Key Management Service.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Lambda Concurrency Check

Nom de la catégorie dans l'API : LAMBDA_CONCURRENCY_CHECK

Vérifie si la fonction Lambda est configurée avec une limite d'exécution simultanée au niveau de la fonction. La règle est NON_COMPLIANT si la fonction Lambda n'est pas configurée avec une limite d'exécution simultanée au niveau de la fonction.

Recommandation: Vérifiez si les fonctions Lambda sont configurées avec une limite d'exécution simultanée au niveau de la fonction

Pour configurer une limite d'exécution simultanée au niveau de la fonction, consultez Configurer la simultanéité réservée dans la documentation AWS Lambda.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Lambda Dlq Check

Nom de la catégorie dans l'API : LAMBDA_DLQ_CHECK

Vérifie si une fonction Lambda est configurée avec une file d'attente de lettres mortes. La règle est NON_CONFORME si la fonction Lambda n'est pas configurée avec une file d'attente de lettres mortes.

Recommandation: Vérifiez si les fonctions Lambda sont configurées avec une file d'attente de lettres mortes

Pour mettre à jour les fonctions Lambda afin qu'elles utilisent des files d'attente de lettres mortes, consultez Files d'attente de lettres mortes dans la documentation AWS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Lambda Function Public Access Prohibited

Nom de la catégorie dans l'API : LAMBDA_FUNCTION_PUBLIC_ACCESS_PROHIBITED

Les bonnes pratiques AWS recommandent de ne pas exposer publiquement les fonctions Lambda. Cette règle vérifie toutes les fonctions Lambda déployées dans toutes les régions activées de votre compte et échoue si elles sont configurées pour autoriser l'accès public.

Recommandation: Vérifiez si la stratégie associée à la fonction Lambda interdit l'accès public

Pour corriger ce résultat, procédez comme suit :

Terraform

L'exemple suivant montre comment utiliser Terraform pour provisionner un rôle IAM limitant l'accès à une fonction Lambda et associer ce rôle à la fonction Lambda.

resource "aws_iam_role" "iam_for_lambda" {
  name = "iam_for_lambda"

  assume_role_policy = <<EOF
{
  "Version": "2012-10-17",
  "Statement": [
    {
      "Action": "sts:AssumeRole",
      "Principal": {
        "Service": "lambda.amazonaws.com"
      },
      "Effect": "Allow",
      "Sid": ""
    }
  ]
}
EOF
}

resource "aws_lambda_function" "test_lambda" {
  filename      = "lambda_function_payload.zip"
  function_name = "lambda_function_name"
  role          = aws_iam_role.iam_for_lambda.arn
  handler       = "index.test"

  source_code_hash = filebase64sha256("lambda_function_payload.zip")

  runtime = "nodejs12.x"

}

Console AWS

Si une fonction Lambda échoue à ce contrôle, cela signifie que l'énoncé de stratégie basé sur les ressources de la fonction Lambda autorise l'accès public.

Pour résoudre le problème, vous devez mettre à jour la stratégie pour supprimer les autorisations ou ajouter la condition AWS:SourceAccount. Vous ne pouvez modifier la stratégie basée sur les ressources que depuis l'API Lambda.

Les instructions suivantes utilisent la console pour examiner la stratégie et l'interface de ligne de commande AWS pour supprimer les autorisations.

Afficher la stratégie basée sur les ressources d'une fonction Lambda

  1. Ouvrez la console AWS Lambda à l'adresse https://console.aws.amazon.com/lambda/.
  2. Dans le volet de navigation, sélectionnez "Fonctions".
  3. Choisissez la fonction.
  4. Sélectionnez "Autorisations". La stratégie basée sur les ressources indique les autorisations appliquées lorsqu'un autre compte ou service AWS tente d'accéder à la fonction.
  5. Examinez la stratégie basée sur les ressources.
  6. Identifiez l'énoncé de stratégie dont les valeurs du champ "Principal" rendent la stratégie publique. Par exemple, autoriser "*" ou { "AWS": "*" }.

Vous ne pouvez pas modifier la règle depuis la console. Pour supprimer des autorisations de la fonction, utilisez la commande remove-permission de la CLI AWS.

Notez la valeur de l'ID de l'instruction (Sid) pour l'instruction que vous souhaitez supprimer.

CLI AWS

Pour utiliser la CLI afin de supprimer des autorisations d'une fonction Lambda, exécutez la commande remove-permission comme suit.

aws lambda remove-permission \
--function-name <value> \
--statement-id <value>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Lambda Inside Vpc

Nom de la catégorie dans l'API : LAMBDA_INSIDE_VPC

Vérifie si une fonction Lambda se trouve dans un VPC. Des résultats d'échec peuvent s'afficher pour les ressources Lambda@Edge.

Il n'évalue pas la configuration de routage du sous-réseau VPC pour déterminer la connectivité publique.

Recommandation: Vérifiez si les fonctions Lambda existent dans un VPC

Pour corriger ce résultat, procédez comme suit :

Console AWS

Pour configurer une fonction pour qu'elle se connecte à des sous-réseaux privés dans un cloud privé virtuel (VPC) de votre compte:

  1. Ouvrez la console AWS Lambda à l'adresse https://console.aws.amazon.com/lambda/.
  2. Accédez à "Fonctions", puis sélectionnez votre fonction Lambda.
  3. Faites défiler la page jusqu'à "Réseau", puis sélectionnez un VPC répondant aux exigences de connectivité de la fonction.
  4. Pour exécuter vos fonctions en mode haute disponibilité, Security Hub vous recommande de choisir au moins deux sous-réseaux.
  5. Sélectionnez au moins un groupe de sécurité qui répond aux exigences de connectivité de la fonction.
  6. Sélectionnez "Enregistrer".

Pour en savoir plus, consultez la section sur la configuration d'une fonction Lambda pour accéder aux ressources d'un VPC dans le guide du développeur AWS Lambda.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Mfa Delete Enabled S3 Buckets

Nom de la catégorie dans l'API : MFA_DELETE_ENABLED_S3_BUCKETS

Une fois la suppression MFA activée sur votre bucket S3 sensible et classifié, l'utilisateur doit disposer de deux types d'authentification.

Recommandation: Assurez-vous que la suppression MFA est activée sur les buckets S3

Suivez les étapes ci-dessous pour activer la suppression MFA sur un bucket S3.

Remarque:
- Vous ne pouvez pas activer la suppression par MFA à l'aide de l'AWS Management Console. Vous devez utiliser la CLI ou l'API AWS.
- Vous devez utiliser votre compte "root" pour activer la suppression MFA sur les buckets S3.

Depuis la ligne de commande:

  1. Exécuter la commande s3api put-bucket-versioning
aws s3api put-bucket-versioning --profile my-root-profile --bucket Bucket_Name --versioning-configuration Status=Enabled,MFADelete=Enabled --mfa “arn:aws:iam::aws_account_id:mfa/root-account-mfa-device passcode”

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Mfa Enabled Root User Account

Nom de la catégorie dans l'API : MFA_ENABLED_ROOT_USER_ACCOUNT

Le compte utilisateur racine est l 'utilisateur le plus privilégié d'un compte AWS. L'authentification multifacteur (MFA, Multi-factor authentication) ajoute une couche de protection supplémentaire en plus d'un nom d'utilisateur et d'un mot de passe. Lorsque l'authentification multifacteur est activée, un utilisateur qui se connecte à un site Web AWS doit saisir son nom d'utilisateur et son mot de passe, ainsi qu'un code d'authentification provenant de son appareil MFA AWS.

Remarque:Lorsque l 'MFA virtuelle est utilisée pour les comptes racine, il est recommandé que l'appareil utilisé ne soit PAS un appareil personnel, mais plutôt un appareil mobile dédié (tablette ou téléphone) qui est géré pour être maintenu chargé et sécurisé indépendamment de tout appareil personnel individuel. ("MFA virtuel non personnel") Cela réduit les risques de perdre l'accès à la MFA en cas de perte ou de reprise de l'appareil, ou si la personne à qui appartient l'appareil n'est plus employée dans l'entreprise.

Recommandation: Assurez-vous que la MFA est activée pour le compte utilisateur "root"

Pour configurer la MFA pour le compte utilisateur "root", procédez comme suit:

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam/.

Remarque: Pour gérer les appareils d'authentification MFA pour le compte AWS racine, vous devez utiliser les identifiants de votre compte racine pour vous connecter à AWS. Vous ne pouvez pas gérer les appareils MFA pour le compte racine à l 'aide d'autres identifiants.

  1. Sélectionnez Dashboard , puis sous Security Status , développez Activate MFA dans votre compte racine.
  2. Sélectionner Activate MFA
  3. Dans l'assistant, sélectionnez l'appareil A virtual MFA, puis Next Step .
  4. IAM génère et affiche des informations de configuration pour l'appareil MFA virtuel, y compris un code QR graphique. L'illustration représente la "clé de configuration secrète" qui peut être saisie manuellement sur les appareils qui ne prennent pas en charge les codes QR.
  5. Ouvrez votre application d'authentification MFA virtuelle. (Pour obtenir la liste des applications que vous pouvez utiliser pour héberger des appareils MFA virtuels, consultez la section Applications MFA virtuelles.) Si l'application MFA virtuelle prend en charge plusieurs comptes (plusieurs appareils MFA virtuels), choisissez l'option permettant de créer un compte (un appareil MFA virtuel).
  6. Déterminez si l'application d'authentification MFA est compatible avec les codes QR, puis effectuez l'une des opérations suivantes:
  • Utilisez l'application pour scanner le code QR. Par exemple, vous pouvez choisir l'icône de l'appareil photo ou une option semblable à "Scanner le code", puis utiliser l'appareil photo de l'appareil pour scanner le code.
  • Dans l'assistant de gestion des appareils MFA, sélectionnez "Afficher la clé secrète pour la configuration manuelle", puis saisissez la clé de configuration secrète dans votre application MFA.

Lorsque vous avez terminé, l'appareil MFA virtuel commence à générer des mots de passe à usage unique.

Dans l'assistant "Gérer l'appareil MFA", dans le champ "Code d'authentification 1", saisissez le mot de passe à usage unique qui s'affiche actuellement sur l'appareil MFA virtuel. Patientez jusqu'à 30 secondes, le temps que l'appareil génère un nouveau mot de passe à usage unique. Saisissez ensuite le deuxième mot de passe à usage unique dans le champ "Code d'authentification 2". Sélectionnez "Attribuer l'authentification multifacteur virtuelle".

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Multi Factor Authentication Mfa Enabled All Iam Users Console

Nom de la catégorie dans l'API : MULTI_FACTOR_AUTHENTICATION_MFA_ENABLED_ALL_IAM_USERS_CONSOLE

L'authentification multifacteur (MFA) ajoute une couche supplémentaire d'assurance d'authentification au-delà des identifiants traditionnels. Lorsque l'authentification multifacteur est activée, un utilisateur doit saisir son nom d'utilisateur et son mot de passe, ainsi qu'un code d'authentification à partir de son jeton MFA physique ou virtuel lorsqu'il se connecte à la console AWS. Nous vous recommandons d'activer l'authentification MFA pour tous les comptes disposant d'un mot de passe de console.

Recommandation: Assurez-vous que l'authentification multifacteur (MFA) est activée pour tous les utilisateurs IAM disposant d'un mot de passe de console

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Dans le volet de gauche, sélectionnez Users.
  3. Dans la liste User Name, sélectionnez le nom de l'utilisateur du MFA prévu.
  4. Sélectionnez l'onglet Security Credentials, puis Manage MFA Device.
  5. Dans Manage MFA Device wizard, sélectionnez l'appareil Virtual MFA, puis Continue.

IAM génère et affiche des informations de configuration pour l'appareil MFA virtuel, y compris un code QR graphique. L'illustration représente la "clé de configuration secrète" qui peut être saisie manuellement sur les appareils qui ne prennent pas en charge les codes QR.

  1. Ouvrez votre application d'authentification MFA virtuelle. (Pour obtenir la liste des applications que vous pouvez utiliser pour héberger des appareils MFA virtuels, consultez la page "Applications MFA virtuelles" à l'adresse https://aws.amazon.com/iam/details/mfa/#Virtual_MFA_Applications.) Si l'application MFA virtuelle prend en charge plusieurs comptes (plusieurs appareils MFA virtuels), choisissez l'option permettant de créer un compte (un appareil MFA virtuel).
  2. Déterminez si l'application d'authentification MFA est compatible avec les codes QR, puis effectuez l'une des opérations suivantes:
  • Utilisez l'application pour scanner le code QR. Par exemple, vous pouvez choisir l'icône de l'appareil photo ou une option semblable à "Scanner le code", puis utiliser l'appareil photo de l'appareil pour scanner le code.
  • Dans l'assistant de gestion des appareils MFA, sélectionnez "Afficher la clé secrète pour la configuration manuelle", puis saisissez la clé de configuration secrète dans votre application MFA.

Lorsque vous avez terminé, l'appareil MFA virtuel commence à générer des mots de passe à usage unique.

  1. Dans Manage MFA Device wizard, dans MFA Code 1 box, saisissez le one-time password qui s'affiche actuellement dans l'appareil MFA virtuel. Patientez jusqu'à 30 secondes, le temps que l'appareil génère un nouveau mot de passe à usage unique. Saisissez ensuite le deuxième one-time password dans le MFA Code 2 box.

  2. Cliquez sur Assign MFA.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

No Network Acls Allow Ingress 0 0 0 0 Remote Server Administration

Nom de la catégorie dans l'API : NO_NETWORK_ACLS_ALLOW_INGRESS_0_0_0_0_REMOTE_SERVER_ADMINISTRATION

La fonction de liste de contrôle d'accès au réseau (NACL) fournit un filtrage sans état du trafic réseau entrant et sortant vers les ressources AWS. Il est recommandé qu'aucune LCA réseau n'autorise un accès illimité aux ports d'administration du serveur distant, tels que SSH sur le port 22 et RDP sur le port 3389, à l'aide des protocoles TDP (6), UDP (17) ou ALL (-1).

Recommandation: Assurez-vous qu'aucune LCA réseau n'autorise l'entrée depuis la plage 0.0.0.0/0 vers les ports d'administration du serveur distant

Pour corriger ce résultat, procédez comme suit :

Console AWS

Procédez comme suit:
1. Connectez-vous à la console de gestion AWS à l'adresse https://console.aws.amazon.com/vpc/home
. 2. Dans le volet de gauche, cliquez sur Network ACLs
. 3. Pour chaque LCA réseau à corriger, procédez comme suit:
- Sélectionnez la LCA réseau.
- Cliquez sur l'onglet Inbound Rules.
- Cliquez sur Edit inbound rules.
- A) Remplacez le champ "Source" par une plage autre que 0.0.0.0/0, ou B) cliquez sur Delete pour supprimer la règle entrante non conforme.
- Cliquez sur Save.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

No Root User Account Access Key Exists

Nom de la catégorie dans l'API : NO_ROOT_USER_ACCOUNT_ACCESS_KEY_EXISTS

Le compte utilisateur racine est l 'utilisateur le plus privilégié d'un compte AWS. Les clés d'accès AWS permettent d'accéder de manière programmatique à un compte AWS donné. Il est recommandé de supprimer toutes les clés d'accès associées au compte utilisateur "root".

Recommandation: Assurez-vous qu'aucune clé d'accès n'existe pour le compte utilisateur "root"

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS en tant que "root" et ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Cliquez sur <root_account> en haut à droite, puis sélectionnez My Security Credentials dans la liste déroulante.
  3. Sur l'écran pop-up, cliquez sur Continue to Security Credentials.
  4. Cliquez sur Access Keys (ID de clé d'accès et clé d'accès secrète).
  5. Dans la colonne Status (si des clés sont actives).
  6. Cliquez sur Delete (remarque: les clés supprimées ne peuvent pas être récupérées).

Remarque: Bien qu'une clé puisse être désactivée, elle apparaîtra toujours dans la commande CLI de la procédure d'audit, ce qui peut entraîner la signalisation erronée d'une clé comme non conforme.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

No Security Groups Allow Ingress 0 0 0 0 Remote Server Administration

Nom de la catégorie dans l'API : NO_SECURITY_GROUPS_ALLOW_INGRESS_0_0_0_0_REMOTE_SERVER_ADMINISTRATION

Les groupes de sécurité fournissent un filtrage avec état du trafic réseau entrant et sortant vers les ressources AWS. Il est recommandé qu'aucun groupe de sécurité n'autorise un accès d'entrée illimité aux ports d'administration du serveur distant, tels que SSH sur le port 22 et RDP sur le port 3389, à l'aide des protocoles TDP (6), UDP (17) ou ALL (-1).

Recommandation: Assurez-vous qu'aucun groupe de sécurité n'autorise le trafic d'entrée depuis la plage 0.0.0.0/0 vers les ports d'administration du serveur distant

Pour implémenter l'état prescrit, procédez comme suit:

  1. Connectez-vous à la console de gestion AWS à l'adresse https://console.aws.amazon.com/vpc/home.
  2. Dans le volet de gauche, cliquez sur Security Groups.
  3. Pour chaque groupe de sécurité, procédez comme suit:
  4. Sélectionner le groupe de sécurité
  5. Cliquez sur l'onglet Inbound Rules.
  6. Cliquez sur le bouton Edit inbound rules.
  7. Identifier les règles à modifier ou à supprimer
  8. Vous pouvez : A) définir une plage autre que 0.0.0.0/0 dans le champ "Source", ou B) cliquer sur Delete pour supprimer la règle entrante à l'origine du problème.
  9. Cliquez sur Save rules.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

No Security Groups Allow Ingress 0 Remote Server Administration

Nom de la catégorie dans l'API : NO_SECURITY_GROUPS_ALLOW_INGRESS_0_REMOTE_SERVER_ADMINISTRATION

Les groupes de sécurité fournissent un filtrage avec état du trafic réseau entrant et sortant vers les ressources AWS. Il est recommandé qu'aucun groupe de sécurité n'autorise un accès d'entrée sans restriction aux ports d'administration du serveur distant, tels que SSH sur le port 22 et RDP sur le port 3389.

Recommandation: Assurez-vous qu'aucun groupe de sécurité n'autorise le trafic d'entrée depuis la plage ::/0 vers les ports d'administration du serveur distant

Pour implémenter l'état prescrit, procédez comme suit:

  1. Connectez-vous à la console de gestion AWS à l'adresse https://console.aws.amazon.com/vpc/home.
  2. Dans le volet de gauche, cliquez sur Security Groups.
  3. Pour chaque groupe de sécurité, procédez comme suit:
  4. Sélectionner le groupe de sécurité
  5. Cliquez sur l'onglet Inbound Rules.
  6. Cliquez sur le bouton Edit inbound rules.
  7. Identifier les règles à modifier ou à supprimer
  8. A) Remplacez le champ "Source" par une plage autre que ::/0. B) Cliquez sur Delete pour supprimer la règle entrante à l'origine du problème.
  9. Cliquez sur Save rules.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

One Active Access Key Available Any Single Iam User

Nom de la catégorie dans l'API : ONE_ACTIVE_ACCESS_KEY_AVAILABLE_ANY_SINGLE_IAM_USER

Les clés d 'accès sont des identifiants à long terme pour un utilisateur IAM ou l'utilisateur racine du compte AWS. Vous pouvez utiliser des clés d'accès pour signer des requêtes programmatiques envoyées à la CLI AWS ou à l'API AWS (directement ou à l'aide du SDK AWS).

Recommandation: Assurez-vous qu'une seule clé d'accès active est disponible par utilisateur IAM

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS, puis accédez au tableau de bord IAM à l'adresse https://console.aws.amazon.com/iam/.
  2. Dans le panneau de navigation de gauche, sélectionnez Users.
  3. Cliquez sur le nom d'utilisateur IAM que vous souhaitez examiner.
  4. Sur la page de configuration des utilisateurs IAM, sélectionnez l'onglet Security Credentials.
  5. Dans la section Access Keys, choisissez une clé d'accès datant de moins de 90 jours. Il s'agit de la seule clé active utilisée par cet utilisateur IAM pour accéder de manière programmatique aux ressources AWS. Testez vos applications pour vous assurer que la clé d'accès choisie fonctionne.
  6. Dans la même section Access Keys, identifiez vos clés d'accès non opérationnelles (à l'exception de celle choisie) et désactivez-les en cliquant sur le lien Make Inactive.
  7. Si la boîte de confirmation Change Key Status s'affiche, cliquez sur Deactivate pour désactiver la clé sélectionnée.
  8. Répétez les étapes 3 à 7 pour chaque utilisateur IAM de votre compte AWS.

CLI AWS

  1. À l'aide des informations sur l'utilisateur IAM et la clé d'accès fournies dans Audit CLI, choisissez une clé d'accès datant de moins de 90 jours. Il s'agit de la seule clé active utilisée par cet utilisateur IAM pour accéder de manière programmatique aux ressources AWS. Testez vos applications pour vous assurer que la clé d'accès choisie fonctionne.

  2. Exécutez la commande update-access-key ci-dessous à l'aide du nom d'utilisateur IAM et des ID de clé d'accès non opérationnels pour désactiver la ou les clés inutiles. Consultez la section "Audit" pour identifier l'ID de clé d'accès inutile pour l'utilisateur IAM sélectionné.

Remarque : La commande ne renvoie aucune sortie :

aws iam update-access-key --access-key-id <access-key-id> --status Inactive --user-name <user-name>
  1. Pour vérifier que la paire de clés d'accès sélectionnée a bien été deactivated, exécutez à nouveau la commande d'audit list-access-keys pour cet utilisateur IAM:
aws iam list-access-keys --user-name <user-name>
  • La résultat de la commande doit exposer les métadonnées de chaque clé d'accès associée à l'utilisateur IAM. Si la ou les paires de clés non opérationnelles Status sont définies sur Inactive, la clé a bien été désactivée et la configuration de l'accès des utilisateurs IAM respecte désormais cette recommandation.
  1. Répétez les étapes 1 à 3 pour chaque utilisateur IAM de votre compte AWS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Public Access Given Rds Instance

Nom de la catégorie dans l'API : PUBLIC_ACCESS_GIVEN_RDS_INSTANCE

Assurez-vous que les instances de base de données RDS provisionnées dans votre compte AWS limitent les accès non autorisés afin de minimiser les risques de sécurité. Pour limiter l'accès à une instance de base de données RDS accessible au public, vous devez désactiver l'indicateur "Accessible au public" de la base de données et mettre à jour le groupe de sécurité VPC associé à l'instance.

Recommandation: Assurez-vous qu'aucun accès public n'est accordé pour l'instance RDS

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS, puis accédez au tableau de bord RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Sous le panneau de navigation, dans le tableau de bord RDS, cliquez sur Databases.
  3. Sélectionnez l'instance RDS que vous souhaitez mettre à jour.
  4. Cliquez sur Modify dans le menu supérieur du tableau de bord.
  5. Dans le panneau "Modifier l'instance de base de données", sous la section Connectivity, cliquez sur Additional connectivity configuration et définissez la valeur de Publicly Accessible sur "Non accessible au public" pour limiter l'accès public. Pour mettre à jour les configurations de sous-réseau, procédez comme suit:
    - Sélectionnez l'onglet Connectivity and security, puis cliquez sur la valeur de l'attribut VPC dans la section Networking.
    - Sélectionnez l'onglet Details dans le panneau inférieur du tableau de bord VPC, puis cliquez sur la valeur de l'attribut de configuration de la table de routage.
    - Sur la page d'informations de la table "Routes", sélectionnez l'onglet "Routes" dans le panneau inférieur du tableau de bord, puis cliquez sur Edit routes.
    - Sur la page "Modifier les routes", modifiez la destination de la cible, qui est définie sur igw-xxxxx, puis cliquez sur les routes Save.
  6. Dans le panneau "Modifier l'instance de base de données", cliquez sur Continue. Dans la section "Planification des modifications", effectuez l'une des actions suivantes en fonction de vos besoins:
    - Sélectionnez "Appliquer lors de la prochaine fenêtre de maintenance planifiée" pour appliquer automatiquement les modifications lors de la prochaine fenêtre de maintenance planifiée.
    - Sélectionnez "Appliquer immédiatement" pour appliquer les modifications immédiatement. Avec cette option, toutes les modifications en attente sont appliquées de manière asynchrone dès que possible, quel que soit le paramètre d'intervalle de maintenance de cette instance de base de données RDS. Notez que toutes les modifications disponibles dans la file d'attente des modifications en attente sont également appliquées. Si l'une des modifications en attente nécessite un temps d'arrêt, choisir cette option peut entraîner un temps d'arrêt inattendu de l'application.
  7. Répétez les étapes 3 à 6 pour chaque instance RDS disponible dans la région actuelle.
  8. Modifiez la région AWS dans la barre de navigation pour répéter le processus pour d'autres régions.

CLI AWS

  1. Exécutez la commande describe-db-instances pour lister tous les identifiants de noms de bases de données RDS disponibles dans la région AWS sélectionnée:
aws rds describe-db-instances --region <region-name> --query 'DBInstances[*].DBInstanceIdentifier'
  1. La résultat de la commande doit renvoyer chaque identifiant d'instance de base de données.
  2. Exécutez la commande modify-db-instance pour modifier la configuration de l'instance RDS sélectionnée. Utilisez ensuite la commande suivante pour désactiver l'indicateur Publicly Accessible pour les instances RDS sélectionnées. Cette commande utilise l'option apply-immediately. Si vous souhaitez to avoid any downtime --no-apply-immediately flag can be used:
aws rds modify-db-instance --region <region-name> --db-instance-identifier <db-name> --no-publicly-accessible --apply-immediately
  1. La résultat de la commande doit afficher la configuration PubliclyAccessible sous les valeurs en attente et doit être appliquée à l'heure spécifiée.
  2. La modification de la destination de la passerelle Internet via la CLI AWS n'est actuellement pas possible. Pour modifier des informations sur la passerelle Internet, utilisez la procédure de la console AWS.
  3. Répétez les étapes 1 à 5 pour chaque instance RDS provisionnée dans la région actuelle.
  4. Modifiez la région AWS à l'aide du filtre --region pour répéter le processus pour d'autres régions.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Rds Enhanced Monitoring Enabled

Nom de la catégorie dans l'API : RDS_ENHANCED_MONITORING_ENABLED

La surveillance avancée fournit des métriques en temps réel sur le système d'exploitation sur lequel s'exécute l'instance RDS, via un agent installé dans l'instance.

Pour en savoir plus, consultez Surveiller les métriques de l'OS avec la surveillance avancée.

Recommandation: Vérifiez que la surveillance avancée est activée pour toutes les instances de base de données RDS

Pour corriger ce résultat, procédez comme suit :

Terraform

Pour résoudre ce problème, activez la surveillance avancée sur vos instances RDS comme suit:

Créez un rôle IAM pour RDS:

resource "aws_iam_role" "rds_logging" {
  name = "CustomRoleForRDSMonitoring"
  assume_role_policy = jsonencode({
    Version = "2012-10-17"
    Statement = [
      {
        Action = "sts:AssumeRole"
        Effect = "Allow"
        Sid    = "CustomRoleForRDSLogging"
        Principal = {
          Service = "monitoring.rds.amazonaws.com"
        }
      },
    ]
  })
}

Récupérez la stratégie gérée AWS pour la surveillance RDS avancée:

data "aws_iam_policy" "rds_logging" {
  name = "AmazonRDSEnhancedMonitoringRole"
}

Associez la stratégie au rôle:

resource "aws_iam_policy_attachment" "rds_logging" {
  name       = "AttachRdsLogging"
  roles      = [aws_iam_role.rds_logging.name]
  policy_arn = data.aws_iam_policy.rds_logging.arn
}

Définissez un intervalle de surveillance et un ARN de rôle de surveillance pour l'instance RDS non conforme afin d'activer la surveillance avancée:

resource "aws_db_instance" "default" {
  identifier           = "test-rds"
  allocated_storage    = 10
  engine               = "mysql"
  engine_version       = "5.7"
  instance_class       = "db.t3.micro"
  db_name              = "mydb"
  username             = "foo"
  password             = "foobarbaz"
  parameter_group_name = "default.mysql5.7"
  skip_final_snapshot  = true
  monitoring_interval  = 60
  monitoring_role_arn  = aws_iam_role.rds_logging.arn
}

Console AWS

Vous pouvez activer la surveillance améliorée lorsque vous créez une instance de base de données, un cluster de base de données multi-AZ ou un réplica de lecture, ou lorsque vous modifiez une instance de base de données ou un cluster de base de données multi-AZ. Si vous modifiez une instance de base de données pour activer la surveillance avancée, vous n'avez pas besoin de redémarrer l'instance pour que la modification prenne effet.

Vous pouvez activer la surveillance avancée dans la console RDS lorsque vous effectuez l'une des actions suivantes sur la page "Bases de données" :

  • Créer une instance de base de données ou un cluster de base de données multi-AZ : sélectionnez "Créer une base de données".
  • Créer une instance dupliquée avec accès en lecture : sélectionnez "Actions", puis "Créer une instance dupliquée avec accès en lecture".
  • Modifier une instance de base de données ou un cluster de base de données multi-AZ : sélectionnez "Modifier".

Activer ou désactiver la surveillance avancée dans la console RDS

  1. Faites défiler la page jusqu'à "Configuration supplémentaire".
  2. Dans "Surveillance", sélectionnez "Activer la surveillance avancée" pour votre instance de base de données ou votre réplication avec accès en lecture. Pour désactiver la surveillance améliorée, sélectionnez "Désactiver la surveillance améliorée".
  3. Définissez la propriété "Rôle de surveillance" sur le rôle IAM que vous avez créé pour autoriser Amazon RDS à communiquer avec Amazon CloudWatch Logs à votre place, ou sélectionnez "Par défaut" pour que RDS crée un rôle nommé "rds-monitoring-role".
  4. Définissez la propriété "Granularité" sur l'intervalle, en secondes, entre les points lorsque les métriques sont collectées pour votre instance de base de données ou votre réplica de lecture. La propriété "Granularité" peut être définie sur l'une des valeurs suivantes: 1, 5, 10, 15, 30 ou 60. La console RDS s'actualise toutes les cinq secondes. Si vous définissez la granularité sur 1 seconde dans la console RDS, les métriques ne sont toujours mises à jour que toutes les 5 secondes. Vous pouvez récupérer des mises à jour de métriques toutes les secondes à l'aide des journaux CloudWatch.

CLI AWS

Créez le rôle IAM RDS:

aws iam create-role \
  --role-name "CustomRoleForRDSMonitoring" \
  --assume-role-policy-document file://rds-assume-role.json

Associez la stratégie AmazonRDSEnhancedMonitoringRole au rôle:

aws iam attach-role-policy \
  --role-name "CustomRoleForRDSMonitoring"\
  --policy-arn "arn:aws:iam::aws:policy/service-role/AmazonRDSEnhancedMonitoringRole"

Modifiez l'instance RDS pour activer la surveillance avancée en définissant --monitoring-interval et --monitoring-role-arn:

aws rds modify-db-instance \
  --db-instance-identifier "test-rds" \
  --monitoring-interval 30 \
  --monitoring-role-arn "arn:aws:iam::<account_id>:role/CustomRoleForRDSMonitoring"

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Rds Instance Deletion Protection Enabled

Nom de la catégorie dans l'API : RDS_INSTANCE_DELETION_PROTECTION_ENABLED

L'activation de la protection contre la suppression d'instances constitue une couche de protection supplémentaire contre la suppression accidentelle de bases de données ou la suppression par une entité non autorisée.

Tant que la protection contre la suppression est activée, vous ne pouvez pas supprimer une instance de base de données RDS. Avant qu'une demande de suppression puisse aboutir, la protection contre la suppression doit être désactivée.

Recommandation: Vérifiez que la protection contre la suppression est activée pour toutes les instances RDS

Pour corriger ce résultat, procédez comme suit :

Terraform

Pour corriger ce contrôle, définissez deletion_protection sur true dans la ressource aws_db_instance.

resource "aws_db_instance" "example" {
  # ... other configuration ...
  deletion_protection = true
}

Console AWS

Pour activer la protection contre la suppression pour une instance de base de données RDS

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Bases de données", puis l'instance de base de données que vous souhaitez modifier.
  3. Sélectionnez "Modifier".
  4. Sous "Protection contre la suppression", sélectionnez "Activer la protection contre la suppression".
  5. Sélectionnez "Continuer".
  6. Sous "Planification des modifications", choisissez quand appliquer les modifications. Les options disponibles sont "Appliquer lors du prochain intervalle de maintenance planifié" ou "Appliquer immédiatement".
  7. Sélectionnez "Modifier une instance de base de données".

CLI AWS

Il en va de même pour la CLI AWS. Définissez --deletion-protection comme indiqué ci-dessous.

aws rds modify-db-instance \
  --db-instance-identifier = "test-rds" \
  --deletion-protection

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Rds In Backup Plan

Nom de la catégorie dans l'API : RDS_IN_BACKUP_PLAN

Cette vérification évalue si les instances de base de données Amazon RDS sont couvertes par un plan de sauvegarde. Cette vérification échoue si une instance de base de données RDS n'est pas couverte par un plan de sauvegarde.

AWS Backup est un service de sauvegarde entièrement géré qui centralise et automatise la sauvegarde des données dans les services AWS. Avec AWS Backup, vous pouvez créer des règles de sauvegarde appelées plans de sauvegarde. Vous pouvez utiliser ces plans pour définir vos exigences de sauvegarde, telles que la fréquence de sauvegarde de vos données et la durée de conservation de ces sauvegardes. Inclure des instances de base de données RDS dans un plan de sauvegarde vous permet de protéger vos données contre la perte ou la suppression accidentelle.

Recommandation: Les instances de base de données RDS doivent être couvertes par un plan de sauvegarde

Pour corriger ce résultat, procédez comme suit :

Terraform

Pour corriger ce contrôle, définissez backup_retention_period sur une valeur supérieure à 7 dans la ressource aws_db_instance.

resource "aws_db_instance" "example" {
  # ... other Configuration ...
  backup_retention_period = 7
}

Console AWS

Pour activer immédiatement les sauvegardes automatiques

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Bases de données", puis l'instance de base de données que vous souhaitez modifier.
  3. Sélectionnez "Modifier" pour ouvrir la page "Modifier l'instance de base de données".
  4. Sous "Durée de conservation des sauvegardes", choisissez une valeur positive non nulle, par exemple 30 jours, puis cliquez sur "Continuer".
  5. Sélectionnez la section "Planification des modifications", puis indiquez quand appliquer les modifications: vous pouvez choisir de les appliquer pendant le prochain intervalle de maintenance planifié ou immédiatement.
  6. Sur la page de confirmation, sélectionnez "Modifier l'instance de base de données" pour enregistrer vos modifications et activer les sauvegardes automatiques.

CLI AWS

Il en va de même pour la CLI AWS. Pour activer les sauvegardes automatiques, définissez backup-retention-period sur une valeur supérieure à 0 (valeur par défaut).

aws rds modify-db-instance --db-instance-identifier "test-rds" --backup-retention-period 7

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Rds Logging Enabled

Nom de la catégorie dans l'API : RDS_LOGGING_ENABLED

Cette commande vérifie si les journaux suivants d'Amazon RDS sont activés et envoyés à CloudWatch.

Les journaux pertinents doivent être activés pour les bases de données RDS. La journalisation de la base de données fournit des enregistrements détaillés des requêtes envoyées à RDS. Les journaux de base de données peuvent vous aider à effectuer des audits de sécurité et d'accès, et à diagnostiquer les problèmes de disponibilité.

Recommandation: Vérifiez que l'exportation des journaux est activée pour toutes les instances de base de données RDS

Pour corriger ce résultat, procédez comme suit :

Terraform

resource "aws_db_instance" "example" {
  # ... other configuration for MySQL ...
  enabled_cloudwatch_logs_exports = ["audit", "error", "general", "slowquery"]
  parameter_group_name            = aws_db_parameter_group.example.name
}

resource "aws_db_parameter_group" "example" {
  name   = "${aws_db_instance.example.dbInstanceIdentifier}-parameter-group"
  family = "mysql5.7"

  parameter {
    name  = "general_log"
    value = 1
  }

  parameter {
    name  = "slow_query_log"
    value = 1
  }

  parameter {
    name  = "log_output"
    value = "FILE"
  }
}

Pour MariaDB, créez également un groupe d'options personnalisées et définissez option_group_name dans la ressource aws_db_instance.

resource "aws_db_instance" "example" {
  # ... other configuration for MariaDB ...
  enabled_cloudwatch_logs_exports = ["audit", "error", "general", "slowquery"]
  parameter_group_name            = aws_db_parameter_group.example.name
  option_group_name               = aws_db_option_group.example.name
}

resource "aws_db_option_group" "example" {
  name                     = "mariadb-option-group-for-logs"
  option_group_description = "MariaDB Option Group for Logs"
  engine_name              = "mariadb"
  option {
    option_name = "MARIADB_AUDIT_PLUGIN"
    option_settings {
      name  = "SERVER_AUDIT_EVENTS"
      value = "CONNECT,QUERY,TABLE,QUERY_DDL,QUERY_DML,QUERY_DCL"
    }
  }
}

Console AWS

Pour créer un groupe de paramètres de base de données personnalisé

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Groupes de paramètres".
  3. Sélectionnez "Créer un groupe de paramètres".
  4. Dans la liste "Famille de groupes de paramètres", choisissez une famille de groupes de paramètres de base de données.
  5. Dans la liste "Type", sélectionnez "Groupe de paramètres de base de données".
  6. Dans "Nom du groupe", saisissez le nom du nouveau groupe de paramètres de base de données.
  7. Dans "Description", saisissez une description du nouveau groupe de paramètres de base de données.
  8. Choisissez "Créer".

Créer un groupe d'options pour la journalisation MariaDB à l'aide de la console

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Groupes d'options".
  3. Sélectionnez "Créer un groupe".
  4. Dans la fenêtre "Créer un groupe d'options", indiquez les éléments suivants:
    * Nom: doit être unique dans votre compte AWS. Lettres, chiffres et traits d'union uniquement.
    * Description: Utilisé uniquement à des fins d'affichage.
    * Moteur: sélectionnez votre moteur de base de données.
    * Version majeure du moteur: sélectionnez la version majeure de votre moteur de base de données.
  5. Choisissez "Créer".
  6. Choisissez le nom du groupe d'options que vous venez de créer.
  7. Sélectionnez l'option "Ajouter".
  8. Sélectionnez MARIADB_AUDIT_PLUGIN dans la liste "Nom de l'option".
  9. Définissez SERVER_AUDIT_EVENTS sur CONNECT, QUERY, TABLE, QUERY_DDL, QUERY_DML et QUERY_DCL.
  10. Sélectionnez l'option "Ajouter".

Publier des journaux de base de données SQL Server, Oracle ou PostgreSQL dans CloudWatch Logs à partir de la console de gestion AWS

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Bases de données".
  3. Choisissez l'instance de base de données que vous souhaitez modifier.
  4. Sélectionnez "Modifier".
  5. Sous "Exportations de journaux", sélectionnez tous les fichiers journaux à commencer à publier dans CloudWatch Logs.
  6. Les exportations de journaux ne sont disponibles que pour les versions de moteur de base de données compatibles avec la publication dans CloudWatch Logs.
  7. Sélectionnez "Continuer". Sur la page de résumé, sélectionnez "Modifier l'instance de base de données".

Appliquer un nouveau groupe de paramètres de base de données ou un groupe d'options de base de données à une instance de base de données RDS

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Bases de données".
  3. Choisissez l'instance de base de données que vous souhaitez modifier.
  4. Sélectionnez "Modifier".
  5. Sous "Options de base de données", modifiez le groupe de paramètres de base de données et le groupe d'options de base de données si nécessaire.
  6. Lorsque vous avez terminé, sélectionnez "Continuer". Vérifiez le résumé des modifications.
  7. Sélectionnez "Modifier l'instance de base de données" pour enregistrer vos modifications.

CLI AWS

Récupérez les familles de moteurs et choisissez celle qui correspond au moteur et à la version de l'instance de base de données.

aws rds describe-db-engine-versions \
  --query "DBEngineVersions[].DBParameterGroupFamily" \
  --engine "mysql"

Créez un groupe de paramètres en fonction du moteur et de la version.

aws rds create-db-parameter-group \
  --db-parameter-group-name "rds-mysql-parameter-group" \
  --db-parameter-group-family "mysql5.7" \
  --description "Example parameter group for logs"

Créez un fichier rds-parameters.json contenant les paramètres nécessaires en fonction du moteur de base de données. Cet exemple utilise MySQL 5.7.

[
  {
    "ParameterName": "general_log",
    "ParameterValue": "1",
    "ApplyMethod": "immediate"
  },
  {
    "ParameterName": "slow_query_log",
    "ParameterValue": "1",
    "ApplyMethod": "immediate"
  },
  {
    "ParameterName": "log_output",
    "ParameterValue": "FILE",
    "ApplyMethod": "immediate"
  }
]

Modifiez le groupe de paramètres pour ajouter les paramètres en fonction du moteur de base de données. Cet exemple utilise MySQL 5.7.

aws rds modify-db-parameter-group \
  --db-parameter-group-name "rds-mysql-parameter-group" \
  --parameters file://rds-parameters.json

Modifiez l'instance de base de données pour associer le groupe de paramètres.

aws rds modify-db-instance \
  --db-instance-identifier "test-rds" \
  --db-parameter-group-name "rds-mysql-parameter-group"

Pour MariaDB, créez également un groupe d'options comme suit.

aws rds create-option-group \
  --option-group-name "rds-mariadb-option-group" \
  --engine-name "mariadb" \
  --major-engine-version "10.6" \
  --option-group-description "Option group for MariaDB logs"

Créez un fichier rds-mariadb-options.json comme suit.

{
  "OptionName": "MARIADB_AUDIT_PLUGIN",
  "OptionSettings": [
    {
      "Name": "SERVER_AUDIT_EVENTS",
      "Value": "CONNECT,QUERY,TABLE,QUERY_DDL,QUERY_DML,QUERY_DCL"
    }
  ]
}

Ajoutez l'option au groupe d'options.

aws rds add-option-to-option-group \
  --option-group-name "rds-mariadb-option-group" \
  --options file://rds-mariadb-options.json

Associez le groupe d'options à l'instance de base de données en modifiant l'instance MariaDB.

aws rds modify-db-instance \
  --db-instance-identifier "rds-test-mariadb" \
  --option-group-name "rds-mariadb-option-group"

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Rds Multi Az Support

Nom de la catégorie dans l'API : RDS_MULTI_AZ_SUPPORT

Les instances de base de données RDS doivent être configurées pour plusieurs zones de disponibilité (AZ). Cela garantit la disponibilité des données stockées. Les déploiements multizones permettent un basculement automatique en cas de problème de disponibilité de la zone de disponibilité et lors de la maintenance régulière de RDS.

Recommandation: Vérifiez que la haute disponibilité est activée pour toutes les instances de base de données RDS

Pour corriger ce résultat, procédez comme suit :

Terraform

Pour corriger ce contrôle, définissez multi_az sur "true" dans la ressource aws_db_instance.

resource "aws_db_instance" "example" {
  # ... other configuration ...
  multi_az                = true
}

Console AWS

Activer plusieurs zones de disponibilité pour une instance de base de données

  1. Ouvrez la console Amazon RDS à l'adresse https://console.aws.amazon.com/rds/.
  2. Dans le volet de navigation, sélectionnez "Bases de données", puis l'instance de base de données que vous souhaitez modifier.
  3. Sélectionnez "Modifier". La page "Modifier l'instance de base de données" s'affiche.
  4. Sous "Spécifications de l'instance", définissez "Déploiement multi-AZ" sur "Oui".
  5. Sélectionnez "Continuer", puis vérifiez le récapitulatif des modifications.
  6. (Facultatif) Sélectionnez "Appliquer immédiatement" pour appliquer les modifications immédiatement. Dans certains cas, cette option peut entraîner une panne. Pour en savoir plus, consultez la section "Utiliser le paramètre "Appliquer immédiatement" dans le guide de l'utilisateur Amazon RDS.
  7. Sur la page de confirmation, examinez les modifications. Si elles sont correctes, sélectionnez "Modifier l'instance de base de données" pour enregistrer vos modifications.

CLI AWS

Il en va de même pour la CLI AWS. Activez la compatibilité avec plusieurs zones de disponibilité en fournissant l'option --multi-az.

modify-db-instance
  --db-instance-identifier "test-rds" \
  --multi-az

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Redshift Cluster Configuration Check

Nom de la catégorie dans l'API : REDSHIFT_CLUSTER_CONFIGURATION_CHECK

Cette vérification permet de vérifier les éléments essentiels d'un cluster Redshift: le chiffrement au repos, la journalisation et le type de nœud.

Ces éléments de configuration sont importants pour la maintenance d'un cluster Redshift sécurisé et observable.

Recommandation: Vérifiez que tous les clusters Redshift disposent d'un chiffrement au repos, d'une journalisation et d'un type de nœud.

Pour corriger ce résultat, procédez comme suit :

Terraform

resource "aws_kms_key" "redshift_encryption" {
  description         = "Used for Redshift encryption configuration"
  enable_key_rotation = true
}

resource "aws_redshift_cluster" "example" {
  # ... other configuration ...
  encrypted                           = true
  kms_key_id                          = aws_kms_key.redshift_encryption.id
  logging {
    enable               = true
    log_destination_type = "cloudwatch"
    log_exports          = ["connectionlog", "userlog", "useractivitylog"]
  }
}

Console AWS

Pour activer la journalisation d'audit du cluster

  1. Ouvrez la console Amazon Redshift à l'adresse https://console.aws.amazon.com/redshift/.
  2. Dans le menu de navigation, sélectionnez "Clusters", puis le nom du cluster à modifier.
  3. Sélectionnez "Propriétés".
  4. Sélectionnez "Modifier", puis "Modifier la journalisation des audits".
  5. Définissez "Configurer la journalisation d'audit" sur "Activer", "Type d'exportation des journaux" sur "CloudWatch (recommandé)" et choisissez les journaux à exporter.

Pour utiliser AWS S3 afin de gérer les journaux d'audit Redshift, consultez Redshift - Database audit logging (Redshift : journalisation d'audit de la base de données) dans la documentation AWS.

  1. Sélectionnez "Enregistrer les modifications".

Modifier le chiffrement de la base de données sur un cluster

  1. Connectez-vous à la console de gestion AWS et ouvrez la console Amazon Redshift à l'adresse https://console.aws.amazon.com/redshift/.
  2. Dans le menu de navigation, sélectionnez "Clusters", puis le cluster pour lequel vous souhaitez modifier le chiffrement.
  3. Sélectionnez "Propriétés".
  4. Sélectionnez "Modifier", puis "Modifier le chiffrement".
  5. Choisissez le chiffrement à utiliser (KMS ou HSM) et fournissez les informations suivantes:
  • Pour KMS: clé à utiliser
  • Pour le HSM: connexion et certificat client

CLI AWS

  1. Créer une clé KMS et récupérer l'ID de clé
aws kms create-key \
  --description "Key to encrypt Redshift Clusters"
  1. Modifier le cluster
aws redshift modify-cluster \
  --cluster-identifiers "test-redshift-cluster" \
  --encrypted \
  --kms-key-id <value>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Redshift Cluster Maintenancesettings Check

Nom de la catégorie dans l'API : REDSHIFT_CLUSTER_MAINTENANCESETTINGS_CHECK

Les mises à niveau automatiques vers une version majeure se produisent selon l'intervalle de maintenance.

Recommandation: Vérifiez que allowVersionUpgrade est activé et que preferredMaintenanceWindow et automatedSnapshotRetentionPeriod sont définis pour tous les clusters Redshift

Pour corriger ce résultat, procédez comme suit :

Terraform

Cette vérification est conforme à toutes les valeurs par défaut fournies par Terraform. En cas de défaillance d'un cluster Redshift, examinez les exigences et supprimez les forçages par défaut pour les attributs suivants de la ressource aws_redshift_cluster.

resource "aws_redshift_cluster" "example" {

  # ...other configuration ...

  # The following values are compliant and set by default if omitted.
  allow_version_upgrade               = true
  preferred_maintenance_window        = "sat:10:00-sat:10:30"
  automated_snapshot_retention_period = 1
}

Console AWS

Lorsque vous créez un cluster Redshift via la console AWS, les valeurs par défaut sont déjà conformes à ce contrôle.

Pour en savoir plus, consultez Gérer des clusters à l'aide de la console.

CLI AWS

Pour corriger ce contrôle à l'aide de l'AWS CLI, procédez comme suit:

aws redshift modify-cluster \
  --cluster-identifier "test-redshift-cluster" \
  --allow-version-upgrade

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Redshift Cluster Public Access Check

Nom de la catégorie dans l'API : REDSHIFT_CLUSTER_PUBLIC_ACCESS_CHECK

L'attribut "PubliclyAccessible" de la configuration du cluster Amazon Redshift indique si le cluster est accessible au public. Lorsque le cluster est configuré avec PubliclyAccessible défini sur "true", il s'agit d'une instance exposée sur Internet qui possède un nom DNS public qui se résout en adresse IP publique.

Lorsqu'il n'est pas accessible au public, il s'agit d'une instance interne avec un nom DNS qui se résout en adresse IP privée. Sauf si vous souhaitez que votre cluster soit accessible au public, vous ne devez pas le configurer avec PubliclyAccessible défini sur "true".

Recommandation: Vérifiez si les clusters Redshift sont accessibles au public

Pour corriger ce résultat, procédez comme suit :

Terraform

Pour corriger ce contrôle, vous devez modifier la ressource de cluster Redshift et définir publicly_accessible sur false. La valeur par défaut est true.

resource "aws_redshift_cluster" "example" {
  # ... other configuration ...
  publicly_accessible = false
}

Console AWS

Désactiver l'accès public à un cluster Amazon Redshift

  1. Ouvrez la console Amazon Redshift à l'adresse https://console.aws.amazon.com/redshift/.
  2. Dans le menu de navigation, sélectionnez "Clusters", puis le nom du cluster contenant le groupe de sécurité à modifier.
  3. Sélectionnez "Actions", puis "Modifier le paramètre d'accessibilité au public".
  4. Sous "Autoriser les instances et les appareils situés en dehors du VPC à se connecter à votre base de données via le point de terminaison du cluster", sélectionnez "Non".
  5. Sélectionnez "Confirmer".

CLI AWS

Utilisez la commande modify-cluster pour définir --no-publicly-accessible.

aws redshift modify-cluster \
  --cluster-identifier "test-redshift-cluster" \
  --no-publicly-accessible

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Restricted Common Ports

Nom de la catégorie dans l'API : RESTRICTED_COMMON_PORTS

Cette opération vérifie si le trafic entrant illimité des groupes de sécurité est accessible aux ports spécifiés présentant le risque le plus élevé. Cette vérification échoue si l'une des règles d'un groupe de sécurité autorise le trafic d'entrée depuis '0.0.0.0/0' ou '::/0' pour ces ports.

L'accès illimité (0.0.0.0/0) augmente les possibilités d'activités malveillantes, telles que le piratage, les attaques par déni de service et la perte de données.

Les groupes de sécurité fournissent un filtrage avec état du trafic réseau entrant et sortant vers les ressources AWS. Aucun groupe de sécurité ne doit autoriser un accès illimité aux ports suivants:

  • 20, 21 (FTP)
  • 22 (SSH)
  • 23 (Telnet)
  • 25 (SMTP)
  • 110 (POP3)
  • 135 (RPC)
  • 143 (IMAP)
  • 445 (CIFS)
  • 1433, 1434 (MSSQL)
  • 3 000 (frameworks de développement Web Go, Node.js et Ruby)
  • 3306 (MySQL)
  • 3389 (RDP)
  • 4333 (ahsp)
  • 5 000 (frameworks de développement Web Python)
  • 5432 (postgresql)
  • 5500 (fcp-addr-srvr1)
  • 5601 (tableaux de bord OpenSearch)
  • 8080 (proxy)
  • 8088 (ancien port HTTP)
  • 8888 (port HTTP alternatif)
  • 9200 ou 9300 (OpenSearch)
Recommandation: Les groupes de sécurité ne doivent pas autoriser un accès illimité aux ports à haut risque

Pour corriger ce résultat, procédez comme suit :

Console AWS

Pour supprimer une règle de groupe de sécurité:

  1. Ouvrez la console Amazon EC2 à l'adresse https://console.aws.amazon.com/ec2/.
  2. Dans le volet de navigation, sélectionnez "Groupes de sécurité".
  3. Sélectionnez le groupe de sécurité à mettre à jour, choisissez "Actions", puis "Modifier les règles entrantes" pour supprimer une règle entrante ou "Modifier les règles sortantes" pour supprimer une règle sortante.
  4. Cliquez sur le bouton "Supprimer" à droite de la règle à supprimer.
  5. Sélectionnez "Prévisualiser les modifications", puis "Confirmer".

Pour savoir comment supprimer des règles d'un groupe de sécurité, consultez la section Configurer les règles d'un groupe de sécurité dans le guide de l'utilisateur Amazon EC2.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Restricted Ssh

Nom de la catégorie dans l'API : RESTRICTED_SSH

Les groupes de sécurité fournissent un filtrage avec état du trafic réseau entrant et sortant vers les ressources AWS.

Le CIS recommande qu'aucun groupe de sécurité n'autorise un accès illimité au port 22. En supprimant la connectivité illimitée aux services de console à distance, tels que SSH, vous réduisez l'exposition d'un serveur aux risques.

Recommandation: Les groupes de sécurité ne doivent pas autoriser le trafic d'entrée de 0.0.0.0/0 vers le port 22

Pour corriger ce résultat, procédez comme suit :

Console AWS

Suivez les étapes ci-dessous pour chaque groupe de sécurité associé à un VPC.

Ouvrez la console Amazon VPC à l'adresse https://console.aws.amazon.com/vpc/.

  1. Dans le volet de gauche, sélectionnez Security groups (Groupes de sécurité).
  2. Sélectionnez un groupe de sécurité.
  3. Dans la section inférieure de la page, sélectionnez l'onglet Règles de trafic entrant.
  4. Sélectionnez Modifier les règles.
  5. Identifiez la règle qui autorise l'accès via le port 22, puis sélectionnez le X pour la supprimer.
  6. Sélectionnez Enregistrer les règles.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Rotation Customer Created Cmks Enabled

Nom de la catégorie dans l'API : ROTATION_CUSTOMER_CREATED_CMKS_ENABLED

Vérifie si la rotation automatique des clés est activée pour chaque clé et si elle correspond à l'ID de clé de la clé AWS KMS créée par le client. La règle est NON_CONFORME si le rôle d'enregistreur AWS Config d'une ressource ne dispose pas de l'autorisation kms:DescribeKey.

Recommandation: Assurez-vous que la rotation des CMK créées par le client est activée

Pour activer la rotation automatique des clés pour AWS KMS, consultez la section Effectuer une rotation des clés AWS KMS dans la documentation AWS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Rotation Customer Created Symmetric Cmks Enabled

Nom de la catégorie dans l'API : ROTATION_CUSTOMER_CREATED_SYMMETRIC_CMKS_ENABLED

AWS Key Management Service (KMS) permet aux clients de faire pivoter la clé de sauvegarde, qui est un matériel de clé stocké dans le KMS et associé à l'ID de clé de la clé principale du client (CMK, Customer Master Key) créée par le client. C'est la clé de sauvegarde qui est utilisée pour effectuer des opérations cryptographiques telles que le chiffrement et le déchiffrement. La rotation automatique des clés conserve actuellement toutes les clés de sauvegarde précédentes afin que le déchiffrement des données chiffrées puisse se faire de manière transparente. Il est recommandé d'activer la rotation des clés CMK pour les clés symétriques. La rotation des clés ne peut pas être activée pour une CMK asymétrique.

Recommandation: Assurez-vous que la rotation des CMK symétriques créées par le client est activée

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS et ouvrez la console IAM à l'adresse https://console.aws.amazon.com/iam.
  2. Dans le volet de navigation de gauche, sélectionnez Customer managed keys .
  3. Sélectionnez une CMK gérée par le client où Key spec = SYMMETRIC_DEFAULT
  4. Sous le panneau "Configuration générale", ouvrez l'onglet "Rotation des clés".
  5. Cochez la case "Rotation automatique de cette clé KMS chaque année".

CLI AWS

  1. Exécutez la commande suivante pour activer la rotation des clés:
 aws kms enable-key-rotation --key-id <kms_key_id>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Routing Tables Vpc Peering Are Least Access

Nom de la catégorie dans l'API : ROUTING_TABLES_VPC_PEERING_ARE_LEAST_ACCESS

Vérifie si les tables de routage pour l'appairage de VPC sont configurées avec le principe d'accès limité.

Recommandation: Assurez-vous que les tables de routage pour l'appairage de VPC sont en "accès limité"

Pour mettre à jour les tables de routage pour l'appairage VPC, consultez la section Mettre à jour vos tables de routage pour une connexion d'appairage VPC dans le guide de l'utilisateur du VPC AWS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Account Level Public Access Blocks

Nom de la catégorie dans l'API : S3_ACCOUNT_LEVEL_PUBLIC_ACCESS_BLOCKS

Le blocage de l'accès public Amazon S3 fournit des paramètres pour les points d'accès, les buckets et les comptes afin de vous aider à gérer l'accès public aux ressources Amazon S3. Par défaut, les nouveaux buckets, points d'accès et objets n'autorisent pas l'accès public.

Recommandation: Vérifie si les paramètres de blocage de l'accès public S3 requis sont configurés au niveau du compte

Pour corriger ce résultat, procédez comme suit :

Terraform

La ressource Terraform suivante configure l'accès à S3 au niveau du compte.

resource "aws_s3_account_public_access_block" "s3_control" {
  block_public_acls       = true
  block_public_policy     = true
  ignore_public_acls      = true
  restrict_public_buckets = true
}

Console AWS

Pour modifier les paramètres de blocage de l'accès public pour tous les buckets S3 d'un compte AWS.

  1. Connectez-vous à la console de gestion AWS et ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.
  2. Choisissez les paramètres de blocage de l'accès public pour ce compte.
  3. Sélectionnez "Modifier" pour modifier les paramètres de blocage de l'accès public pour tous les buckets de votre compte AWS.
  4. Sélectionnez les paramètres que vous souhaitez modifier, puis cliquez sur "Enregistrer les modifications".
  5. Lorsque vous êtes invité à confirmer, saisissez "confirm". Sélectionnez ensuite "Confirmer" pour enregistrer vos modifications.

CLI AWS

aws s3control put-public-access-block \
--account-id <value> \
--public-access-block-configuration '{"BlockPublicAcls": true, "BlockPublicPolicy": true, "IgnorePublicAcls": true, "RestrictPublicBuckets": true}'

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Buckets Configured Block Public Access Bucket And Account Settings

Nom de la catégorie dans l'API : S3_BUCKETS_CONFIGURED_BLOCK_PUBLIC_ACCESS_BUCKET_AND_ACCOUNT_SETTINGS

Amazon S3 fournit Block public access (bucket settings) et Block public access (account settings) pour vous aider à gérer l'accès public aux ressources Amazon S3. Par défaut, les buckets et les objets S3 sont créés avec l'accès public désactivé. Toutefois, un principal IAM AWS disposant d'autorisations S3 suffisantes peut activer l'accès public au niveau du bucket ou de l'objet. Lorsqu'il est activé, Block public access (bucket settings) empêche un bucket individuel et les objets qu'il contient de devenir accessibles au public. De même, Block public access (account settings) empêche tous les buckets et les objets qu'ils contiennent d'être accessibles au public dans l'ensemble du compte.

Recommandation :

Assurez-vous que les buckets S3 sont configurés avec Block public access (bucket settings).

Pour corriger ce résultat, procédez comme suit :

Console AWS

Si la sortie indique true pour les paramètres de configuration distincts, ils sont définis sur le compte.

  1. Connectez-vous à la console de gestion AWS et ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.
  2. Sélectionnez Bloquer l'accès public (paramètres du compte).
  3. Sélectionnez Modifier pour modifier les paramètres de blocage de l'accès public pour tous les buckets de votre compte AWS.
  4. Sélectionnez les paramètres que vous souhaitez modifier, puis cliquez sur Enregistrer. Pour en savoir plus sur chaque paramètre, pointez sur les icônes i.
  5. Lorsque vous êtes invité à confirmer, saisissez confirm. Cliquez ensuite sur Confirmer pour enregistrer les modifications.

CLI AWS

Pour définir les paramètres de blocage de l'accès public pour ce compte, exécutez la commande suivante:

aws s3control put-public-access-block
--public-access-block-configuration BlockPublicAcls=true, IgnorePublicAcls=true, BlockPublicPolicy=true, RestrictPublicBuckets=true
--account-id <value>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Bucket Access Logging Enabled Cloudtrail S3 Bucket

Nom de la catégorie dans l'API : S3_BUCKET_ACCESS_LOGGING_ENABLED_CLOUDTRAIL_S3_BUCKET

La journalisation de l'accès au bucket S3 génère un journal contenant des enregistrements d'accès pour chaque requête envoyée à votre bucket S3. Un enregistrement de journal des accès contient des informations sur la requête, telles que le type de requête, les ressources spécifiées dans la requête et l'heure et la date de traitement de la requête. Il est recommandé d'activer la journalisation de l'accès au bucket sur le bucket CloudTrail S3.

Recommandation :

Assurez-vous que la journalisation de l'accès au bucket S3 est activée sur le bucket CloudTrail S3

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Connectez-vous à la console de gestion AWS et ouvrez la console S3 à l'adresse https://console.aws.amazon.com/s3.
  2. Sous Tous les buckets, cliquez sur le bucket S3 cible.
  3. Cliquez sur Properties (Propriétés) en haut à droite de la console.
  4. Sous Bucket : <s3\_bucket\_for\_cloudtrail>, cliquez sur Logging</s3\_bucket\_for\_cloudtrail>.
  5. Configurer la journalisation des buckets
    - Cochez la case Activé
    - Sélectionnez le bucket cible dans la liste
    - Saisissez un préfixe cible
  6. Cliquez sur Enregistrer.

CLI AWS

  1. Obtenez le nom du bucket S3 dans lequel CloudTrail enregistre les journaux:
aws cloudtrail describe-trails --region <region-name> --query trailList[*].S3BucketName
  1. Copiez et ajoutez le nom du bucket cible à l'emplacement , le préfixe du fichier journal à l'emplacement et ajoutez éventuellement une adresse e-mail dans le modèle suivant, puis enregistrez-le sous le nom :
{
 "LoggingEnabled": {
 "TargetBucket": "<Logging_BucketName>",
 "TargetPrefix": "<LogFilePrefix>",
 "TargetGrants": [
 {
 "Grantee": {
 "Type": "AmazonCustomerByEmail",
 "EmailAddress": "<EmailID>"
 },
 "Permission": "FULL_CONTROL"
 }
 ]
 }
}
  1. Exécutez la commande put-bucket-logging avec le nom du bucket et comme entrée. Pour en savoir plus, consultez put-bucket-logging:
aws s3api put-bucket-logging --bucket <BucketName> --bucket-logging-status file://<FileName.Json>

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Bucket Logging Enabled

Nom de la catégorie dans l'API : S3_BUCKET_LOGGING_ENABLED

La fonctionnalité de journalisation des accès au serveur AWS S3 enregistre les requêtes d'accès aux buckets de stockage, ce qui est utile pour les audits de sécurité. Par défaut, la journalisation des accès au serveur n'est pas activée pour les buckets S3.

Recommandation: Vérifiez si la journalisation est activée sur tous les buckets S3

Pour corriger ce résultat, procédez comme suit :

Terraform

L'exemple suivant montre comment créer deux buckets:

  1. Un bucket de journalisation
  2. Bucket conforme
variable "bucket_acl_map" {
  type = map(any)
  default = {
    "logging-bucket"   = "log-delivery-write"
    "compliant-bucket" = "private"
  }
}

resource "aws_s3_bucket" "all" {
  for_each            = var.bucket_acl_map
  bucket              = each.key
  object_lock_enabled = true
  tags = {
    "Pwd"    = "s3"
  }
}

resource "aws_s3_bucket_acl" "private" {
  for_each = var.bucket_acl_map
  bucket   = each.key
  acl      = each.value
}

resource "aws_s3_bucket_versioning" "enabled" {
  for_each = var.bucket_acl_map
  bucket   = each.key
  versioning_configuration {
    status = "Enabled"
  }
}

resource "aws_s3_bucket_logging" "enabled" {
  for_each      = var.bucket_acl_map
  bucket        = each.key
  target_bucket = aws_s3_bucket.all["logging-bucket"].id
  target_prefix = "log/"
}

resource "aws_s3_bucket_server_side_encryption_configuration" "example" {
  for_each = var.bucket_acl_map
  bucket   = each.key

  rule {
    apply_server_side_encryption_by_default {
      sse_algorithm     = "aws:kms"
    }
  }
}

Console AWS

Pour savoir comment activer la journalisation des accès S3 via la console AWS, consultez Activer la journalisation des accès au serveur Amazon S3 dans la documentation AWS.

CLI AWS

L'exemple suivant montre comment:

  1. Créez une stratégie de bucket pour accorder au principal du service de journalisation l'autorisation PutObject dans votre bucket de journalisation.

policy.json

{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Sid": "S3ServerAccessLogsPolicy",
            "Effect": "Allow",
            "Principal": {"Service": "logging.s3.amazonaws.com"},
            "Action": "s3:PutObject",
            "Resource": "arn:aws:s3:::MyBucket/Logs/*",
            "Condition": {
                "ArnLike": {"aws:SourceARN": "arn:aws:s3:::SOURCE-BUCKET-NAME"},
                "StringEquals": {"aws:SourceAccount": "SOURCE-AWS-ACCOUNT-ID"}
            }
        }
    ]
}
aws s3api put-bucket-policy \
  --bucket my-bucket
  --policy file://policy.json
  1. Appliquer la stratégie à votre bucket de journalisation

logging.json

{
    "LoggingEnabled": {
        "TargetBucket": "MyBucket",
        "TargetPrefix": "Logs/"
    }
}
aws s3api put-bucket-logging \
  --bucket MyBucket \
  --bucket-logging-status file://logging.json

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Bucket Policy Set Deny Http Requests

Nom de la catégorie dans l'API : S3_BUCKET_POLICY_SET_DENY_HTTP_REQUESTS

Au niveau du bucket Amazon S3, vous pouvez configurer des autorisations via une stratégie de bucket afin de rendre les objets accessibles uniquement via HTTPS.

Recommandation: Assurez-vous que la stratégie de bucket S3 est définie pour refuser les requêtes HTTP

Pour corriger ce résultat, procédez comme suit :

Console AWS

à l'aide du générateur de stratégies AWS:

  1. Répétez les étapes 1 à 4 ci-dessus.
  2. Cliquez sur Policy Generator en bas de l'éditeur de règles de bucket.
  3. Sélectionner le type de règle
    S3 Bucket Policy
  4. Ajouter des instructions
    - Effect = Deny
    - Principal = *
    - AWS Service = Amazon S3
    - Actions = *
    - Amazon Resource Name =
  5. Générer une stratégie
  6. Copiez le texte et ajoutez-le à la stratégie de bucket.

CLI AWS

  1. Exportez la stratégie de bucket vers un fichier JSON.
aws s3api get-bucket-policy --bucket <bucket_name> --query Policy --output text > policy.json
  1. Modifiez le fichier policy.json en ajoutant cette instruction:
{
 "Sid": <optional>",
 "Effect": "Deny",
 "Principal": "*",
 "Action": "s3:*",
 "Resource": "arn:aws:s3:::<bucket_name>/*",
 "Condition": {
 "Bool": {
 "aws:SecureTransport": "false"
 }
 }
 }
  1. Appliquez à nouveau cette stratégie modifiée au bucket S3:
aws s3api put-bucket-policy --bucket <bucket_name> --policy file://policy.json

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Bucket Replication Enabled

Nom de la catégorie dans l'API : S3_BUCKET_REPLICATION_ENABLED

Cette vérification vérifie si la réplication interrégionale est activée pour un bucket Amazon S3. La vérification échoue si la réplication interrégionale n'est pas activée pour le bucket ou si la réplication dans la même région est également activée.

La réplication consiste à copier automatiquement et de manière asynchrone des objets dans des buckets d'une même région AWS ou de régions différentes. La réplication copie les objets nouvellement créés et les mises à jour d'objets d'un bucket source vers un ou plusieurs buckets de destination. Les bonnes pratiques AWS recommandent la réplication pour les buckets source et de destination appartenant au même compte AWS. En plus de la disponibilité, vous devez envisager d'autres paramètres de renforcement des systèmes.

Recommandation: Vérifie si la réplication interrégionale est activée sur les buckets S3

Pour activer la réplication interrégionale sur un bucket S3, consultez la section Configurer la réplication pour les buckets source et de destination appartenant au même compte dans le guide de l'utilisateur d'Amazon Simple Storage Service. Pour "Bucket source", sélectionnez "Appliquer à tous les objets du bucket".

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Bucket Server Side Encryption Enabled

Nom de la catégorie dans l'API : S3_BUCKET_SERVER_SIDE_ENCRYPTION_ENABLED

Cette vérification vérifie que le chiffrement par défaut Amazon S3 est activé pour votre bucket S3 ou que la stratégie de bucket S3 refuse explicitement les requêtes put-object sans chiffrement côté serveur.

Recommandation: Assurez-vous que tous les buckets S3 appliquent le chiffrement au repos

Pour corriger ce résultat, procédez comme suit :

Terraform

resource "aws_s3_bucket_server_side_encryption_configuration" "enable" {
  bucket = "my-bucket"

  rule {
    apply_server_side_encryption_by_default {
      sse_algorithm = "AES256"
    }
  }
}

Console AWS

Pour activer le chiffrement par défaut sur un bucket S3

  1. Ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.
  2. Dans le volet de navigation de gauche, sélectionnez "Buckets" (Buckets).
  3. Sélectionnez le bucket S3 dans la liste.
  4. Sélectionnez "Propriétés".
  5. Sélectionnez "Chiffrement par défaut".
  6. Pour le chiffrement, choisissez AES-256 ou AWS-KMS.
  7. Choisissez AES-256 pour utiliser des clés gérées par Amazon S3 pour le chiffrement par défaut. Pour en savoir plus sur l'utilisation du chiffrement côté serveur Amazon S3 pour chiffrer vos données, consultez le guide de l'utilisateur d'Amazon Simple Storage Service.
  8. Choisissez AWS-KMS pour utiliser les clés gérées par AWS KMS pour le chiffrement par défaut. Choisissez ensuite une clé principale dans la liste des clés principales AWS KMS que vous avez créées.
  9. Saisissez le nom de ressource Amazon (ARN) de la clé KMS AWS à utiliser. Vous trouverez l'ARN de votre clé AWS KMS dans la console IAM, sous "Clés de chiffrement". Vous pouvez également choisir un nom de clé dans la liste déroulante.
  10. Important: Si vous utilisez l'option AWS KMS pour votre configuration de chiffrement par défaut, vous êtes soumis aux quotas de RPS (requêtes par seconde) d'AWS KMS. Pour en savoir plus sur les quotas AWS KMS et comment demander une augmentation de quota, consultez le guide du développeur AWS Key Management Service.
  11. Sélectionnez "Enregistrer".

Pour en savoir plus sur la création d'une clé AWS KMS, consultez le guide du développeur AWS Key Management Service.

Pour en savoir plus sur l'utilisation d'AWS KMS avec Amazon S3, consultez le guide de l'utilisateur d'Amazon Simple Storage Service.

Lorsque vous activez le chiffrement par défaut, vous devrez peut-être mettre à jour votre stratégie de bucket. Pour en savoir plus sur le passage des stratégies de bucket au chiffrement par défaut, consultez le guide de l'utilisateur d'Amazon Simple Storage Service.

CLI AWS

aws s3api put-bucket-encryption \
  --bucket my-bucket \
  --server-side-encryption-configuration '{"Rules": [{"ApplyServerSideEncryptionByDefault": {"SSEAlgorithm": "AES256"}}]}'

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Bucket Versioning Enabled

Nom de la catégorie dans l'API : S3_BUCKET_VERSIONING_ENABLED

Amazon S3 vous permet de conserver plusieurs variantes d'un objet dans le même bucket. Il peut vous aider à récupérer plus facilement à la suite d'actions involontaires de l'utilisateur ou de défaillances de l'application.

Recommandation: Vérifiez que la gestion des versions est activée pour tous les buckets S3

Pour corriger ce résultat, procédez comme suit :

Terraform

resource "aws_s3_bucket" "my_bucket" {
  bucket = "my-bucket"

  versioning {
    enabled = true
  }
}

Console AWS

Pour activer ou désactiver la gestion des versions sur un bucket S3

  1. Connectez-vous à la console de gestion AWS et ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.
  2. Dans la liste "Buckets" (Buckets), sélectionnez le nom du bucket pour lequel vous souhaitez activer la gestion des versions.
  3. Sélectionnez "Propriétés".
  4. Sous "Gestion des versions du bucket", sélectionnez "Modifier".
  5. Sélectionnez "Suspendre" ou "Activer", puis "Enregistrer les modifications".

CLI AWS

aws s3control put-bucket-versioning \
--bucket <bucket_name> \
--versioning-configuration Status=Enabled

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

S3 Default Encryption Kms

Nom de la catégorie dans l'API : S3_DEFAULT_ENCRYPTION_KMS

Vérifie si les buckets Amazon S3 sont chiffrés avec AWS Key Management Service (AWS KMS)

Recommandation: Vérifiez que tous les buckets sont chiffrés avec KMS

Pour corriger ce résultat, procédez comme suit :

Terraform

resource "aws_kms_key" "s3_encryption" {
  description         = "Used for S3 Bucket encryption configuration"
  enable_key_rotation = true
}

resource "aws_s3_bucket_server_side_encryption_configuration" "enable" {
  bucket   = "my-bucket"

  rule {
    apply_server_side_encryption_by_default {
      kms_master_key_id = aws_kms_key.s3_encryption.arn
      sse_algorithm     = "aws:kms"
    }
  }
}

Console AWS

Pour activer le chiffrement par défaut sur un bucket S3

  1. Ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.
  2. Dans le volet de navigation de gauche, sélectionnez "Buckets" (Buckets).
  3. Sélectionnez le bucket S3 dans la liste.
  4. Sélectionnez "Propriétés".
  5. Sélectionnez "Chiffrement par défaut".
  6. Pour le chiffrement, choisissez AWS-KMS.
  7. Choisissez AWS-KMS pour utiliser les clés gérées par AWS KMS pour le chiffrement par défaut. Choisissez ensuite une clé principale dans la liste des clés principales AWS KMS que vous avez créées. Pour en savoir plus sur la création de clés KMS, consultez la documentation AWS - Créer des clés.
  8. Saisissez le nom de ressource Amazon (ARN) de la clé KMS AWS à utiliser. Vous trouverez l'ARN de votre clé AWS KMS dans la console IAM, sous "Clés de chiffrement". Vous pouvez également choisir un nom de clé dans la liste déroulante.
  9. Important: cette solution est soumise aux quotas de RPS (requêtes par seconde) d'AWS KMS. Pour en savoir plus sur les quotas AWS KMS et demander une augmentation de quota, consultez le Guide du développeur AWS Key Management Service.
  10. Sélectionnez "Enregistrer".

Pour en savoir plus sur l'utilisation d'AWS KMS avec Amazon S3, consultez le guide de l'utilisateur d'Amazon Simple Storage Service.

Lorsque vous activez le chiffrement par défaut, vous devrez peut-être mettre à jour votre stratégie de bucket. Pour en savoir plus sur le passage des stratégies de bucket au chiffrement par défaut, consultez le guide de l'utilisateur d'Amazon Simple Storage Service.

CLI AWS

Créer une clé KMS

aws kms create-key \
  --description "Key to encrypt S3 buckets"

Activer la rotation des clés

aws kms enable-key-rotation \
  --key-id <key_id_from_previous_command>

Mettre à jour le bucket

aws s3api put-bucket-encryption \
  --bucket my-bucket \
  --server-side-encryption-configuration '{"Rules": [{"ApplyServerSideEncryptionByDefault": {"KMSMasterKeyID": "<id_from_key>", "SSEAlgorithm": "AES256"}}]}'

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Sagemaker Notebook Instance Kms Key Configured

Nom de la catégorie dans l'API : SAGEMAKER_NOTEBOOK_INSTANCE_KMS_KEY_CONFIGURED

Vérifie si une clé AWS Key Management Service (KMS) est configurée pour une instance de notebook Amazon SageMaker. La règle est NON_COMPLIANT si "KmsKeyId" n'est pas spécifié pour l'instance de notebook SageMaker.

Recommandation: Vérifiez que toutes les instances de notebook SageMaker sont configurées pour utiliser KMS

Pour configurer KMS pour SageMaker, consultez la section Gestion des clés dans la documentation Amazon SageMaker.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Sagemaker Notebook No Direct Internet Access

Nom de la catégorie dans l'API : SAGEMAKER_NOTEBOOK_NO_DIRECT_INTERNET_ACCESS

Vérifie si l'accès direct à Internet est désactivé pour une instance de notebook SageMaker. Pour ce faire, il vérifie si le champ "DirectInternetAccess" est désactivé pour l'instance de notebook.

Si vous configurez votre instance SageMaker sans VPC, l'accès direct à Internet est activé par défaut sur votre instance. Vous devez configurer votre instance avec un VPC et définir le paramètre par défaut sur "Désactiver" (Accès à Internet via un VPC).

Pour entraîner ou héberger des modèles à partir d'un notebook, vous avez besoin d'un accès à Internet. Pour activer l'accès à Internet, assurez-vous que votre VPC dispose d'une passerelle NAT et que votre groupe de sécurité autorise les connexions sortantes. Pour savoir comment connecter une instance de notebook à des ressources dans un VPC, consultez la section "Connecter une instance de notebook à des ressources dans un VPC" du guide du développeur Amazon SageMaker.

Vous devez également vous assurer que l'accès à votre configuration SageMaker est limité aux seuls utilisateurs autorisés. Limitez les autorisations IAM des utilisateurs pour qu'ils ne puissent pas modifier les paramètres et les ressources SageMaker.

Recommandation: Vérifiez si l'accès direct à Internet est désactivé pour toutes les instances de notebook Amazon SageMaker

Pour corriger ce résultat, procédez comme suit :

Console AWS

Notez que vous ne pouvez pas modifier le paramètre d'accès à Internet une fois une instance de notebook créée. Il doit être arrêté, supprimé et recréé.

Pour configurer une instance de notebook SageMaker afin de refuser l'accès direct à Internet:

  1. Ouvrez la console SageMaker à l'adresse https://console.aws.amazon.com/sagemaker/.
  2. Accédez aux instances de notebook.
  3. Supprimez l'instance dont l'accès Internet direct est activé. Sélectionnez l'instance, puis "Actions" et "Arrêter".
  4. Une fois l'instance arrêtée, sélectionnez "Actions", puis "Supprimer".
  5. Sélectionnez "Créer une instance de notebook". Fournissez les informations de configuration.
  6. Développez la section "Réseau", puis choisissez un VPC, un sous-réseau et un groupe de sécurité. Sous "Accès Internet direct", sélectionnez "Désactiver" (Accès à Internet via un VPC).
  7. Sélectionnez "Créer une instance de notebook".

Pour en savoir plus, consultez la section "Connecter une instance de notebook aux ressources d'un VPC" dans le guide du développeur Amazon SageMaker.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Secretsmanager Rotation Enabled Check

Nom de la catégorie dans l'API : SECRETSMANAGER_ROTATION_ENABLED_CHECK

Vérifie si un secret stocké dans AWS Secrets Manager est configuré avec une rotation automatique. La vérification échoue si le secret n'est pas configuré avec une rotation automatique. Si vous fournissez une valeur personnalisée pour le paramètre maximumAllowedRotationFrequency, le contrôle ne passe que si le secret est automatiquement remplacé dans la période spécifiée.

Secret Manager vous aide à améliorer la stratégie de sécurité de votre organisation. Les secrets incluent les identifiants de base de données, les mots de passe et les clés API tierces. Vous pouvez utiliser Secret Manager pour stocker des secrets de manière centralisée, les chiffrer automatiquement, contrôler l'accès à ces secrets et les faire pivoter de manière sécurisée et automatique.

Secret Manager peut faire tourner les secrets. Vous pouvez utiliser la rotation pour remplacer les secrets à long terme par des secrets à court terme. La rotation de vos secrets limite la durée pendant laquelle un utilisateur non autorisé peut utiliser un secret compromis. C'est pourquoi vous devez effectuer une rotation fréquente de vos secrets. Pour en savoir plus sur la rotation, consultez la section "Rotation des secrets AWS Secrets Manager" du guide de l'utilisateur AWS Secrets Manager.

Recommandation: Vérifiez que la rotation de tous les secrets AWS Secrets Manager est activée

Pour activer la rotation automatique des secrets Secret Manager, consultez la section "Configurer la rotation automatique des secrets AWS Secret Manager à l'aide de la console" dans le guide de l'utilisateur AWS Secret Manager. Vous devez choisir et configurer une fonction AWS Lambda pour la rotation.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Sns Encrypted Kms

Nom de la catégorie dans l'API : SNS_ENCRYPTED_KMS

Vérifie si un sujet SNS est chiffré au repos à l'aide d'AWS KMS. Les commandes échouent si un sujet SNS n'utilise pas de clé KMS pour le chiffrement côté serveur (SSE).

Le chiffrement des données au repos réduit le risque d'accès aux données stockées sur un disque par un utilisateur non authentifié auprès d'AWS. Il ajoute également un autre ensemble de contrôles d'accès pour limiter l'accès des utilisateurs non autorisés aux données. Par exemple, des autorisations d'API sont requises pour déchiffrer les données avant de pouvoir les lire. Pour renforcer la sécurité, les sujets SNS doivent être chiffrés au repos.

Recommandation: Vérifiez que tous les sujets SNS sont chiffrés avec KMS

Pour activer le chiffrement côté serveur (SSE) pour un sujet SNS, consultez la section "Activer le chiffrement côté serveur (SSE) pour un sujet Amazon SNS" dans le guide du développeur Amazon Simple Notification Service. Avant de pouvoir utiliser le chiffrement côté serveur, vous devez également configurer des règles de clé AWS KMS pour autoriser le chiffrement des sujets, ainsi que le chiffrement et le déchiffrement des messages. Pour en savoir plus, consultez la section "Configurer les autorisations AWS KMS" du guide du développeur Amazon Simple Notification Service.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Vpc Default Security Group Closed

Nom de la catégorie dans l'API : VPC_DEFAULT_SECURITY_GROUP_CLOSED

Ce contrôle vérifie si le groupe de sécurité par défaut d'un VPC autorise le trafic entrant ou sortant. Le contrôle échoue si le groupe de sécurité autorise le trafic entrant ou sortant.

Les règles du groupe de sécurité par défaut autorisent tout trafic sortant et entrant provenant des interfaces réseau (et de leurs instances associées) attribuées au même groupe de sécurité. Nous vous recommandons de ne pas utiliser le groupe de sécurité par défaut. Étant donné que le groupe de sécurité par défaut ne peut pas être supprimé, vous devez modifier le paramètre des règles de groupe de sécurité par défaut pour restreindre le trafic entrant et sortant. Cela empêche le trafic involontaire si le groupe de sécurité par défaut est accidentellement configuré pour des ressources telles que des instances EC2.

Recommandation: Assurez-vous que le groupe de sécurité par défaut de chaque VPC limite tout le trafic

Pour résoudre ce problème, commencez par créer des groupes de sécurité avec les droits les moins élevés possible. Pour obtenir des instructions, consultez la section "Créer un groupe de sécurité" du guide de l'utilisateur du VPC Amazon. Attribuez ensuite les nouveaux groupes de sécurité à vos instances EC2. Pour obtenir des instructions, consultez la section "Modifier le groupe de sécurité d'une instance" du guide de l'utilisateur Amazon EC2 pour les instances Linux.

Après avoir attribué les nouveaux groupes de sécurité à vos ressources, supprimez toutes les règles entrantes et sortantes des groupes de sécurité par défaut. Pour savoir comment procéder, consultez la section "Supprimer des règles de groupe de sécurité" du guide de l'utilisateur Amazon VPC.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Vpc Flow Logging Enabled All Vpcs

Nom de la catégorie dans l'API : VPC_FLOW_LOGGING_ENABLED_ALL_VPCS

Les journaux de flux VPC sont une fonctionnalité qui vous permet de collecter des informations sur le trafic IP entre les différentes interfaces réseau de votre VPC. Une fois le journal de flux créé, vous pouvez consulter et récupérer ses données dans les journaux Amazon CloudWatch. Il est recommandé d'activer les journaux de flux VPC pour les "Refus" de paquets pour les VPC.

Recommandation: Assurez-vous que la journalisation de flux VPC est activée dans tous les VPC

Pour corriger ce résultat, procédez comme suit :

Console AWS

  1. Se connecter à la console de gestion
  2. Sélectionnez Services, puis VPC.
  3. Dans le volet de navigation de gauche, sélectionnez Your VPCs.
  4. Sélectionner un VPC
  5. Dans le volet de droite, sélectionnez l'onglet Flow Logs.
  6. Si aucun journal de flux n'existe, cliquez sur Create Flow Log.
  7. Pour "Filtre", sélectionnez Reject.
  8. Saisissez un Role et un Destination Log Group
  9. Cliquez sur Create Log Flow.
  10. Cliquez sur CloudWatch Logs Group.

Remarque:Définir le filtre sur "Refuser" réduira considérablement l'accumulation de données de journalisation pour cette recommandation et fournira suffisamment d'informations à des fins de détection, d'investigation et de correction des violations. Toutefois, pendant les périodes d'ingénierie de groupes de sécurité avec le principe du moindre privilège, définir ce filtre sur "Tout" peut être très utile pour découvrir les flux de trafic existants requis pour le bon fonctionnement d'un environnement déjà en cours d'exécution.

CLI AWS

  1. Créez un document de règles et nommez-le role_policy_document.json, puis collez-y le contenu suivant:
{
 "Version": "2012-10-17",
 "Statement": [
 {
 "Sid": "test",
 "Effect": "Allow",
 "Principal": {
 "Service": "ec2.amazonaws.com"
 },
 "Action": "sts:AssumeRole"
 }
 ]
}
  1. Créez un autre document de règles et nommez-le iam_policy.json, puis collez-y le contenu suivant:
{
 "Version": "2012-10-17",
 "Statement": [
 {
 "Effect": "Allow",
 "Action":[
 "logs:CreateLogGroup",
 "logs:CreateLogStream",
 "logs:DescribeLogGroups",
 "logs:DescribeLogStreams",
 "logs:PutLogEvents",
 "logs:GetLogEvents",
 "logs:FilterLogEvents"
 ],
 "Resource": "*"
 }
 ]
}
  1. Exécutez la commande ci-dessous pour créer un rôle IAM:
aws iam create-role --role-name <aws_support_iam_role> --assume-role-policy-document file://<file-path>role_policy_document.json
  1. Exécutez la commande ci-dessous pour créer une stratégie IAM:
aws iam create-policy --policy-name <ami-policy-name> --policy-document file://<file-path>iam-policy.json
  1. Exécutez la commande attach-group-policy à l'aide de l'ARN de la stratégie IAM renvoyé à l'étape précédente pour associer la stratégie au rôle IAM (si la commande aboutit, aucune sortie n'est renvoyée):
aws iam attach-group-policy --policy-arn arn:aws:iam::<aws-account-id>:policy/<iam-policy-name> --group-name <group-name>
  1. Exécutez describe-vpcs pour obtenir le VpcId disponible dans la région sélectionnée:
aws ec2 describe-vpcs --region <region>
  1. La résultat de la commande doit renvoyer l'ID de VPC disponible dans la région sélectionnée.
  2. Exécutez create-flow-logs pour créer un journal de flux pour le VPC:
aws ec2 create-flow-logs --resource-type VPC --resource-ids <vpc-id> --traffic-type REJECT --log-group-name <log-group-name> --deliver-logs-permission-arn <iam-role-arn>
  1. Répétez l'étape 8 pour les autres VPC disponibles dans la région sélectionnée.
  2. Modifiez la région en mettant à jour --region, puis répétez la procédure de correction pour les autres vpc.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Vpc Sg Open Only To Authorized Ports

Nom de la catégorie dans l'API : VPC_SG_OPEN_ONLY_TO_AUTHORIZED_PORTS

Cette vérification vérifie si un groupe de sécurité Amazon EC2 autorise le trafic entrant illimité à partir de ports non autorisés. L'état du contrôle est déterminé comme suit:

Si vous utilisez la valeur par défaut pour authorizedTcpPorts, le contrôle échoue si le groupe de sécurité autorise le trafic entrant sans restriction à partir de n'importe quel port autre que les ports 80 et 443.

Si vous fournissez des valeurs personnalisées pour authorizedTcpPorts ou authorizedUdpPorts, la vérification échoue si le groupe de sécurité autorise le trafic entrant illimité à partir de n'importe quel port non listé.

Si aucun paramètre n'est utilisé, le contrôle échoue pour tous les groupes de sécurité disposant d'une règle de trafic entrant sans restriction.

Les groupes de sécurité fournissent un filtrage avec état du trafic réseau entrant et sortant vers AWS. Les règles de groupe de sécurité doivent respecter le principe du moindre privilège. L'accès illimité (adresse IP avec un suffixe /0) augmente les risques d'activités malveillantes telles que le piratage, les attaques par déni de service et la perte de données. Sauf si un port est spécifiquement autorisé, il doit refuser l'accès illimité.

Recommandation: Vérifiez que les groupes de sécurité avec la plage 0.0.0.0/0 de n'importe quel VPC autorisent uniquement le trafic TCP/UDP entrant spécifique

Pour modifier un groupe de sécurité, consultez la section Utiliser des groupes de sécurité du guide de l'utilisateur d'Amazon VPC.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.

Both VPC VPN Tunnels Up

Nom de la catégorie dans l'API : VPC_VPN_2_TUNNELS_UP

Un tunnel VPN est un lien chiffré par lequel les données peuvent passer du réseau client vers ou depuis AWS dans une connexion VPN de site à site AWS. Chaque connexion VPN comprend deux tunnels VPN que vous pouvez utiliser simultanément pour assurer la haute disponibilité. Il est important de s'assurer que les deux tunnels VPN sont actifs pour une connexion VPN afin de confirmer une connexion sécurisée et à disponibilité élevée entre un VPC AWS et votre réseau distant.

Cette commande vérifie que les deux tunnels VPN fournis par AWS Site-to-Site VPN sont activés. Le contrôle échoue si l'un ou les deux tunnels sont en état "DOWN".

Recommandation: Vérifie que les deux tunnels VPN AWS fournis par AWS site à site sont activés

Pour modifier les options de tunnel VPN, consultez la section Modifier les options de tunnel VPN site à site dans le guide de l'utilisateur du VPN site à site AWS.

En savoir plus sur les éléments et les paramètres d'analyse compatibles de ce type de résultat.