Utiliser CMEK avec Google Cloud Serverless pour Apache Spark

Par défaut, Google Cloud Serverless pour Apache Spark chiffre le contenu client au repos. Serverless pour Apache Spark gère le chiffrement sans intervention de votre part. Cette option est appelée chiffrement par défaut de Google.

Si vous souhaitez contrôler vos clés de chiffrement, vous pouvez utiliser des clés de chiffrement gérées par le client (CMEK) dans Cloud KMS avec des services bénéficiant d'une intégration des CMEK, y compris Serverless pour Apache Spark. L'utilisation de clés Cloud KMS vous permet de contrôler leur niveau de protection, leur emplacement, leur calendrier de rotation, leurs autorisations d'utilisation et d'accès, ainsi que leurs limites cryptographiques.  Cloud KMS vous permet également de suivre l'utilisation des clés, d'afficher les journaux d'audit et de contrôler les cycles de vie des clés. Au lieu de laisser Google posséder et gérer les clés de chiffrement de clés (KEK) symétriques qui protègent vos données, c'est vous qui vous chargez de cette tâche dans Cloud KMS.

Une fois que vous avez configuré vos ressources avec des CMEK, l'accès à vos ressources Serverless pour Apache Spark est semblable à celui du chiffrement par défaut de Google. Pour en savoir plus sur les options de chiffrement, consultez Clés de chiffrement gérées par le client (CMEK).

Utiliser CMEK

Suivez les étapes de cette section pour utiliser CMEK afin de chiffrer les données que Google Cloud Serverless pour Apache Spark écrit sur le disque persistant et dans le bucket de préparation Dataproc.

  1. Créez une clé à l'aide de Cloud Key Management Service (Cloud KMS).

  2. Copiez le nom de la ressource.

    Copiez le nom de la ressource.
    Le nom de la ressource se construit de la façon suivante :
    projects/PROJECT_ID/locations/REGION/keyRings/KEY_RING_NAME/cryptoKeys/KEY_NAME
    

  3. Autorisez les comptes de service Compute Engine, Dataproc et de l'agent de service Cloud Storage à utiliser votre clé :

    1. Consultez Protéger les ressources à l'aide de clés Cloud KMS > Rôles requis pour attribuer le rôle Chiffreur/Déchiffreur de clés cryptographiques Cloud KMS au compte de service de l'agent de service Compute Engine. Si ce compte de service ne figure pas sur la page IAM de la console Google Cloud , cliquez sur Inclure les attributions de rôles fournies par Google pour l'afficher.
    2. Attribuez le rôle Chiffreur/Déchiffreur de CryptoKey Cloud KMS au compte de service de l'agent de service Dataproc. Pour attribuer le rôle, vous pouvez utiliser Google Cloud CLI comme suit :

       gcloud projects add-iam-policy-binding KMS_PROJECT_ID \
       --member serviceAccount:service-PROJECT_NUMBER@dataproc-accounts.iam.gserviceaccount.com \
       --role roles/cloudkms.cryptoKeyEncrypterDecrypter
      

      Remplacez les éléments suivants :

      KMS_PROJECT_ID : ID de votre projet Google Cloud exécutant Cloud KMS. Il peut également s'agir du projet qui exécute les ressources Dataproc.

      PROJECT_NUMBER : numéro (et non ID) de votre projet Google Cloud qui exécute les ressources Dataproc.

    3. Activez l'API Cloud KMS sur le projet qui exécute les ressources Serverless pour Apache Spark.

    4. Si le rôle d'agent de service Dataproc n'est pas associé au compte de service de l'agent de service Dataproc, ajoutez l'autorisation serviceusage.services.use au rôle personnalisé associé au compte de service de l'agent de service Dataproc. Si le rôle "Agent de service Dataproc" est associé au compte de service de l'agent de service Dataproc, vous pouvez ignorer cette étape.

    5. Suivez les étapes pour ajouter votre clé au bucket.

  4. Lorsque vous soumettez une charge de travail par lot :

    1. Spécifiez votre clé dans le paramètre kmsKey du lot.
    2. Spécifiez le nom de votre bucket Cloud Storage dans le paramètre de lot stagingBucket.
  5. Lorsque vous créez une session interactive ou un modèle de session :

    1. Spécifiez votre clé dans le paramètre de session kmsKey.
    2. Spécifiez le nom de votre bucket Cloud Storage dans le paramètre de session stagingBucket.