Configurer l'accès à une source: Amazon S3

Vous pouvez configurer l'accès à un bucket Amazon S3 à l'aide de l'une des deux méthodes suivantes:

Régions où le service est disponible

Le service de transfert de stockage peut transférer des données à partir des régions Amazon S3 suivantes: af-south-1, ap-east-1, ap-northeast-1 ap-northeast-2, ap-northeast-3, ap-south-1 ap-south-2, ap-southeast-1, ap-southeast-2, ap-southeast-3, ca-central-1 et eu-central-1, eu-central-2, eu-north-1, eu-south-1, eu-south-2, eu-west-1, eu-west-2, eu-west-3. me-central-1, me-south-1, sa-east-1, us-east-1. us-east-2, us-west-1 et us-west-2.

Autorisations requises

Pour utiliser le service de transfert de stockage afin de transférer des données depuis un votre compte utilisateur ou rôle d'identité fédérée doit disposer du rôle pour le bucket:

Autorisation Description Utilisation
s3:ListBucket Permet au service de transfert de stockage de lister les objets présents dans le bucket. Toujours obligatoire
s3:GetObject Permet au service de transfert de stockage de lire des objets dans le bucket. Obligatoire si vous transférez la version actuelle de tous les objets. Si votre fichier manifeste spécifie une version d'objet, utilisez plutôt s3:GetObjectVersion.
s3:GetObjectVersion Permet au service de transfert de stockage de lire des versions spécifiques d'objets dans le bucket. Obligatoire si votre fichier manifeste spécifie une version d'objet. Sinon, utilisez s3:GetObject.
s3:DeleteObject Permet au service de transfert de stockage de supprimer des objets du bucket. Obligatoire si vous définissez deleteObjectsFromSourceAfterTransfer sur true.

S'authentifier à l'aide d'identifiants d'accès

Pour utiliser un ID de clé d'accès et une clé secrète pour vous authentifier auprès d'AWS :

  1. Créez un utilisateur AWS IAM (AWS Identity and Access Management) avec un nom facile à identifier, tel que transfer-user.

  2. Pour le type d'accès AWS, sélectionnez Clé d'accès - Accès programmatique.

  3. Attribuez l'un des rôles suivants à l'utilisateur:

    • AmazonS3ReadOnlyAccess pour fournir un accès en lecture seule à la source. Cela permet les transferts, mais ne permet pas de supprimer des objets à la source une fois le transfert terminé.
    • AmazonS3FullAccess si votre transfert est configuré pour supprimer des objets à la source.
    • Un rôle personnalisé disposant des autorisations appropriées Autorisations requises ci-dessus. Le code JSON des autorisations minimales ressemble à l'exemple ci-dessous :

      {
        "Version": "2012-10-17",
        "Statement": [
            {
                "Effect": "Allow",
                "Action": [
                    "s3:GetObject",
                    "s3:ListBucket"
                ],
                "Resource": [
                    "arn:aws:s3:::AWS_BUCKET_NAME/*",
                    "arn:aws:s3:::AWS_BUCKET_NAME"
                ]
            }
        ]
      }
  4. Notez l'ID de clé d'accès et la clé d'accès secrète lorsque l'utilisateur créé avec succès.

La façon dont vous transmettez l'ID de clé d'accès et la clé d'accès secrète au service de transfert de stockage dépend de l'interface que vous utilisez pour lancer le transfert.

Cloud Console

Saisissez les valeurs directement dans le formulaire de création de la tâche de transfert.

Pour commencer, consultez la page Créer des transferts.

CLI gcloud

Créez un fichier JSON au format suivant :

{
  "accessKeyId": "AWS_ACCESS_KEY_ID",
  "secretAccessKey": "AWS_SECRET_ACCESS_KEY"
}

Transmettez l'emplacement du fichier à la commande gcloud transfer jobs create à l'aide de l'option source-creds-file :

gcloud transfer jobs create s3://S3_BUCKET_NAME gs://GCS_BUCKET_NAME \
  --source-creds-file=PATH/TO/KEYFILE.JSON

API REST

Votre objet transferSpec doit contenir les informations clés dans l'objet awsS3DataSource :

"transferSpec": {
  "awsS3DataSource": {
    "bucketName": "AWS_SOURCE_NAME",
    "awsAccessKey": {
      "accessKeyId": "AWS_ACCESS_KEY_ID",
      "secretAccessKey": "AWS_SECRET_ACCESS_KEY"
    }
  },
  "gcsDataSink": {
    "bucketName": "GCS_SINK_NAME"
  }
}

Bibliothèques clientes

Consultez les exemples Créer des transferts

Enregistrer vos identifiants d'accès dans Secret Manager

Secret Manager est un service sécurisé qui stocke et gère des données sensibles telles que des mots de passe. Il utilise un chiffrement sécurisé, un contrôle des accès basé sur les rôles et la journalisation d'audit pour protéger vos secrets.

Le service de transfert de stockage peut utiliser Secret Manager pour protéger votre environnement AWS des identifiants d'accès. Chargez vos identifiants dans Secret Manager, puis transmet le nom de la ressource du secret au service de transfert de stockage.

Activer l'API

Enable the Secret Manager API.

Enable the API

Configurer des autorisations supplémentaires

Autorisations d'utilisateur

L'utilisateur qui crée le secret doit disposer du rôle suivant :

  • Administrateur Secret Manager (roles/secretmanager.admin)

Découvrez comment attribuer un rôle.

Autorisations de l'agent de service

L'agent de service de transfert de stockage nécessite le rôle IAM suivant:

  • Accesseur de secrets Secret Manager (roles/secretmanager.secretAccessor)

Pour attribuer le rôle à votre agent de service, procédez comme suit:

Cloud Console

  1. Suivez les instructions pour récupérer l'adresse e-mail de votre agent de service.

  2. Accédez à la page IAM de la console Google Cloud.

    Accéder à IAM

  3. Cliquez sur Accorder l'accès.

  4. Dans la zone de texte Nouveaux comptes principaux, saisissez l'adresse e-mail de l'agent de service.

  5. Dans la liste déroulante Sélectionner un rôle, recherchez et sélectionnez Secret Manager Accesseur de secrets.

  6. Cliquez sur Enregistrer.

gcloud

Utilisez la commande gcloud projects add-iam-policy-binding pour ajouter l'IAM à votre agent de service.

  1. Suivez les instructions pour récupérer l'adresse e-mail de votre agent de service.

  2. Dans la ligne de commande, saisissez la commande suivante:

    gcloud projects add-iam-policy-binding PROJECT_ID \
      --member='serviceAccount:SERVICE_AGENT_EMAIL' \
      --role='roles/secretmanager.secretAccessor'
    

Créer un secret

Créez un secret avec Secret Manager :

Cloud Console

  1. Accédez à la page Secret Manager dans la console Google Cloud.

    Accéder à Secret Manager

  2. Cliquez sur Créer un secret.

  3. Saisissez un nom.

  4. Dans la zone de texte Valeur du secret, saisissez vos identifiants au format suivant :

    {
      "accessKeyId": "AWS_ACCESS_KEY_ID",
      "secretAccessKey": "AWS_SECRET_ACCESS_KEY"
    }
    
  5. Cliquez sur Créer un secret.

  6. Une fois le secret créé, notez le nom complet de la ressource du secret:

    1. Sélectionnez l'onglet Overview (Présentation).

    2. Copiez la valeur de ID de ressource. Il utilise le format suivant:

      projects/1234567890/secrets/SECRET_NAME

gcloud

Pour créer un secret à l'aide de l'outil de ligne de commande gcloud, transmettez les identifiants au format JSON à la commande gcloud secrets create :

printf '{
  "accessKeyId": "AWS_ACCESS_KEY_ID",
  "secretAccessKey": "AWS_SECRET_ACCESS_KEY"
}' | gcloud secrets create SECRET_NAME --data-file=-

Récupérez le nom de ressource complet du secret :

gcloud secrets describe SECRET_NAME

Notez la valeur de name dans la réponse. Il utilise le format suivant:

projects/1234567890/secrets/SECRET_NAME

Pour en savoir plus sur la création et la gestion des secrets, consultez Documentation Secret Manager

Transmettre votre secret à la commande de création de tâche

Utiliser Secret Manager avec Le service de transfert de stockage nécessite l'utilisation de l'API REST pour créer un job de transfert.

Transmettez le nom de ressource Secret Manager en tant que valeur du paramètre Champ transferSpec.awsS3DataSource.credentialsSecret:

POST https://storagetransfer.googleapis.com/v1/transferJobs

{
  "description": "Transfer with Secret Manager",
  "status": "ENABLED",
  "projectId": "PROJECT_ID",
  "transferSpec": {
      "awsS3DataSource": {
          "bucketName": "AWS_BUCKET_NAME",
          "credentialsSecret": "SECRET_RESOURCE_ID",
      },
      "gcsDataSink": {
          "bucketName": "CLOUD_STORAGE_BUCKET_NAME"
      }
  }
}

S'authentifier à l'aide d'une identité fédérée

Pour utiliser l'identité fédérée afin de vous authentifier auprès d'AWS:

  1. Créez un rôle IAM dans AWS.

  2. Sélectionnez Règle de confiance personnalisée comme type d'entité de confiance.

  3. Copiez et collez la stratégie de confiance suivante :

    {
      "Version": "2012-10-17",
      "Statement": [
        {
          "Effect": "Allow",
          "Principal": {
            "Federated": "accounts.google.com"
          },
          "Action": "sts:AssumeRoleWithWebIdentity",
          "Condition": {
            "StringEquals": {
              "accounts.google.com:sub": "SUBJECT_ID"
            }
          }
        }
      ]
    }
    
  4. Remplacez SUBJECT_ID par le subjectID du compte de service géré par Google créé automatiquement lorsque vous commencez à utiliser le service de transfert de stockage. Pour récupérer le subjectID:

    1. Accédez à la page de référence googleServiceAccounts.get.

      Un panneau interactif s'affiche, intitulé Essayer cette méthode.

    2. Dans le panneau, sous Paramètres des requêtes, saisissez votre ID de projet. Le projet que vous spécifiez ici doit être le projet que vous utilisez pour gérer le service de transfert de stockage.

    3. Cliquez sur Exécuter. Le subjectId est inclus dans la réponse.

  5. Accordez l'une des stratégies d'autorisation suivantes au rôle:

    • AmazonS3ReadOnlyAccess fournit un accès en lecture seule à la source. Cela permet les transferts, mais ne permet pas de supprimer des objets à la source une fois le transfert terminé.
    • AmazonS3FullAccess si votre transfert est configuré pour supprimer des objets à la source.
    • Un rôle personnalisé disposant des autorisations appropriées Autorisations requises ci-dessus. JSON pour les autorisations minimales se présentent comme suit:

      {
        "Version": "2012-10-17",
        "Statement": [
            {
                "Effect": "Allow",
                "Action": [
                    "s3:GetObject",
                    "s3:ListBucket"
                ],
                "Resource": [
                    "arn:aws:s3:::AWS_BUCKET_NAME/*",
                    "arn:aws:s3:::AWS_BUCKET_NAME"
                ]
            }
        ]
      }
  6. Attribuez un nom au rôle et créez-le.

  7. Une fois le rôle créé, affichez les détails du rôle pour récupérer le nom de ressource Amazon (ARN). Notez cette valeur. Elle a le format arn:aws:iam::AWS_ACCOUNT:role/ROLE_NAME.

Transmettre l'ARN au service de transfert de stockage dépend de l'interface que vous utilisez pour initier le transfert.

Cloud Console

Saisissez l'ARN directement dans le formulaire de création de tâche de transfert.

Pour commencer, consultez la page Créer des transferts.

CLI gcloud

Créez un fichier JSON au format suivant :

{
  "roleArn": "ARN"
}

Transmettez l'emplacement du fichier à la commande gcloud transfer jobs create à l'aide de l'option source-creds-file :

gcloud transfer jobs create s3://S3_BUCKET_NAME gs://GCS_BUCKET_NAME \
  --source-creds-file=PATH/TO/ARNFILE.JSON

API REST

Votre objet transferSpec doit contenir les informations ARN dans le cadre de l'objet awsS3DataSource:

"transferSpec": {
  "awsS3DataSource": {
    "bucketName": "AWS_SOURCE_NAME",
    "roleArn": "ARN"
  },
  "gcsDataSink": {
    "bucketName": "GCS_SINK_NAME"
  }
}

Bibliothèques clientes

Consultez les exemples Créer des transferts

Restrictions d'adresses IP

Si votre projet AWS utilise des restrictions d'adresses IP pour l'accès au stockage, vous devez ajouter les plages d'adresses IP utilisées par les nœuds de calcul du service de transfert de stockage à votre liste d'adresses IP autorisées.

Étant donné que ces plages d'adresses IP peuvent changer, nous publions les valeurs actuelles sous forme de fichier JSON à une adresse permanente :

https://www.gstatic.com/storage-transfer-service/ipranges.json

Lorsqu'une nouvelle plage est ajoutée au fichier, nous attendons au moins sept jours avant de l'utiliser pour les requêtes du service de transfert de stockage.

Nous vous recommandons d'extraire des données de ce document au moins une fois par semaine pour mettre à jour votre configuration de sécurité. Pour un exemple de script Python qui extrait des plages d'adresses IP d'un fichier JSON, consultez cet article sur le cloud privé virtuel, documentation.

Pour ajouter ces plages en tant qu'adresses IP autorisées, utilisez le champ Condition dans une stratégie de bucket, comme décrit dans la documentation AWS S3 : Gérer l'accès en fonction d'adresses IP spécifiques.