Vous pouvez configurer l'accès à un bucket Amazon S3 à l'aide de l'une des deux méthodes suivantes:
Régions où le service est disponible
Le service de transfert de stockage peut transférer des données à partir des régions Amazon S3 suivantes:af-south-1
, ap-east-1
, ap-northeast-1
ap-northeast-2
, ap-northeast-3
, ap-south-1
ap-south-2
, ap-southeast-1
, ap-southeast-2
,
ap-southeast-3
, ca-central-1
et eu-central-1
,
eu-central-2
, eu-north-1
, eu-south-1
,
eu-south-2
, eu-west-1
, eu-west-2
, eu-west-3
.
me-central-1
, me-south-1
, sa-east-1
, us-east-1
.
us-east-2
, us-west-1
et us-west-2
.
Autorisations requises
Pour utiliser le service de transfert de stockage afin de transférer des données depuis un votre compte utilisateur ou rôle d'identité fédérée doit disposer du rôle pour le bucket:
Autorisation | Description | Utilisation |
---|---|---|
s3:ListBucket |
Permet au service de transfert de stockage de lister les objets présents dans le bucket. | Toujours obligatoire |
s3:GetObject |
Permet au service de transfert de stockage de lire des objets dans le bucket. | Obligatoire si vous transférez la version actuelle de tous les objets. Si votre fichier manifeste spécifie une version d'objet, utilisez plutôt s3:GetObjectVersion . |
s3:GetObjectVersion |
Permet au service de transfert de stockage de lire des versions spécifiques d'objets dans le bucket. | Obligatoire si votre fichier manifeste spécifie une version d'objet. Sinon, utilisez s3:GetObject . |
s3:DeleteObject |
Permet au service de transfert de stockage de supprimer des objets du bucket. | Obligatoire si vous définissez deleteObjectsFromSourceAfterTransfer sur true . |
S'authentifier à l'aide d'identifiants d'accès
Pour utiliser un ID de clé d'accès et une clé secrète pour vous authentifier auprès d'AWS :
Créez un utilisateur AWS IAM (AWS Identity and Access Management) avec un nom facile à identifier, tel que
transfer-user
.Pour le type d'accès AWS, sélectionnez Clé d'accès - Accès programmatique.
Attribuez l'un des rôles suivants à l'utilisateur:
- AmazonS3ReadOnlyAccess pour fournir un accès en lecture seule à la source. Cela permet les transferts, mais ne permet pas de supprimer des objets à la source une fois le transfert terminé.
- AmazonS3FullAccess si votre transfert est configuré pour supprimer des objets à la source.
Un rôle personnalisé disposant des autorisations appropriées Autorisations requises ci-dessus. Le code JSON des autorisations minimales ressemble à l'exemple ci-dessous :
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::AWS_BUCKET_NAME/*", "arn:aws:s3:::AWS_BUCKET_NAME" ] } ] }
Notez l'ID de clé d'accès et la clé d'accès secrète lorsque l'utilisateur créé avec succès.
La façon dont vous transmettez l'ID de clé d'accès et la clé d'accès secrète au service de transfert de stockage dépend de l'interface que vous utilisez pour lancer le transfert.
Cloud Console
Saisissez les valeurs directement dans le formulaire de création de la tâche de transfert.
Pour commencer, consultez la page Créer des transferts.
CLI gcloud
Créez un fichier JSON au format suivant :
{
"accessKeyId": "AWS_ACCESS_KEY_ID",
"secretAccessKey": "AWS_SECRET_ACCESS_KEY"
}
Transmettez l'emplacement du fichier à la commande gcloud transfer jobs create
à l'aide de l'option source-creds-file
:
gcloud transfer jobs create s3://S3_BUCKET_NAME gs://GCS_BUCKET_NAME \
--source-creds-file=PATH/TO/KEYFILE.JSON
API REST
Votre objet transferSpec
doit contenir les informations clés dans l'objet awsS3DataSource
:
"transferSpec": {
"awsS3DataSource": {
"bucketName": "AWS_SOURCE_NAME",
"awsAccessKey": {
"accessKeyId": "AWS_ACCESS_KEY_ID",
"secretAccessKey": "AWS_SECRET_ACCESS_KEY"
}
},
"gcsDataSink": {
"bucketName": "GCS_SINK_NAME"
}
}
Bibliothèques clientes
Consultez les exemples Créer des transferts
Enregistrer vos identifiants d'accès dans Secret Manager
Secret Manager est un service sécurisé qui stocke et gère des données sensibles telles que des mots de passe. Il utilise un chiffrement sécurisé, un contrôle des accès basé sur les rôles et la journalisation d'audit pour protéger vos secrets.
Le service de transfert de stockage peut utiliser Secret Manager pour protéger votre environnement AWS des identifiants d'accès. Chargez vos identifiants dans Secret Manager, puis transmet le nom de la ressource du secret au service de transfert de stockage.
Activer l'API
Enable the Secret Manager API.
Configurer des autorisations supplémentaires
Autorisations d'utilisateur
L'utilisateur qui crée le secret doit disposer du rôle suivant :
- Administrateur Secret Manager (
roles/secretmanager.admin
)
Découvrez comment attribuer un rôle.
Autorisations de l'agent de service
L'agent de service de transfert de stockage nécessite le rôle IAM suivant:
- Accesseur de secrets Secret Manager (
roles/secretmanager.secretAccessor
)
Pour attribuer le rôle à votre agent de service, procédez comme suit:
Cloud Console
Suivez les instructions pour récupérer l'adresse e-mail de votre agent de service.
Accédez à la page IAM de la console Google Cloud.
Cliquez sur Accorder l'accès.
Dans la zone de texte Nouveaux comptes principaux, saisissez l'adresse e-mail de l'agent de service.
Dans la liste déroulante Sélectionner un rôle, recherchez et sélectionnez Secret Manager Accesseur de secrets.
Cliquez sur Enregistrer.
gcloud
Utilisez la commande gcloud projects add-iam-policy-binding
pour ajouter l'IAM
à votre agent de service.
Suivez les instructions pour récupérer l'adresse e-mail de votre agent de service.
Dans la ligne de commande, saisissez la commande suivante:
gcloud projects add-iam-policy-binding PROJECT_ID \ --member='serviceAccount:SERVICE_AGENT_EMAIL' \ --role='roles/secretmanager.secretAccessor'
Créer un secret
Créez un secret avec Secret Manager :
Cloud Console
Accédez à la page Secret Manager dans la console Google Cloud.
Cliquez sur Créer un secret.
Saisissez un nom.
Dans la zone de texte Valeur du secret, saisissez vos identifiants au format suivant :
{ "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" }
Cliquez sur Créer un secret.
Une fois le secret créé, notez le nom complet de la ressource du secret:
Sélectionnez l'onglet Overview (Présentation).
Copiez la valeur de ID de ressource. Il utilise le format suivant:
projects/1234567890/secrets/SECRET_NAME
gcloud
Pour créer un secret à l'aide de l'outil de ligne de commande gcloud, transmettez les identifiants au format JSON à la commande gcloud secrets create
:
printf '{
"accessKeyId": "AWS_ACCESS_KEY_ID",
"secretAccessKey": "AWS_SECRET_ACCESS_KEY"
}' | gcloud secrets create SECRET_NAME --data-file=-
Récupérez le nom de ressource complet du secret :
gcloud secrets describe SECRET_NAME
Notez la valeur de name
dans la réponse. Il utilise le format suivant:
projects/1234567890/secrets/SECRET_NAME
Pour en savoir plus sur la création et la gestion des secrets, consultez Documentation Secret Manager
Transmettre votre secret à la commande de création de tâche
Utiliser Secret Manager avec Le service de transfert de stockage nécessite l'utilisation de l'API REST pour créer un job de transfert.
Transmettez le nom de ressource Secret Manager en tant que valeur du paramètre
Champ transferSpec.awsS3DataSource.credentialsSecret
:
POST https://storagetransfer.googleapis.com/v1/transferJobs
{
"description": "Transfer with Secret Manager",
"status": "ENABLED",
"projectId": "PROJECT_ID",
"transferSpec": {
"awsS3DataSource": {
"bucketName": "AWS_BUCKET_NAME",
"credentialsSecret": "SECRET_RESOURCE_ID",
},
"gcsDataSink": {
"bucketName": "CLOUD_STORAGE_BUCKET_NAME"
}
}
}
S'authentifier à l'aide d'une identité fédérée
Pour utiliser l'identité fédérée afin de vous authentifier auprès d'AWS:
Créez un rôle IAM dans AWS.
Sélectionnez Règle de confiance personnalisée comme type d'entité de confiance.
Copiez et collez la stratégie de confiance suivante :
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Federated": "accounts.google.com" }, "Action": "sts:AssumeRoleWithWebIdentity", "Condition": { "StringEquals": { "accounts.google.com:sub": "SUBJECT_ID" } } } ] }
Remplacez SUBJECT_ID par le
subjectID
du compte de service géré par Google créé automatiquement lorsque vous commencez à utiliser le service de transfert de stockage. Pour récupérer lesubjectID
:Accédez à la page de référence
googleServiceAccounts.get
.Un panneau interactif s'affiche, intitulé Essayer cette méthode.
Dans le panneau, sous Paramètres des requêtes, saisissez votre ID de projet. Le projet que vous spécifiez ici doit être le projet que vous utilisez pour gérer le service de transfert de stockage.
Cliquez sur Exécuter. Le
subjectId
est inclus dans la réponse.
Accordez l'une des stratégies d'autorisation suivantes au rôle:
- AmazonS3ReadOnlyAccess fournit un accès en lecture seule à la source. Cela permet les transferts, mais ne permet pas de supprimer des objets à la source une fois le transfert terminé.
- AmazonS3FullAccess si votre transfert est configuré pour supprimer des objets à la source.
Un rôle personnalisé disposant des autorisations appropriées Autorisations requises ci-dessus. JSON pour les autorisations minimales se présentent comme suit:
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::AWS_BUCKET_NAME/*", "arn:aws:s3:::AWS_BUCKET_NAME" ] } ] }
Attribuez un nom au rôle et créez-le.
Une fois le rôle créé, affichez les détails du rôle pour récupérer le nom de ressource Amazon (ARN). Notez cette valeur. Elle a le format
arn:aws:iam::AWS_ACCOUNT:role/ROLE_NAME
.
Transmettre l'ARN au service de transfert de stockage dépend de l'interface que vous utilisez pour initier le transfert.
Cloud Console
Saisissez l'ARN directement dans le formulaire de création de tâche de transfert.
Pour commencer, consultez la page Créer des transferts.
CLI gcloud
Créez un fichier JSON au format suivant :
{
"roleArn": "ARN"
}
Transmettez l'emplacement du fichier à la commande gcloud transfer jobs create
à l'aide de l'option source-creds-file
:
gcloud transfer jobs create s3://S3_BUCKET_NAME gs://GCS_BUCKET_NAME \
--source-creds-file=PATH/TO/ARNFILE.JSON
API REST
Votre objet transferSpec
doit contenir les informations ARN dans le cadre de
l'objet awsS3DataSource
:
"transferSpec": {
"awsS3DataSource": {
"bucketName": "AWS_SOURCE_NAME",
"roleArn": "ARN"
},
"gcsDataSink": {
"bucketName": "GCS_SINK_NAME"
}
}
Bibliothèques clientes
Consultez les exemples Créer des transferts
Restrictions d'adresses IP
Si votre projet AWS utilise des restrictions d'adresses IP pour l'accès au stockage, vous devez ajouter les plages d'adresses IP utilisées par les nœuds de calcul du service de transfert de stockage à votre liste d'adresses IP autorisées.
Étant donné que ces plages d'adresses IP peuvent changer, nous publions les valeurs actuelles sous forme de fichier JSON à une adresse permanente :
https://www.gstatic.com/storage-transfer-service/ipranges.json
Lorsqu'une nouvelle plage est ajoutée au fichier, nous attendons au moins sept jours avant de l'utiliser pour les requêtes du service de transfert de stockage.
Nous vous recommandons d'extraire des données de ce document au moins une fois par semaine pour mettre à jour votre configuration de sécurité. Pour un exemple de script Python qui extrait des plages d'adresses IP d'un fichier JSON, consultez cet article sur le cloud privé virtuel, documentation.
Pour ajouter ces plages en tant qu'adresses IP autorisées, utilisez le champ Condition
dans une stratégie de bucket, comme décrit dans la documentation AWS S3 : Gérer l'accès en fonction d'adresses IP spécifiques.