本页介绍了如何创建和启动从 Amazon S3 到 Cloud Storage 的转移作业。
配置权限
创建转移作业之前,您必须在 Amazon S3 上配置权限 存储桶。如需了解详情,请参阅配置对来源的访问权限:Amazon S3。
您还必须配置以下各项的权限 Google Cloud 实体:
用于创建转移的用户账号。这是登录 Google Cloud 控制台的账号,或在对 `gcloud` CLI 进行身份验证时指定的账号。用户账号可以是普通用户账号,也可以是用户管理的服务账号。 | |
Storage Transfer Service 使用的 Google 管理的服务账号(也称为服务代理)。此账号通常由其电子邮件地址标识,该地址采用 project-PROJECT_NUMBER@storage-transfer-service.iam.gserviceaccount.com 格式。
|
请参阅 无代理转移权限: 操作说明。
出站流量选项
Storage Transfer Service 提供了多种将 S3 数据转移到 Cloud Storage 的方法。
出站选项 | 说明 |
---|---|
默认无代理 | 此选项使用代管式无代理转移
从 S3 开始。Amazon 向您收取出站流量费用。
请按照本页中的说明使用此选项。 |
CloudFront 分布 | 使用 Amazon CloudFront 分发作为出站流量路径。与直接从 S3 转移数据相比,通过 CloudFront 转移数据可能会降低 AWS 出站流量费用。请参阅
CloudFront 价格和 S3 出站流量费用
了解详情。
按照通过 CloudFront 从 S3 转移中的说明设置您的分发内容并创建转移作业。 |
代管式专用网络 | 通过 Google 管理的网络传输数据。您无需支付 S3 出站流量费用
charges;而是按每 GiB 的费率付费
Google Cloud请参阅价格
页面了解详情。您可能仍需向 AWS 支付操作费用(例如LIST 或 GET
calls);如需了解详情,请参阅其定价。
所有项目的通过代管式专用网络共享 带宽相同在使用量较高时,传输速度可能会变慢。包含大型文件的传输受到的影响大于 处理小文件。 请按照本页面上的说明使用此选项。在 Google Cloud 控制台中指定受管私有网络选项,或在 REST API 中指定 managedPrivateNetwork 字段。gcloud CLI
和客户端库不支持代管式专用网络
传输。请参阅支持的区域。 |
由客服人员主导 | 适用于所有与 S3 兼容的存储,包括 Amazon S3。通过在有权访问 S3 存储桶的机器上安装代理软件,您可以控制网络路径和带宽。此选项需要代理
和代理池
请按照以下网址中的说明操作: 从 S3 兼容的来源转移以供使用 此选项。 |
支持的区域
Storage Transfer Service 支持以下 Amazon S3 区域:
af-south-1 ap-east-1 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 |
ap-southeast-4 ca-central-1 ca-west-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2
|
eu-west-3 il-central-1 me-central-1 me-south-1 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2
|
us-east-1 us-east-2 us-west-1 us-west-2 ca-west-1 ca-central-1 |
转移选项
以下 Storage Transfer Service 功能适用于从 S3 到 Cloud Storage 的转移
- 使用清单转移特定文件
- 您可以传递一系列文件,以供 Storage Transfer Service 进行处理。请参阅 转移特定文件或 对象。
- 指定存储类别
- 您可以指定
Cloud Storage 存储类别,用于目标位置的数据
存储桶。如需了解 REST 详情,请参阅
StorageClass
选项;如需使用 Google Cloud CLI,请使用--custom-storage-class
标志。请注意,如果目标存储桶启用了 Autoclass,系统会忽略所有存储类别设置。如果启用了 Autoclass,则转移到存储桶中的对象最初会设为 Standard Storage。
- 元数据保留
-
从 S3 转移文件时,Storage Transfer Service 可以选择将某些属性保留为自定义元数据。
如需详细了解可以保留哪些元数据以及如何配置转移,请参阅元数据保留的 Amazon S3 到 Cloud Storage 部分。
- 事件驱动型转移
- Storage Transfer Service 可以监听发送到 Amazon SQS 的 Amazon S3 事件通知,以自动转移在源位置添加或更新的数据。请参阅 事件驱动型 传输。
- 日志记录和监控
- 可以在 Cloud Logging 中查看来自 S3 的转移作业, Cloud Monitoring。如需了解详情,请参阅适用于 Storage Transfer Service 的 Cloud Logging 和监控转移作业。你还可以 Pub/Sub 通知。
创建转移作业
Storage Transfer Service 提供了多种接口,通过这些接口 。
请勿在转移作业名称中包含敏感信息,例如个人身份信息 (PII) 或安全数据。资源名称可能会传播到其他 Google Cloud 资源的名称,并且可能会向您项目之外的 Google 内部系统公开。
Google Cloud 控制台
转到 Google Cloud 控制台中的 Storage Transfer Service 页面。
点击创建转移作业。 系统随即会显示创建转移作业页面。
在来源类型下,选择 Amazon S3。
选择 Google Cloud Storage 作为目标类型。
选择时间安排模式。批量转移是一次性或按计划执行的。事件驱动型转移会持续监控来源,并在添加或修改数据时转移数据。
如需配置事件驱动型转移,请按照事件驱动型转移中的说明操作。
点击下一步。
在存储桶或文件夹名称字段中,输入数据源存储桶名称。
存储分区名称是其在 AWS 管理控制台中显示的名称。
如果您使用 CloudFront 发行版从 S3 传输数据, 在 CloudFront 网域中输入分发域名 字段。例如
https://dy1h2n3l4ob56.cloudfront.net
。请参阅 通过 CloudFront 从 S3 转移 来配置 CloudFront 分发。如需使用托管的专用网络进行此传输,请选中相应复选框。如需了解详情,请参阅出站流量选项。
选择 Amazon Web Services (AWS) 身份验证方法。请参阅 如需了解详情,请配置对来源:Amazon S3 的访问权限。
访问密钥:在访问密钥 ID 字段中输入访问密钥,在私有访问密钥字段中输入与访问密钥关联的 Secret。
身份联合的 AWS IAM 角色:在 AWS IAM 角色 ARN 字段,使用如下语法:
arn:aws:iam::ACCOUNT:role/ROLE-NAME-WITH-PATH
其中:
ACCOUNT
:无连字符的 AWS 账号 ID。ROLE-NAME-WITH-PATH
:AWS 角色名称,包括路径。
如需详细了解 ARN,请参阅 IAM ARN。
Secret 资源:选择此选项可使用 Amazon 凭据 保存在 Secret Manager 中。从列表中选择一个 Secret,或 请手动输入一个
projects/PROJECT_NUMBER/secrets/SECRET_NAME
。
如果是事件驱动型转移,请输入 Amazon SQS 队列 ARN,格式如下:
arn:aws:sqs:us-east-1:1234567890:event-queue
- (可选)选择
按前缀过滤对象
或按上次修改日期排序。如果您将文件夹指定为来源位置,请使用前缀过滤条件
所有文件例如,如果您的来源是
my-test-bucket/path/
, “file
”的“包含”过滤器包含符合以下条件的所有文件:my-test-bucket/path/file
。 点击下一步。
在存储桶或文件夹字段中,输入目标存储桶以及(可选)文件夹名称,或点击浏览从当前项目的现有存储桶列表中选择一个存储桶。如需创建新存储桶,请点击 创建新存储桶。
点击下一步。
为转移作业选择设置。
在说明字段中,输入转移作业的说明。最佳做法是输入有意义且唯一的说明,以便区分作业。
在元数据选项下,您可以选择使用默认选项,也可以点击查看和选择选项为所有受支持的元数据指定值。如需了解详情,请参阅元数据保留。
在何时覆盖下,选择以下选项之一:
如果不同:如果同名的源文件具有不同的 ETag 或校验和值,则覆盖目标文件。
始终:当源文件同名时,即使源文件相同,也始终覆盖目标文件。
在何时删除下,选择以下选项之一:
永不:永不从源或目标中删除文件。
在转移文件后从数据源删除文件:将文件转移到目标位置后,从数据源中删除文件。
如果文件不在数据源中则从目标位置删除文件:如果目标 Cloud Storage 存储桶中的文件也不在数据源中,则从 Cloud Storage 存储桶中删除文件。
此选项可确保目标 Cloud Storage 存储桶与您的数据源完全匹配。
在通知选项下,选择 Pub/Sub 主题以及要通知的事件。如需了解详情,请参阅 Pub/Sub 通知。
点击下一步。
选择时间安排选项:
从运行一次下拉列表中,选择以下选项之一:
运行一次:从您选择的时间开始运行一次转移作业。
每天运行:每天从您选择的时间开始,每天运行转移作业。
您可以输入可选的结束日期,或者将结束日期留空以持续运行转移作业。
每周运行:从您选择的时间开始,每周运行一次转移作业。
按自定义频率运行:按您选择的频率运行转移作业。您可以选择按照小时、天或周的固定间隔来重复运行转移作业。
您可以输入可选的结束日期,或者将结束日期留空以持续运行转移作业。
从立即开始下拉列表中,选择以下选项之一:
立即开始:点击创建后开始转移作业。
开始日期:在您选择的日期和时间开始转移作业。点击日历,以显示一个日历来选择开始日期。
要创建转移作业,请点击创建。
gcloud CLI
如需创建新的转移作业,请使用 gcloud transfer jobs create
命令。除非指定了时间表或 --do-not-run
,否则创建新作业时会启动指定的转移作业。
gcloud CLI 不支持通过 CloudFront 或托管的专用网络进行转移。
gcloud transfer jobs create \
s3://S3_BUCKET_NAME gs://STORAGE_BUCKET_NAME \
--source-creds-file="relative_path/to/creds.json"
其中:
S3_BUCKET_NAME 是此转移作业的数据源。您可以 (可选)添加路径:
s3://S3_BUCKET_NAME/S3_FOLDER_PATH
STORAGE_BUCKET_NAME 是要转移的 Cloud Storage 存储桶 。如需转移到特定目录,请指定
gs://STORAGE_BUCKET_NAME/STORAGE_FOLDER_PATH/
,包括尾部斜杠。--source-creds-file
指定本地文件的相对路径, 该机器包含转移来源的 AWS 凭据。内容必须采用以下 JSON 格式:{ "accessKeyId": string, "secretAccessKey": string }
其他选项包括:
--do-not-run
可阻止 Storage Transfer Service 在提交命令后运行作业。如需运行作业,请更新作业以添加时间表,或使用jobs run
来手动启动作业。--manifest-file
指定 Cloud Storage 中 CSV 文件的路径,该文件包含要从来源转移的文件的列表。如需了解清单文件的格式,请参阅使用清单转移特定文件或对象。作业信息:您可以指定
--name
和--description
。时间表:您可以指定
--schedule-starts
、--schedule-repeats-every
和--schedule-repeats-until
或--do-not-run
。对象条件:您可以使用条件确定要转移的对象。这些条件包括
--include-prefixes
和--exclude-prefixes
以及--include-modified-[before | after]-[absolute | relative]
中基于时间的条件。 如果您为源代码指定了文件夹,则前缀过滤器相对于该文件夹。如需了解详情,请参阅按前缀过滤源对象。转移选项:指定是否覆盖目标文件(
--overwrite-when=different
或always
),以及是否要在转移过程中或之后删除某些文件(--delete-from=destination-if-unique
或source-after-transfer
);指定要保留的元数据值 (--preserve-metadata
);(可选)为转移的对象设置存储类别 (--custom-storage-class
)。通知:使用
--notification-pubsub-topic
、--notification-event-types
和--notification-payload-format
为转移作业配置 Pub/Sub 通知。Cloud Logging:使用
--log-actions
和--log-action-states
启用 Cloud Logging。如需了解详情,请参阅适用于 Storage Transfer Service 的 Cloud Logging。
如需查看所有选项,请运行 gcloud transfer jobs create --help
或参阅 gcloud
参考文档。
REST
以下示例展示了如何通过 REST API 使用 Storage Transfer Service。
使用 Storage Transfer Service API 配置或编辑转移作业时,必须采用世界协调时间 (UTC)。如需详细了解如何指定转移作业的时间表,请参阅时间表。
创建转移作业时,请勿在 Amazon S3 存储桶来源名称中为 bucketName
添加 s3://
前缀。
无代理转移
以下示例使用标准无代理配置创建转移作业。如需了解详情,请参阅 transferJobs.create 参考文档。
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "transferSpec": { "awsS3DataSource": { "bucketName": "AWS_SOURCE_NAME", "awsAccessKey": { "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" } }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
如需了解其他身份验证选项,请参阅配置对来源的访问权限:Amazon S3。
CloudFront 分布
如果您要通过 CloudFront 分发从 S3 传输,请将分发域名指定为 transferSpec.awsS3DataSource.cloudfrontDomain
字段的值:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "transferSpec": { "awsS3DataSource": { "bucketName": "AWS_SOURCE_NAME", "cloudfrontDomain": "https://dy1h2n3l4ob56.cloudfront.net", "awsAccessKey": { "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" } }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
代管式专用网络
如需使用 Google 管理的专用网络从 S3 进行转移,请指定
transferSpec.awsS3DataSource.managedPrivateNetwork
字段:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "transferSpec": { "awsS3DataSource": { "bucketName": "AWS_SOURCE_NAME", "managedPrivateNetwork": TRUE, "awsAccessKey": { "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" } }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
客户端库
以下示例展示了如何通过 Go、Java、Node.js 和 Python 以编程方式使用 Storage Transfer Service。
以编程方式配置或修改转移作业时,必须采用世界协调时间 (UTC)。如需详细了解如何指定转移作业的时间表,请参阅时间表。
如需详细了解 Storage Transfer Service 客户端库,请参阅 Storage Transfer Service 客户端库使用入门。
将数据从 Amazon S3 传输到 Cloud Storage
本示例演示了如何将文件从 Amazon S3 移至 Cloud Storage 存储桶。
创建转移作业时,请勿在 Amazon S3 存储桶来源名称中为 bucketName
添加 s3://
前缀。
Storage Transfer Service 客户端库不支持通过 CloudFront 或托管专用网络进行传输。
Go
Java
想要寻找较早的示例?请参阅 Storage Transfer Service 迁移指南。
Node.js
Python
想要寻找较早的示例?请参阅 Storage Transfer Service 迁移指南。