Auf dieser Seite erfahren Sie, wie Sie Übertragungsjobs erstellen und starten Amazon S3 zu Cloud Storage.
Berechtigungen konfigurieren
Bevor Sie eine Übertragung erstellen, müssen Sie Berechtigungen auf Ihrem Amazon S3 konfigurieren Bucket. Weitere Informationen finden Sie unter Zugriff auf eine Quelle konfigurieren: Amazon S3.
Außerdem müssen Sie Berechtigungen für Folgendes konfigurieren: Google Cloud-Entitäten:
Das Nutzerkonto, mit dem die Übertragung erstellt wird. Dies ist die das in der Google Cloud Console angemeldet ist, oder das Konto, die bei der Authentifizierung bei der gcloud-Befehlszeile angegeben wird. Das Nutzerkonto kann ein normales Nutzerkonto oder ein vom Nutzer verwaltetes Dienstkonto sein. | |
Das von Google verwaltete Dienstkonto, auch als Dienst bezeichnet
Agent, der vom Storage Transfer Service verwendet wird. Dieses Konto ist im Allgemeinen durch
seine E-Mail-Adresse, die das Format
project-PROJECT_NUMBER@storage-transfer-service.iam.gserviceaccount.com
|
Weitere Informationen finden Sie unter Übertragungsberechtigungen ohne Agent für Anleitung.
Optionen für ausgehenden Traffic
Storage Transfer Service bietet mehrere Optionen zum Übertragen Ihrer S3-Daten zu Cloud Storage hinzufügen.
Option für ausgehenden Traffic | Beschreibung |
---|---|
Standardmäßig ohne Agent | Für diese Option wird eine verwaltete Übertragung ohne Agent verwendet
von S3. Ausgehender Traffic wird Ihnen von Amazon in Rechnung gestellt.
Folgen Sie dazu der Anleitung auf dieser Seite. Option. |
CloudFront-Distribution | Amazon CloudFront-Distribution als ausgehenden Traffic verwenden
Pfad. Datenübertragungen über CloudFront können
niedrigeren Kosten für ausgehenden AWS-Traffic im Vergleich zu
direkt von S3 übertragen. Weitere Informationen finden Sie unter
CloudFront-Preise und Gebühren für ausgehenden S3-Traffic
.
Folgen Sie dazu der Anleitung unter Von S3 über CloudFront übertragen und eine Übertragung erstellen. |
Verwaltetes privates Netzwerk | Übertragen Sie Ihre Daten über eine von Google verwaltete
Netzwerk. Sie zahlen keinen S3-Ausgang
charges; zahlen Sie einen Preis pro GiB,
Google Cloud Weitere Informationen finden Sie unter Preise.
. Dir werden möglicherweise weiterhin Kosten in Rechnung gestellt
Betriebsgebühren von AWS (z.B. LIST oder GET ) an. Weitere Informationen finden Sie in den Preislisten der jeweiligen Anbieter.
Alle Projekte Übertragungen über die verwaltete private Netzwerkfreigabe dieselbe Bandbreite haben. In Zeiten hoher Auslastung kann die Übertragung langsam ist. Übertragungen mit großen Dateien sind stärker betroffen als diese mit kleinen Dateien. Folgen Sie der Anleitung auf dieser Seite, um diese Option zu verwenden. Definieren in der Google Cloud Console über die Option Verwaltetes privates Netzwerk oder Das Feld managedPrivateNetwork in der REST API Die gcloud CLI
und Clientbibliotheken unterstützen kein verwaltetes privates Netzwerk
Übertragungen. Weitere Informationen finden Sie in der
unterstützten Regionen. |
Vom Kundenservicemitarbeiter gesteuert | Gültig für alle S3-kompatiblen Speicher, einschließlich Amazon S3. Von
Installation der Agent-Software auf Computern mit Zugriff
zu Ihren S3-Buckets hinzufügen, können Sie
Pfad und Bandbreite. Für diese Option sind Kundenservicemitarbeiter erforderlich
und Agent-Pools.
Befolgen Sie die Anweisungen unter Zur Verwendung aus S3-kompatiblen Quellen übertragen für diese Option. |
Unterstützte Regionen
Storage Transfer Service unterstützt die folgenden Amazon S3-Regionen:
af-south-1 ap-east-1 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 |
ap-southeast-4 ca-central-1 ca-west-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2
|
eu-west-3 il-central-1 me-central-1 me-south-1 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2
|
Übertragungen über das verwaltete private Netzwerk unterstützen die folgenden AWS-Regionen:
us-east-1 us-east-2 us-west-1 us-west-2 ca-west-1 ca-central-1 |
Übertragungsoptionen
Die folgenden Storage Transfer Service-Features sind für Übertragungen von S3 zu Cloud Storage
- Bestimmte Dateien mithilfe eines Manifests übertragen
- Sie können eine Liste von Dateien übergeben, die Storage Transfer Service verarbeitet. Weitere Informationen finden Sie unter Bestimmte Dateien oder Objekte mithilfe eines Manifests.
- Speicherklasse angeben
- Sie können die
Cloud Storage-Speicherklasse zur Verwendung für Ihre Daten im Ziel
Bucket. Weitere Informationen finden Sie in der
StorageClass
-Optionen für REST-Details oder die--custom-storage-class
-Flag mit der Google Cloud CLI.Alle Einstellungen für Speicherklassen werden ignoriert, Für den Bucket ist Autoclass aktiviert. Wenn Autoclass ist aktiviert. Objekte, die in den Bucket übertragen werden, werden zuerst auf „Standard Storage“ eingestellt ist.
- Metadaten beibehalten
-
Wenn Sie Dateien aus S3 übertragen, kann Storage Transfer Service optional bestimmte Attribute als benutzerdefinierte Metadaten beibehalten.
Weitere Informationen finden Sie im Abschnitt Amazon S3 zu Cloud Storage Beibehaltung von Metadaten mit Details dazu, welche Metadaten beibehalten werden und wie Sie die Übertragung konfigurieren.
- Ereignisgesteuerte Übertragungen
- Storage Transfer Service kann Amazon S3-Ereignisbenachrichtigungen überwachen, die an Amazon SQS zur automatischen Übertragung von Daten, die hinzugefügt oder aktualisiert wurden am Quellspeicherort befinden. Weitere Informationen finden Sie unter Ereignisgesteuert .
- Logging und Monitoring
- Übertragungen von S3 können in Cloud Logging und Cloud Monitoring angezeigt werden. Weitere Informationen finden Sie unter Cloud Logging für Storage Transfer Service und Übertragung überwachen finden. Sie können auch Pub/Sub Benachrichtigungen.
Übertragung erstellen
Storage Transfer Service bietet mehrere Schnittstellen zum Erstellen eines übertragen werden.
Geben Sie keine vertraulichen Daten wie personenidentifizierbare Informationen an (PII) oder Sicherheitsdaten in den Namen des Übertragungsjobs ein. Ressourcennamen können an die Namen anderer Google Cloud-Ressourcen weitergegeben und Google-internen Systemen außerhalb Ihres Projekts zu implementieren.
Google Cloud Console
Rufen Sie in der Google Cloud Console die Seite Storage Transfer Service auf.
Klicken Sie auf Übertragung erstellen. Die Seite Übertragungsjob erstellen wird angezeigt.
Wählen Sie unter Quelltyp die Option Amazon S3 aus.
Wählen Sie als Zieltyp Google Cloud Storage aus.
Wählen Sie den Planungsmodus aus. Batch-Übertragungen werden auf einer einmalig oder planmäßig durchgeführt. Kontinuierliche ereignisgesteuerte Übertragungen die Quelle überwachen und Daten übertragen, wenn sie hinzugefügt oder geändert werden.
Um eine ereignisgesteuerte Übertragung zu konfigurieren, folgen Sie der Anleitung unter Ereignisgesteuerte Übertragungen:
Klicken Sie auf Nächster Schritt.
Geben Sie im Feld Bucket- oder Ordnername den Quell-Bucket ein. Namen.
Der Bucket-Name ist der Name, der in der AWS Management Console angezeigt wird.
Wenn Sie eine CloudFront-Distribution für die Übertragung von S3 verwenden, geben Sie den Domainnamen der Distribution in das Feld CloudFront-Domain ein. Beispiel:
https://dy1h2n3l4ob56.cloudfront.net
. Weitere Informationen finden Sie unter Übertragung von S3 über CloudFront um eine CloudFront-Distribution zu konfigurieren.Wenn Sie für diese Übertragung ein verwaltetes privates Netzwerk verwenden möchten, wählen Sie das . Weitere Informationen finden Sie unter Optionen für ausgehenden Traffic.
Wählen Sie Ihre AWS-Authentifizierungsmethode (Amazon Web Services) aus. Weitere Informationen finden Sie unter Konfigurieren Sie den Zugriff auf eine Quelle: Amazon S3.
Zugriffsschlüssel: Geben Sie Ihren Zugriffsschlüssel in das Feld Zugriffsschlüssel-ID und das Secret, das Ihrem Zugriffsschlüssel zu geordnet ist, im Feld Secret-Zugriffsschlüssel ein.
AWS-IAM-Rolle für Identitätsföderation: Geben Sie Ihren ARN in das Feld AWS IAM-Rolle ARN mit der folgenden Syntax:
arn:aws:iam::ACCOUNT:role/ROLE-NAME-WITH-PATH
Wobei:
ACCOUNT
: Die AWS-Konto-ID ohne Bindestriche.ROLE-NAME-WITH-PATH
: Der Name der AWS-Rolle, einschließlich des Pfads.
Weitere Informationen zu ARNs finden Sie unter IAM-ARNs.
Secret-Ressource: Wählen Sie diese Option aus, um Amazon-Anmeldedaten zu verwenden. in Secret Manager gespeichert. Wählen Sie ein Secret aus der Liste aus oder geben Sie eins manuell im Format
projects/PROJECT_NUMBER/secrets/SECRET_NAME
ein.
Wenn es sich um eine ereignisgesteuerte Übertragung handelt, geben Sie den ARN der Amazon SQS-Warteschlange ein. Dieser muss das folgende Format haben:
arn:aws:sqs:us-east-1:1234567890:event-queue
- Optional können Sie Objekte nach Präfix oder nach dem Datum der letzten Änderung filtern. Wenn Sie einen Ordner als Quellspeicherort angegeben haben, werden Präfixfilter verwendet.
relativ zu diesem Ordner. Wenn Ihre Quelle beispielsweise
my-test-bucket/path/
ist, wird ein Der Einschließen-Filter vonfile
enthält alle Dateien, die mit beginnenmy-test-bucket/path/file
Klicken Sie auf Nächster Schritt.
Geben Sie im Feld Bucket oder Ordner den Ziel-Bucket und optional den Ordnernamen ein. Sie können auch auf Durchsuchen klicken, um einen Bucket aus einer Liste der vorhandenen Buckets im aktuellen Projekt auszuwählen. Klicken Sie zum Erstellen eines neuen Buckets auf Neuen Bucket erstellen.
Klicken Sie auf Next step (Nächster Schritt).
Wählen Sie die Einstellungen für den Übertragungsjob aus.
Geben Sie im Feld Beschreibung eine Beschreibung der Übertragung ein. Geben Sie als Best Practice eine aussagekräftige Beschreibung ein, damit Sie die Jobs unterscheiden können.
Wählen Sie unter Metadatenoptionen die Standardoptionen aus oder klicken Sie auf Optionen auswählen und auswählen, um Werte für alle unterstützten Metadaten anzugeben. Weitere Informationen finden Sie unter Metadatenaufbewahrung.
Wählen Sie unter Wann überschreiben? eine der folgenden Optionen aus:
Falls unterschiedlich: Überschreibt Zieldateien, wenn die Quelldatei mit demselben Namen unterschiedliche ETags oder Prüfsummenwerte hat.
Immer: Zieldateien werden immer geschrieben, wenn die Quelldatei denselben Namen hat, auch wenn sie identisch sind.
Wählen Sie unter Löschzeitpunkt eine der folgenden Optionen aus:
Nie: Dateien werden niemals aus der Quelle oder dem Ziel gelöscht.
Datei nach der Übertragung aus der Quelle löschen: Dateien werden aus der Quelle gelöscht, nachdem sie an das Ziel übertragen wurden.
Dateien aus dem Ziel löschen, wenn sie nicht auch in der Quelle sind: Wenn sich Dateien im Cloud Storage-Ziel-Bucket nicht auch in der Quelle befinden, löschen Sie die Dateien aus dem Cloud Storage-Bucket.
Mit dieser Option wird sichergestellt, dass der Cloud Storage-Ziel-Bucket genau mit Ihrer Quelle übereinstimmt.
Wählen Sie unter Benachrichtigungsoptionen Ihr Pub/Sub-Thema und die Ereignisse aus, die Sie benachrichtigen möchten. Weitere Informationen finden Sie unter Pub/Sub-Benachrichtigungen.
Klicken Sie auf Nächster Schritt.
Wählen Sie die gewünschten Zeitplanoptionen aus:
Wählen Sie in der Drop-down-Liste Einmal ausführen eine der folgenden Optionen aus:
Einmal ausführen: Führt eine einzelne Übertragung aus, beginnend zu einem von Ihnen ausgewählten Zeitpunkt.
Täglich ausführen: Führt jeden Tag eine Übertragung zu einem von Ihnen ausgewählten Zeitpunkt aus.
Sie können ein optionales Enddatum eingeben oder das Enddatum beibehalten. leer, um die Übertragung kontinuierlich auszuführen.
Jede Woche ausführen: Die Übertragung wird wöchentlich gestartet, wobei die Übertragung jeweils beginnt. die Sie auswählen.
Mit benutzerdefinierter Frequenz ausführen: Führt eine Übertragung mit der von Ihnen ausgewählten Häufigkeit wird aus. Sie können die Übertragung in regelmäßigen Abständen gemessen in Stunden, Tagen oder Wochen wiederholen.
Sie können ein optionales Enddatum eingeben oder das Enddatum beibehalten. leer, um die Übertragung kontinuierlich auszuführen.
Wählen Sie in der Drop-down-Liste Jetzt starten eine der folgenden Optionen aus:
Jetzt starten: Damit wird die Übertragung gestartet, nachdem Sie auf Erstellen geklickt haben.
Ab dem: Die Übertragung wird an dem ausgewählten Datum und zur ausgewählten Uhrzeit gestartet. Klicken Sie auf Kalender, um einen Kalender anzuzeigen, in dem Sie den Startdatum.
Klicken Sie zum Erstellen des Übertragungsjobs auf Erstellen.
gcloud-CLI
Verwenden Sie zum Erstellen eines neuen Übertragungsjobs den Befehl gcloud transfer jobs create
. Das Erstellen eines neuen Jobs initiiert die angegebene Übertragung, sofern weder ein Zeitplan noch --do-not-run
angegeben ist.
Die gcloud CLI unterstützt keine Übertragungen über CloudFront- oder verwaltetes privates Netzwerk.
gcloud transfer jobs create \
s3://S3_BUCKET_NAME gs://STORAGE_BUCKET_NAME \
--source-creds-file="relative_path/to/creds.json"
Wobei:
S3_BUCKET_NAME ist die Datenquelle für diese Übertragung. Sie können optional einen Pfad enthalten:
s3://S3_BUCKET_NAME/S3_FOLDER_PATH
STORAGE_BUCKET_NAME ist der zu übertragende Cloud Storage-Bucket. in die Sie hineinversetzen können. Geben Sie zum Übertragen in ein bestimmtes Verzeichnis
gs://STORAGE_BUCKET_NAME/STORAGE_FOLDER_PATH/
an, einschließlich des abschließenden Schrägstrichs.--source-creds-file
gibt den relativen Pfad zu einer lokalen Datei auf Ihrem Computer mit AWS-Anmeldedaten für die Übertragungsquelle. Inhalt muss das folgende JSON-Format haben:{ "accessKeyId": string, "secretAccessKey": string }
Weitere Optionen:
--do-not-run
verhindert, dass Storage Transfer Service nach dem Senden des Befehls den Job ausführt. Zum Ausführen des Jobs aktualisieren Sie ihn, um einen Zeitplan hinzuzufügen, oder verwendenjobs run
, um ihn manuell zu starten.--manifest-file
gibt den Pfad zu einer CSV-Datei in Cloud Storage an, die eine Liste der Dateien enthält, die von Ihrer Quelle übertragen werden sollen. Informationen zur Formatierung von Manifestdateien finden Sie unter Bestimmte Dateien oder Objekte mithilfe eines Manifests übertragen.Jobinformationen: Sie können
--name
und--description
angeben.Zeitplan: Geben Sie
--schedule-starts
,--schedule-repeats-every
und--schedule-repeats-until
oder--do-not-run
an.Objektbedingungen: Mit Bedingungen können Sie bestimmen, welche Objekte übertragen werden. Dazu gehören
--include-prefixes
und--exclude-prefixes
sowie die zeitbasierten Bedingungen in--include-modified-[before | after]-[absolute | relative]
. Wenn Sie einen Ordner mit Ihrer Quelle angegeben hat, sind Präfixfilter relativ zu diesem Ordner. Weitere Informationen finden Sie unter Quellobjekte nach Präfix filtern. Informationen.Übertragungsoptionen: Bestimmen Sie, ob Zieldateien überschrieben werden sollen (
--overwrite-when=different
oderalways
) und ob bestimmte Dateien während oder nach der Übertragung gelöscht werden sollen (--delete-from=destination-if-unique
odersource-after-transfer
); welche Metadatenwerte beibehalten werden (--preserve-metadata
); und legen Sie optional eine Speicherklasse für übertragene Objekte fest (--custom-storage-class
).Benachrichtigungen: Konfigurieren Sie Pub/Sub-Benachrichtigungen für Übertragungen mit
--notification-pubsub-topic
,--notification-event-types
und--notification-payload-format
.Cloud Logging: Aktivieren Sie Cloud Logging mit
--log-actions
und--log-action-states
. Weitere Informationen finden Sie unter Cloud Logging für Storage Transfer Service .
Führen Sie gcloud transfer jobs create --help
aus oder sehen Sie sich die gcloud
-Referenzdokumentation an, um alle Optionen aufzurufen.
REST
In den folgenden Beispielen wird gezeigt, wie Sie Storage Transfer Service über die REST verwenden. der API erstellen.
Wenn Sie Übertragungsjobs mit der Methode Storage Transfer Service API verwenden möchten, muss die Zeit in UTC angegeben werden. Weitere Informationen zu Angabe des Zeitplans eines Übertragungsjobs finden Sie unter Zeitplan:
Geben Sie beim Erstellen von Übertragungsjobs nicht das Präfix s3://
für
bucketName
in Amazon S3-Bucket-Quellnamen.
Übertragung ohne Agent
Im folgenden Beispiel wird ein Übertragungsjob mit dem standardmäßigen Agent ohne Agent erstellt. Konfiguration. Weitere Informationen finden Sie in der transferJobs.create finden Sie weitere Informationen.
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "transferSpec": { "awsS3DataSource": { "bucketName": "AWS_SOURCE_NAME", "awsAccessKey": { "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" } }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
Weitere Informationen finden Sie unter Zugriff auf eine Quelle konfigurieren: Amazon S3 finden Sie weitere Authentifizierungsoptionen.
CloudFront-Distribution
Wenn Sie Daten von S3 über eine CloudFront-Distribution übertragen möchten, geben Sie
den Namen der Verteilungsdomain als Wert des
Feld transferSpec.awsS3DataSource.cloudfrontDomain
:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "transferSpec": { "awsS3DataSource": { "bucketName": "AWS_SOURCE_NAME", "cloudfrontDomain": "https://dy1h2n3l4ob56.cloudfront.net", "awsAccessKey": { "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" } }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
Verwaltetes privates Netzwerk
Geben Sie für die Übertragung von S3 über ein von Google verwaltetes privates Netzwerk die
Feld transferSpec.awsS3DataSource.managedPrivateNetwork
:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "transferSpec": { "awsS3DataSource": { "bucketName": "AWS_SOURCE_NAME", "managedPrivateNetwork": TRUE, "awsAccessKey": { "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" } }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
Clientbibliotheken
Die folgenden Beispiele zeigen, wie Sie Storage Transfer Service programmatisch verwenden können mit Go, Java, Node.js und Python.
Wenn Sie Übertragungsjobs programmatisch konfigurieren oder bearbeiten, muss die Zeit in UTC angegeben werden. Weitere Informationen zu Angabe des Zeitplans eines Übertragungsjobs finden Sie unter Zeitplan:
Weitere Informationen zu den Storage Transfer Service-Clientbibliotheken finden Sie unter Erste Schritte mit Storage Transfer Service-Clientbibliotheken.
Übertragung von Amazon S3 zu Cloud Storage
In diesem Beispiel erfahren Sie, wie Sie Dateien von Amazon S3 in einen Cloud Storage-Bucket verschieben.
Geben Sie beim Erstellen von Übertragungsjobs nicht das Präfix s3://
für bucketName
in Amazon Source-Bucket-Quellnamen an.
Die Storage Transfer Service-Clientbibliotheken unterstützen keine Übertragungen über CloudFront- oder verwaltetes privates Netzwerk.
Go
Java
Sie suchen nach älteren Beispielen? Weitere Informationen finden Sie im Migration Transfer Service-Migrationsleitfaden.
Node.js
Python
Sie suchen nach älteren Beispielen? Weitere Informationen finden Sie im Migration Transfer Service-Migrationsleitfaden.