Auf dieser Seite erfahren Sie, wie Sie Übertragungsjobs erstellen und starten.
Informationen, ob Ihre Quelle und Ihr Ziel (auch als Senke bezeichnet) von Storage Transfer Service unterstützt werden, finden Sie unter Unterstützte Quellen und Senken.
Agents und Agent-Pools
Je nach Quelle und Ziel müssen Sie möglicherweise einen Agent-Pool erstellen und konfigurieren und Agents auf einem Computer mit Zugriff auf Ihre Quelle oder Ziel installieren.
Für Übertragungen von Amazon S3, Microsoft Azure, URL-Listen oder Cloud Storage zu Cloud Storage sind Agents und Agent-Pools nicht erforderlich.
Übertragungen, deren Quelle und/oder Ziel ein Dateisystem oder aus S3-kompatibler Speicher. Erfordert Agents und Agent-Pools. Eine Anleitung finden Sie unter Agent-Pools verwalten.
Vorbereitung
Bevor Sie die Übertragungen konfigurieren, müssen Sie den Zugriff konfiguriert haben:
- Für Nutzer und Dienstkonten:
- Zu Ihren Quelldaten und zum Ziel.
Wenn Sie gcloud
-Befehle verwenden, installieren Sie die gcloud CLI.
Übertragung erstellen
Der Name des Übertragungsjobs darf keine vertraulichen Informationen wie personenidentifizierbare Informationen oder Sicherheitsdaten enthalten. Ressourcennamen können an die Namen anderer Google Cloud-Ressourcen weitergegeben und Google-internen Systemen außerhalb Ihres Projekts zu implementieren.
Google Cloud Console
Rufen Sie in der Google Cloud Console die Seite Storage Transfer Service auf.
Klicken Sie auf Übertragung erstellen. Die Seite Übertragungsjob erstellen wird angezeigt.
Wählen Sie eine Quelle aus:
Cloud Storage
Ihr Nutzerkonto muss die Berechtigung storage.buckets.get haben, um Quell- und Ziel-Buckets auszuwählen. Alternativ können Sie den Namen des Buckets direkt eingeben. Weitere Informationen finden Sie unter Zugriff auf die Fehlerbehebung.
Wählen Sie unter Quelltyp die Option Cloud Storage aus.
Wählen Sie den Zieltyp aus.
Wenn das Ziel Cloud Storage ist, wählen Sie den Planungsmodus aus. Batch-Übertragungen werden einmalig oder geplant ausgeführt. Kontinuierliche ereignisgesteuerte Übertragungen die Quelle überwachen und Daten übertragen, wenn sie hinzugefügt oder geändert werden.
Folgen Sie der Anleitung unter Ereignisgesteuerte Übertragungen, um eine ereignisgesteuerte Übertragung zu konfigurieren.
Klicken Sie auf Nächster Schritt.
Wählen Sie einen Bucket und optional einen Ordner in diesem Bucket aus, indem Sie einen der folgenden Schritte ausführen:
Geben Sie im Feld Bucket oder Ordner einen vorhandenen Cloud Storage-Bucket-Namen und -Pfad ohne das Präfix
gs://
ein. Beispiel:my-test-bucket/path/to/files
Geben Sie den Namen in der exakten Schreibweise in das Feld Bucket-Name ein, wenn Sie einen Cloud Storage-Bucket aus einem anderen Projekt festlegen möchten.Wählen Sie eine Liste der vorhandenen Buckets in Ihren Projekten aus. Klicken Sie dazu auf Durchsuchen und wählen Sie einen Bucket aus.
Wenn Sie auf Durchsuchen klicken, können Sie Buckets in anderen Projekten auswählen. Klicken Sie dazu auf Projekt-ID, dann wählen Sie die neue Projekt-ID und den Bucket aus.
Zum Erstellen eines neuen Buckets klicken Sie auf Neuen Bucket erstellen.
Wenn es sich um eine ereignisgesteuerte Übertragung handelt, geben Sie den Namen des Pub/Sub-Abos ein. Er muss folgendermaßen formatiert sein:
projects/PROJECT_NAME/subscriptions/SUBSCRIPTION_ID
- Optional:
Objekte nach Präfix filtern
oder nach Datum der letzten Änderung. Wenn Sie einen Ordner als Quellspeicherort angegeben haben, werden Präfixfilter verwendet.
relativ zu diesem Ordner. Wenn Ihre Quelle beispielsweise
my-test-bucket/path/
ist, werden mit einem Einschlussfilter vonfile
alle Dateien eingeschlossen, die mitmy-test-bucket/path/file
beginnen. Klicken Sie auf Nächster Schritt.
Amazon S3
Weitere Informationen finden Sie unter Übertragung von Amazon S3 zu Cloud Storage.
S3-kompatibler Speicher
Weitere Informationen finden Sie unter Von S3-kompatiblem Speicher zu Cloud Storage übertragen.
Microsoft Azure Blob Storage
Wählen Sie unter Quelltyp die Option Azure Blob Storage oder Data Lake Storage Gen2 aus.
Klicken Sie auf Next step (Nächster Schritt).
Geben Sie Folgendes an:
Storage-Kontoname: der Name des Microsoft Azure Storage-Quellkontos.
Der Name des Storage-Kontos wird im Microsoft Azure Storage-Portal unter Alle Dienste > Speicher > Speicherkonten angezeigt.
Containername: der Name des Microsoft Azure Storage-Containers.
Der Containername wird im Microsoft Azure Storage-Portal unter Speicher Explorer > Blob-Container angezeigt.
Shared Access Signature (SAS): Das Microsoft Azure Storage-SAS-Token, das aus einer gespeicherten Zugriffsrichtlinie erstellt wurde. Weitere Informationen finden Sie unter Gewähren von eingeschränktem Zugriff auf Azure Storage-Ressourcen mithilfe von SAS (Shared Access Signature).
Die Standardablaufzeit für SAS-Tokens beträgt 8 Stunden. Achten Sie bei der Erstellung des SAS-Tokens darauf, eine angemessene Ablaufzeit festzulegen, damit Sie die Übertragung erfolgreich abschließen können.
- Optional können Sie Objekte nach Präfix oder nach dem Datum der letzten Änderung filtern. Wenn Sie einen Ordner als Quellspeicherort angegeben haben, werden Präfixfilter verwendet.
relativ zu diesem Ordner. Wenn Ihre Quelle beispielsweise
my-test-bucket/path/
ist, wird ein Der Einschließen-Filter vonfile
enthält alle Dateien, die mit beginnenmy-test-bucket/path/file
Klicken Sie auf Nächster Schritt.
Dateisystem
Wählen Sie unter Quelltyp die Option POSIX-Dateisystem aus.
Wählen Sie Ihren Zieltyp aus und klicken Sie auf Nächster Schritt.
Wählen Sie einen vorhandenen Agent-Pool aus oder wählen Sie Agent-Pool erstellen aus und folgen Sie der Anleitung zum Erstellen eines neuen Pools.
Geben Sie den vollständig qualifizierten Pfad des Dateisystemverzeichnisses an.
Klicken Sie auf Nächster Schritt.
HDFS
Weitere Informationen finden Sie unter Von HDFS zu Cloud Storage übertragen
URL-Liste
Wählen Sie unter Quelltyp die Option URL-Liste aus und klicken Sie auf Nächster Schritt.
Geben Sie unter URL der TSV-Datei die URL zu einer TSV-Datei (tabulatorgetrennte Werte) ein. Details zum Erstellen der TSV-Datei finden Sie unter URL-Liste erstellen.
- Optional können Sie Objekte nach Präfix oder nach dem Datum der letzten Änderung filtern. Wenn Sie einen Ordner als Quellspeicherort angegeben haben, werden Präfixfilter verwendet.
relativ zu diesem Ordner. Wenn Ihre Quelle beispielsweise
my-test-bucket/path/
ist, werden mit einem Einschlussfilter vonfile
alle Dateien eingeschlossen, die mitmy-test-bucket/path/file
beginnen. Klicken Sie auf Nächster Schritt.
Ziel auswählen:
Cloud Storage
Geben Sie im Feld Bucket oder Ordner den Ziel-Bucket und optional den Ordnernamen ein. Sie können auch auf Durchsuchen klicken, um einen Bucket aus einer Liste der vorhandenen Buckets im aktuellen Projekt auszuwählen. Klicken Sie zum Erstellen eines neuen Buckets auf Neuen Bucket erstellen.
Klicken Sie auf Next step (Nächster Schritt).
Wählen Sie die Einstellungen für den Übertragungsjob aus. Einige Optionen sind nur für bestimmte Kombinationen aus Quelle und Senke verfügbar.
Geben Sie im Feld Beschreibung eine Beschreibung der Übertragung ein. Geben Sie als Best Practice eine aussagekräftige Beschreibung ein, damit Sie die Jobs unterscheiden können.
Wählen Sie unter Metadatenoptionen die Standardoptionen aus oder klicken Sie auf Optionen auswählen und auswählen, um Werte für alle unterstützten Metadaten anzugeben. Weitere Informationen finden Sie unter Metadatenaufbewahrung.
Wählen Sie unter Wann überschreiben? eine der folgenden Optionen aus:
Falls unterschiedlich: Überschreibt Zieldateien, wenn die Quelldatei mit demselben Namen unterschiedliche ETags oder Prüfsummenwerte hat.
Immer: Zieldateien werden immer geschrieben, wenn die Quelldatei denselben Namen hat, auch wenn sie identisch sind.
Wählen Sie unter Löschzeitpunkt eine der folgenden Optionen aus:
Nie: Dateien werden niemals aus der Quelle oder dem Ziel gelöscht.
Datei nach der Übertragung aus der Quelle löschen: Dateien werden aus der Quelle gelöscht, nachdem sie an das Ziel übertragen wurden.
Dateien aus dem Ziel löschen, wenn sie nicht auch in der Quelle sind: Wenn sich Dateien im Cloud Storage-Ziel-Bucket nicht auch in der Quelle befinden, löschen Sie die Dateien aus dem Cloud Storage-Bucket.
Mit dieser Option wird sichergestellt, dass der Cloud Storage-Ziel-Bucket genau mit Ihrer Quelle übereinstimmt.
Wählen Sie unter Benachrichtigungsoptionen Ihr Pub/Sub-Thema und die Ereignisse aus, die Sie benachrichtigen möchten. Weitere Informationen finden Sie unter Pub/Sub-Benachrichtigungen.
Klicken Sie auf Next step (Nächster Schritt).
Dateisystem
Wählen Sie einen vorhandenen Agent-Pool oder Agent-Pool erstellen aus. und folgen Sie der Anleitung, um einen neuen Pool zu erstellen.
Geben Sie den vollständig qualifizierten Zielverzeichnispfad an.
Klicken Sie auf Next step (Nächster Schritt).
Wählen Sie die gewünschten Zeitplanoptionen aus:
Wählen Sie in der Drop-down-Liste Einmal ausführen eine der folgenden Optionen aus:
Einmal ausführen: Führt eine einzelne Übertragung aus, beginnend zu einem von Ihnen ausgewählten Zeitpunkt.
Täglich ausführen: Führt jeden Tag eine Übertragung zu einem von Ihnen ausgewählten Zeitpunkt aus.
Sie können ein optionales Enddatum eingeben oder das Enddatum beibehalten. leer, um die Übertragung kontinuierlich auszuführen.
Jede Woche ausführen: Die Übertragung wird wöchentlich gestartet, wobei die Übertragung jeweils beginnt. die Sie auswählen.
Mit benutzerdefinierter Frequenz ausführen: Führt eine Übertragung mit der von Ihnen ausgewählten Häufigkeit wird aus. Sie können die Übertragung in regelmäßigen Abständen gemessen in Stunden, Tagen oder Wochen wiederholen.
Sie können ein optionales Enddatum eingeben oder das Enddatum beibehalten. leer, um die Übertragung kontinuierlich auszuführen.
Wählen Sie in der Drop-down-Liste Jetzt starten eine der folgenden Optionen aus:
Jetzt starten: Damit wird die Übertragung gestartet, nachdem Sie auf Erstellen geklickt haben.
Ab dem: Die Übertragung wird an dem ausgewählten Datum und zur ausgewählten Uhrzeit gestartet. Klicken Sie auf Kalender, um einen Kalender aufzurufen und das Startdatum auszuwählen.
Klicken Sie zum Erstellen des Übertragungsjobs auf Erstellen.
gcloud-CLI
Verwenden Sie zum Erstellen eines neuen Übertragungsjobs den Befehl gcloud transfer jobs create
. Das Erstellen eines neuen Jobs initiiert die angegebene Übertragung, sofern weder ein Zeitplan noch --do-not-run
angegeben ist.
gcloud transfer jobs create \
SOURCE DESTINATION
Wobei:
SOURCE ist die Datenquelle für diese Übertragung. Das Format für jede Quelle lautet:
- Cloud Storage:
gs://BUCKET_NAME
. Geben Sie für die Übertragung aus einem bestimmten Ordnergs://BUCKET_NAME/FOLDER_PATH/
an, einschließlich des abschließenden Schrägstrichs. - Amazon S3:
s3://BUCKET_NAME/FOLDER_PATH
- S3-kompatibler Speicher:
s3://BUCKET_NAME
. Die Der Bucket-Name ist relativ zum Endpunkt. Wenn sich Ihre Daten beispielsweise unterhttps://us-east-1.example.com/folder1/bucket_a
befinden, geben Sies3://folder1/bucket_a
ein. - Microsoft Azure-Speicher:
https://myaccount.blob.core.windows.net/CONTAINER_NAME
- URL-Liste:
https://PATH_TO_URL_LIST
oderhttp://PATH_TO_URL_LIST
- POSIX-Dateisystem:
posix:///PATH
Dies muss ein absoluter Pfad vom Stammverzeichnis des Agent-Hostcomputers sein. - HDFS:
hdfs:///PATH
- Cloud Storage:
Der DESTINATION ist einer der folgenden:
- Cloud Storage:
gs://BUCKET_NAME
. Geben Sie zum Übertragen in ein bestimmtes Verzeichnisgs://BUCKET_NAME/FOLDER_PATH/
an, einschließlich des abschließenden Schrägstrichs. - POSIX-Dateisystem:
posix:///PATH
Dies muss ein absoluter Pfad vom Stammverzeichnis des Agent-Hostcomputers sein.
- Cloud Storage:
Wenn für die Übertragung Übertragungs-Agents erforderlich sind, sind die folgenden Optionen verfügbar:
--source-agent-pool
gibt den für diese Übertragung zu verwendenden Quell-Agent-Pool an. Erforderlich für Übertragungen, die von einem Dateisystem stammen.--destination-agent-pool
gibt den Ziel-Agent-Pool an, der für diese Übertragung verwendet werden soll. Erforderlich für Übertragungen an ein Dateisystem.--intermediate-storage-path
ist der Pfad zu einem Cloud Storage-Bucket im Formatgs://my-intermediary-bucket
. Erforderlich für Übertragungen zwischen zwei Dateisystemen. Weitere Informationen zum Zwischen-Bucket finden Sie unter Cloud Storage-Bucket als zwischengelagerten Bucket erstellen.
Weitere Optionen:
--source-creds-file
gibt den relativen Pfad zu einer lokalen Datei auf Ihrem Rechner an, die AWS- oder Azure-Anmeldedaten für die Übertragungsquelle enthält. Informationen zur Formatierung von Anmeldedatendateien finden Sie in der Referenz zu TransferSpec.--do-not-run
verhindert, dass Storage Transfer Service nach dem Senden des Befehls den Job ausführt. Zum Ausführen des Jobs aktualisieren Sie ihn, um einen Zeitplan hinzuzufügen, oder verwendenjobs run
, um ihn manuell zu starten.--manifest-file
gibt den Pfad zu einer CSV-Datei in Cloud Storage an, die eine Liste der Dateien enthält, die von Ihrer Quelle übertragen werden sollen. Informationen zur Formatierung von Manifestdateien finden Sie unter Bestimmte Dateien oder Objekte mithilfe eines Manifests übertragen.Jobinformationen: Sie können
--name
,--description
und--source-creds-file
angeben.Zeitplan: Geben Sie
--schedule-starts
,--schedule-repeats-every
und--schedule-repeats-until
oder--do-not-run
an.Objektbedingungen: Mit Bedingungen können Sie bestimmen, welche Objekte übertragen werden. Dazu gehören
--include-prefixes
und--exclude-prefixes
sowie die zeitbasierten Bedingungen in--include-modified-[before | after]-[absolute | relative]
. Wenn Sie einen Ordner mit Ihrer Quelle angegeben hat, sind Präfixfilter relativ zu diesem Ordner. Weitere Informationen finden Sie unter Quellobjekte nach Präfix filtern. Informationen.Objektbedingungen werden für Übertragungen mit Dateisystemen nicht unterstützt.
Übertragungsoptionen: Bestimmen Sie, ob Zieldateien überschrieben werden sollen (
--overwrite-when=different
oderalways
) und ob bestimmte Dateien während oder nach der Übertragung gelöscht werden sollen (--delete-from=destination-if-unique
odersource-after-transfer
); welche Metadatenwerte beibehalten werden (--preserve-metadata
); und legen Sie optional eine Speicherklasse für übertragene Objekte fest (--custom-storage-class
).Benachrichtigungen: Konfigurieren Sie Pub/Sub-Benachrichtigungen für Übertragungen mit
--notification-pubsub-topic
,--notification-event-types
und--notification-payload-format
.Cloud Logging: Aktivieren Sie Cloud Logging für Übertragungen ohne Agent oder Übertragungen aus S3-kompatiblen Quellen mit
--log-actions
und--log-action-states
. Weitere Informationen finden Sie unter Cloud Logging für Storage Transfer Service .
Bei Übertragungen von S3-kompatiblen Quellen werden außerdem die folgenden Optionen verwendet:
--source-endpoint
(erforderlich) gibt den Endpunkt des Speichersystems an. Beispiel:s3.example.com
. Wenden Sie sich an Ihren Anbieter, um das richtige Format zu finden. Geben Sie nicht das Protokoll an (http://
oderhttps://
).--source-signing-region
gibt eine Region für Signieranfragen an. Lassen Sie dieses Flag weg, wenn Ihr Speicheranbieter keine Signaturregion benötigt.--source-auth-method
gibt die zu verwendende Authentifizierungsmethode an. Gültige Werte sindAWS_SIGNATURE_V2
oderAWS_SIGNATURE_V4
. Weitere Informationen finden Sie in der Dokumentation zu SigV4 und SigV2 von Amazon.--source-request-model
gibt den zu verwendenden Adressierungsstil an. Gültige Werte sindPATH_STYLE
oderVIRTUAL_HOSTED_STYLE
. Der Pfadstil hat das Formathttps://s3.example.com/BUCKET_NAME/KEY_NAME
. Der virtuelle Hosting-Stil verwendet das Format `https://BUCKET_NAME.s3.beispiel.de/KEY_NAME.--source-network-protocol
gibt das Netzwerkprotokoll an, das Agents für diesen Job verwenden sollen. Gültige Werte sindHTTP
undHTTPS
.--source-list-api
gibt die Version der S3 Listing API für die Rückgabe von Objekten aus dem Bucket an. Gültige Werte sindLIST_OBJECTS
oderLIST_OBJECTS_V2
. Weitere Informationen finden Sie in der Amazon-Dokumentation zu ListObjectsV2 und ListObjects.
Führen Sie gcloud transfer jobs create --help
aus oder sehen Sie sich die gcloud
-Referenzdokumentation an, um alle Optionen aufzurufen.
Beispiele
Amazon S3 für Cloud Storage
Weitere Informationen finden Sie unter Übertragung von Amazon S3 zu Cloud Storage.
Von S3-kompatiblem Speicher zu Cloud Storage
Weitere Informationen finden Sie unter Von S3-kompatiblem Speicher zu Cloud Storage übertragen.
Dateisystem in Cloud Storage
Weitere Informationen finden Sie unter Von einem Dateisystem in Cloud Storage übertragen.
Cloud Storage zum Dateisystem
Geben Sie Folgendes an, um von einem Cloud Storage-Bucket in ein Dateisystem zu übertragen:
gcloud transfer jobs create \
gs://my-storage-bucket posix:///tmp/destination \
--destination-agent-pool=my-destination-agent-pool
Dateisystem zum Dateisystem
Für die Übertragung zwischen zwei Dateisystemen müssen Sie einen Quell-Agent-Pool, einen Ziel-Agent-Pool und einen Cloud Storage-Zwischen-Bucket angeben, über den die Daten übertragen werden.
Weitere Informationen finden Sie unter Cloud Storage-Bucket als Vermittler erstellen um Details zum Zwischen-Bucket zu erhalten.
Geben Sie dann beim Aufrufen von transfer jobs create
die folgenden drei Ressourcen an:
gcloud transfer jobs create \
posix:///tmp/source/on/systemA posix:///tmp/destination/on/systemB \
--source-agent-pool=source_agent_pool \
--destination-agent-pool=destination_agent_pool \
--intermediate-storage-path=gs://my-intermediary-bucket
REST
Die folgenden Beispiele zeigen, wie Sie den Storage Transfer Service über die REST API verwenden.
Wenn Sie Übertragungsjobs mithilfe der Storage Transfer Service API konfigurieren oder bearbeiten, muss die Zeit in UTC angegeben werden. Weitere Informationen zum Angeben des Zeitplans für einen Übertragungsjob finden Sie unter Zeitplan.
Übertragung zwischen Cloud Storage-Buckets
In diesem Beispiel erfahren Sie, wie Sie Dateien von einem Cloud Storage-Bucket in einen anderen verschieben. Sie können beispielsweise Daten in einen Bucket an einem anderen Speicherort bewegen.
Anfrage mit transferJobs create:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME" }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } }
200 OK { "transferJob": [ { "creationTime": "2015-01-01T01:01:00.000000000Z", "description": "YOUR DESCRIPTION", "name": "transferJobs/JOB_ID", "status": "ENABLED", "lastModificationTime": "2015-01-01T01:01:00.000000000Z", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME", }, "gcsDataSink": { "bucketName": "GCS_NEARLINE_SINK_NAME" }, "objectConditions": { "minTimeElapsedSinceLastModification": "2592000.000s" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } } ] }
Übertragung von Amazon S3 zu Cloud Storage
Weitere Informationen finden Sie unter Übertragung von Amazon S3 zu Cloud Storage.
Übertragung zwischen Microsoft Azure Blob Storage und Cloud Storage
In diesem Beispiel erfahren Sie, wie Sie Dateien von Microsoft Azure Storage in ein Cloud Storage-Bucket verschieben und dabei ein Microsoft Azure Storage Shared Access Signature-Token (SAS) verwenden.
Weitere Informationen zu Microsoft Azure Storage SAS finden Sie unter Zugriff auf Azure Storage-Ressourcen mit SAS (Shared Access Signature) gewähren.
Informieren Sie sich dazu in den Abschnitten Zugriff auf Microsoft Azure Storage konfigurieren und Preise über die Auswirkungen einer Datenverschiebung von Microsoft Azure Storage nach Cloud Storage.
Anfrage mit transferJobs create:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 14, "month": 2, "year": 2020 }, "scheduleEndDate": { "day": 14 "month": 2, "year": 2020 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "azureBlobStorageDataSource": { "storageAccount": "AZURE_SOURCE_NAME", "azureCredentials": { "sasToken": "AZURE_SAS_TOKEN", }, "container": "AZURE_CONTAINER", }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
200 OK { "transferJob": [ { "creationTime": "2020-02-14T01:01:00.000000000Z", "description": "YOUR DESCRIPTION", "name": "transferJobs/JOB_ID", "status": "ENABLED", "lastModificationTime": "2020-02-14T01:01:00.000000000Z", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 14 "month": 2, "year": 2020 }, "scheduleEndDate": { "day": 14, "month": 2, "year": 2020 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "azureBlobStorageDataSource": { "storageAccount": "AZURE_SOURCE_NAME", "azureCredentials": { "sasToken": "AZURE_SAS_TOKEN", }, "container": "AZURE_CONTAINER", }, "objectConditions": {}, "transferOptions": {} } } ] }
Übertragung aus einem Dateisystem
Weitere Informationen finden Sie unter Von einem Dateisystem in Cloud Storage übertragen.
Quell- und Zielpfade angeben
Mit Quell- und Zielpfaden können Sie Quell- und Zielverzeichnisse angeben, wenn Sie Daten in Ihren Cloud Storage-Bucket übertragen. Beispiel: Sie haben die Dateien file1.txt
und file2.txt
und einen Cloud Storage-Bucket namens B
. Wenn Sie einen Zielpfad mit dem Namen my-stuff
festlegen, befinden sich Ihre Dateien nach der Übertragung in gs://B/my-stuff/file1.txt
und gs://B/my-stuff/file2.txt
.
Quellpfad angeben
Zum Festlegen eines Quellpfads beim Erstellen eines Übertragungsjobs fügen Sie dem Feld gcsDataSource
in der Spezifikation TransferSpec
das Feld path
hinzu:
{ gcsDataSource: { bucketName: "SOURCE_BUCKET", path: "SOURCE_PATH/", }, }
In diesem Beispiel:
- SOURCE_BUCKET: Der Cloud Storage-Quell-Bucket.
- SOURCE_PATH: Der Cloud Storage-Quellpfad.
Zielpfad angeben
Zum Festlegen eines Zielordners beim Erstellen eines Übertragungsjobs fügen Sie dem Feld gcsDataSink
in der Spezifikation TransferSpec
das Feld path
hinzu:
{ gcsDataSink: { bucketName: "DESTINATION_BUCKET", path: "DESTINATION_PATH/", }, }
In diesem Beispiel:
- DESTINATION_BUCKET: Cloud Storage-Ziel-Bucket
- DESTINATION_PATH: Der Cloud Storage-Zielpfad.
Beispiel für eine vollständige Anfrage
Das folgende Beispiel zeigt eine vollständige Anfrage:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME", "path": "GCS_SOURCE_PATH", }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME", "path": "GCS_SINK_PATH", }, "objectConditions": { "minTimeElapsedSinceLastModification": "2592000s" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } }
Clientbibliotheken
Die folgenden Beispiele zeigen, wie Sie Storage Transfer Service programmatisch verwenden können mit Go, Java, Node.js und Python.
Wenn Sie Übertragungsjobs programmatisch konfigurieren oder bearbeiten, muss die Zeit in UTC. Weitere Informationen zum Angeben des Zeitplans für einen Übertragungsjob finden Sie unter Zeitplan.
Weitere Informationen zu den Storage Transfer Service-Clientbibliotheken finden Sie unter Erste Schritte mit Storage Transfer Service-Clientbibliotheken.
Übertragung zwischen Cloud Storage-Buckets
In diesem Beispiel erfahren Sie, wie Sie Dateien von einem Cloud Storage-Bucket in einen anderen verschieben. Sie können beispielsweise Daten in einen Bucket an einem anderen Speicherort bewegen.
Go
Java
Sie suchen nach älteren Beispielen? Weitere Informationen finden Sie im Migration Transfer Service-Migrationsleitfaden.
Node.js
Python
Sie suchen nach älteren Beispielen? Weitere Informationen finden Sie im Migration Transfer Service-Migrationsleitfaden.
Übertragung von Amazon S3 zu Cloud Storage
Weitere Informationen finden Sie unter Übertragung von Amazon S3 zu Cloud Storage.
Übertragung zwischen Microsoft Azure Blob Storage und Cloud Storage
In diesem Beispiel erfahren Sie, wie Sie Dateien von Microsoft Azure Storage in ein Cloud Storage-Bucket verschieben und dabei ein Microsoft Azure Storage Shared Access Signature-Token (SAS) verwenden.
Weitere Informationen zu Microsoft Azure Storage SAS finden Sie unter Zugriff auf Azure Storage-Ressourcen mit SAS (Shared Access Signature) gewähren.
Informieren Sie sich dazu in den Abschnitten Zugriff auf Microsoft Azure Storage konfigurieren und Preise über die Auswirkungen einer Datenverschiebung von Microsoft Azure Storage nach Cloud Storage.
Go
Informationen zum Installieren und Verwenden der Clientbibliothek für Storage Transfer Service finden Sie unter Storage Transfer Service-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Storage Transfer Service Go API.
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich beim Storage Transfer Service zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Java
Informationen zum Installieren und Verwenden der Clientbibliothek für Storage Transfer Service finden Sie unter Storage Transfer Service-Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Storage Transfer Service Java API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Storage Transfer Service zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Node.js
Informationen zum Installieren und Verwenden der Clientbibliothek für Storage Transfer Service finden Sie unter Storage Transfer Service-Clientbibliotheken. Weitere Informationen finden Sie in der Storage Transfer Service Node.js API Referenzdokumentation.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Storage Transfer Service zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Informationen zum Installieren und Verwenden der Clientbibliothek für Storage Transfer Service finden Sie unter Storage Transfer Service-Clientbibliotheken Weitere Informationen finden Sie in der Storage Transfer Service Python API Referenzdokumentation.
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich beim Storage Transfer Service zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Übertragung aus einem Dateisystem
Weitere Informationen finden Sie unter Von einem Dateisystem in Cloud Storage übertragen.