Cloud Storage ist mit einigen anderen Objektspeicherplattformen kompatibel, sodass Sie Daten aus verschiedenen Quellen nahtlos einbinden können. Auf dieser Seite werden Cloud Storage-Tools beschrieben, mit denen Sie Ihre plattformübergreifenden Objektdaten verwalten können.
XML API
Die XML API von Cloud Storage ist mit einigen Cloud Storage-Tools und -Bibliotheken interoperabel, die mit Diensten wie Amazon Simple Storage Service (Amazon S3) zusammenarbeiten. Wenn Sie diese Tools und Bibliotheken mit Cloud Storage verwenden möchten, ändern Sie den Anfrageendpunkt, den das Tool oder die Bibliothek nutzt, sodass er auf den Cloud Storage-URI verweist (https://storage.googleapis.com
). Konfigurieren Sie dann das Tool oder die Bibliothek zur Verwendung Ihrer Cloud Storage-HMAC-Schlüssel. Eine ausführliche Anleitung für die ersten Schritte finden Sie unter Einfache Migration von Amazon Simple Storage Service (Amazon S3).
Mit dem V4-Signaturprozess authentifizieren
Mit dem V4-Signaturprozess können Sie signierte Anfragen an die Cloud Storage XML API erstellen. Wenn Sie den V4-Signaturprozess ausführen, erstellen Sie eine Signatur, die in einem Anfrageheader zur Authentifizierung verwendet werden kann. Sie können den Signaturprozess mit einer RSA-Signatur oder Ihrem Amazon S3-Workflow und den HMAC-Anmeldedaten ausführen. Weitere Informationen zu Authentifizierungsanfragen finden Sie unter Signaturen.
Google Cloud CLI
Die gcloud CLI ist das bevorzugte Befehlszeilentool für den Zugriff auf Cloud Storage. Außerdem können Sie auf andere Cloud Storage-Dienste zugreifen, die die HMAC-Authentifizierung verwenden, wie Amazon S3. Nachdem Sie Ihre Amazon S3-Anmeldedaten zu „~/.aws/credentials“ hinzugefügt haben, können Sie die Befehle gcloud storage
verwenden, um Objekte in Ihren Amazon S3-Buckets zu verwalten. Beispiel:
Mit dem folgenden Befehl werden die Objekte im Amazon S3-Bucket
my-aws-bucket
aufgelistet:gcloud storage ls s3://my-aws-bucket
Mit dem folgenden Befehl werden Daten zwischen einem Amazon S3-Bucket und einem Cloud Storage-Bucket synchronisiert:
gcloud storage rsync s3://my-aws-bucket gs://example-bucket --delete-unmatched-destination-objects --recursive
Weitere Informationen, einschließlich Details zum Optimieren dieser Synchronisierung, finden Sie in der Dokumentation zu gcloud storage rsync
.
Ungültiges Zertifikat von Amazon S3-Bucket-Namen mit Punkten
Wenn Sie versuchen, mit der gcloud CLI auf einen Amazon S3-Bucket zuzugreifen, der einen Punkt im Namen enthält, erhalten Sie möglicherweise einen invalid certificate
-Fehler. Dies liegt daran, dass Amazon S3 keine URLs unterstützt, die im Hosting gehostet werden und Punkte in ihrem Namen enthalten. Wenn Sie mit Amazon S3-Ressourcen arbeiten, können Sie die gcloud CLI so konfigurieren, dass Bucket-URLs im Pfadstil verwendet werden. Legen Sie dazu das Attribut storage/s3_endpoint_url
so fest:
storage/s3_endpoint_url https://s3.REGION_CODE.amazonaws.com
Dabei ist REGION_CODE
die Region, die den angeforderten Bucket enthält. Beispiel: us-east-2
.
Sie können das Attribut storage/s3_endpoint_url
auf eine der folgenden Arten ändern:
Mit dem Befehl
gcloud config set
, der das Attribut auf alle gcloud-Befehlszeilenbefehle anwendet.Eine benannte Konfiguration erstellen und sie pro Befehl mit dem projektweiten Flag
--configuration
anwenden.
gsutil-Befehlszeile
gsutil ist ein Legacy-Tool für den Zugriff auf Cloud Storage über die Befehlszeile. Außerdem können Sie auf andere Cloud Storage-Dienste zugreifen, die die HMAC-Authentifizierung verwenden, wie Amazon S3. Nachdem Sie Ihre Amazon S3-Anmeldedaten zu „~/.aws/credentials“ hinzugefügt haben, können Sie gsutil verwenden, um Objekte in Ihren Amazon S3-Buckets zu verwalten. Beispiel:
Mit dem folgenden Befehl werden die Objekte im Amazon S3-Bucket
my-aws-bucket
aufgelistet:gsutil ls s3://my-aws-bucket
Mit dem folgenden Befehl werden Daten zwischen einem Amazon S3-Bucket und einem Cloud Storage-Bucket synchronisiert:
gsutil rsync -d -r s3://my-aws-bucket gs://example-bucket
Weitere Informationen, einschließlich Details zum Einrichten von gsutil, um diese Synchronisierung zu optimieren, finden Sie in der gsutil rsync-Dokumentation.
Ungültiges Zertifikat von Amazon S3-Bucket-Namen mit Punkten
Wenn Sie versuchen, mit gsutil auf einen Amazon S3-Bucket zuzugreifen, der einen Punkt im Namen enthält, erhalten Sie möglicherweise einen invalid certificate
-Fehler. Dies liegt daran, dass Amazon S3 keine URLs unterstützt, die im Hosting gehostet werden und Punkte in ihrem Namen enthalten. Wenn Sie mit Amazon S3-Ressourcen arbeiten, können Sie gsutil so konfigurieren, dass Bucket-URLs im Pfadstil verwendet werden. Fügen Sie dazu Ihrer .boto-Konfigurationsdatei für gsutil den folgenden Eintrag hinzu:
[s3]
calling_format = boto.s3.connection.OrdinaryCallingFormat
Daten mit Storage Transfer Service importieren
Mit dem Storage Transfer Service können Sie große Mengen von Onlinedaten aus Amazon S3-Buckets, Microsoft Azure Blob Storage-Containern und allgemeinen HTTP-/HTTPS-Speicherorten in Cloud Storage importieren. Mit dem Storage Transfer Service können Sie wiederkehrende Übertragungen planen, Quellobjekte löschen und auswählen, welche Objekte übertragen werden.
Wenn Sie Amazon S3-Ereignisbenachrichtigungen verwenden, können Sie außerdem ereignisgesteuerte Übertragungen im Storage Transfer Service einrichten, um solche Benachrichtigungen zu erhalten und automatisch einen Cloud Storage-Bucket beizubehalten, der mit einer Amazon S3-Quelle synchronisiert ist.
Nächste Schritte
- Führen Sie schnell eine einfache Migration von Amazon S3 zu Cloud Storage durch.
- Signatur zur Authentifizierung von Anfragen erstellen