Interoperabilität mit anderen Speicheranbietern

Cloud Storage ist mit einigen anderen Objektspeicherplattformen kompatibel, sodass Sie Daten aus verschiedenen Quellen nahtlos einbinden können. Auf dieser Seite werden Cloud Storage-Tools beschrieben, mit denen Sie Ihre plattformübergreifenden Objektdaten verwalten können.

XML API

Die XML API von Cloud Storage ist mit einigen Cloud Storage-Tools und -Bibliotheken interoperabel, die mit Diensten wie Amazon Simple Storage Service (Amazon S3) zusammenarbeiten. Wenn Sie diese Tools und Bibliotheken mit Cloud Storage verwenden möchten, ändern Sie den Anfrageendpunkt, den das Tool oder die Bibliothek nutzt, sodass er auf den Cloud Storage-URI verweist (https://storage.googleapis.com). Konfigurieren Sie dann das Tool oder die Bibliothek zur Verwendung Ihrer Cloud Storage-HMAC-Schlüssel. Eine ausführliche Anleitung für die ersten Schritte finden Sie unter Einfache Migration von Amazon Simple Storage Service (Amazon S3).

Mit dem V4-Signaturprozess authentifizieren

Mit dem V4-Signaturprozess können Sie signierte Anfragen an die Cloud Storage XML API erstellen. Wenn Sie den V4-Signaturprozess ausführen, erstellen Sie eine Signatur, die in einem Anfrageheader zur Authentifizierung verwendet werden kann. Sie können den Signaturprozess mit einer RSA-Signatur oder Ihrem Amazon S3-Workflow und den HMAC-Anmeldedaten ausführen. Weitere Informationen zu Authentifizierungsanfragen finden Sie unter Signaturen.

Google Cloud CLI

Die gcloud CLI ist das bevorzugte Befehlszeilentool für den Zugriff auf Cloud Storage. Außerdem können Sie auf andere Cloud Storage-Dienste zugreifen, die die HMAC-Authentifizierung verwenden, wie Amazon S3. Nachdem Sie Ihre Amazon S3-Anmeldedaten zu „~/.aws/credentials“ hinzugefügt haben, können Sie die Befehle gcloud storageverwenden, um Objekte in Ihren Amazon S3-Buckets zu verwalten. Beispiel:

  • Mit dem folgenden Befehl werden die Objekte im Amazon S3-Bucket my-aws-bucket aufgelistet:

    gcloud storage ls s3://my-aws-bucket
  • Mit dem folgenden Befehl werden Daten zwischen einem Amazon S3-Bucket und einem Cloud Storage-Bucket synchronisiert:

    gcloud storage rsync s3://my-aws-bucket gs://example-bucket --delete-unmatched-destination-objects --recursive

Weitere Informationen, einschließlich Details zum Optimieren dieser Synchronisierung, finden Sie in der Dokumentation zu gcloud storage rsync.

Ungültiges Zertifikat von Amazon S3-Bucket-Namen mit Punkten

Wenn Sie versuchen, mit der gcloud CLI auf einen Amazon S3-Bucket zuzugreifen, der einen Punkt im Namen enthält, erhalten Sie möglicherweise einen invalid certificate-Fehler. Dies liegt daran, dass Amazon S3 keine URLs unterstützt, die im Hosting gehostet werden und Punkte in ihrem Namen enthalten. Wenn Sie mit Amazon S3-Ressourcen arbeiten, können Sie die gcloud CLI so konfigurieren, dass Bucket-URLs im Pfadstil verwendet werden. Legen Sie dazu das Attribut storage/s3_endpoint_url so fest:

storage/s3_endpoint_url https://s3.REGION_CODE.amazonaws.com

Dabei ist REGION_CODE die Region, die den angeforderten Bucket enthält. Beispiel: us-east-2.

Sie können das Attribut storage/s3_endpoint_url auf eine der folgenden Arten ändern:

gsutil-Befehlszeile

gsutil ist ein Legacy-Tool für den Zugriff auf Cloud Storage über die Befehlszeile. Außerdem können Sie auf andere Cloud Storage-Dienste zugreifen, die die HMAC-Authentifizierung verwenden, wie Amazon S3. Nachdem Sie Ihre Amazon S3-Anmeldedaten zu „~/.aws/credentials“ hinzugefügt haben, können Sie gsutil verwenden, um Objekte in Ihren Amazon S3-Buckets zu verwalten. Beispiel:

  • Mit dem folgenden Befehl werden die Objekte im Amazon S3-Bucket my-aws-bucket aufgelistet:

    gsutil ls s3://my-aws-bucket
  • Mit dem folgenden Befehl werden Daten zwischen einem Amazon S3-Bucket und einem Cloud Storage-Bucket synchronisiert:

    gsutil rsync -d -r s3://my-aws-bucket gs://example-bucket

Weitere Informationen, einschließlich Details zum Einrichten von gsutil, um diese Synchronisierung zu optimieren, finden Sie in der gsutil rsync-Dokumentation.

Ungültiges Zertifikat von Amazon S3-Bucket-Namen mit Punkten

Wenn Sie versuchen, mit gsutil auf einen Amazon S3-Bucket zuzugreifen, der einen Punkt im Namen enthält, erhalten Sie möglicherweise einen invalid certificate-Fehler. Dies liegt daran, dass Amazon S3 keine URLs unterstützt, die im Hosting gehostet werden und Punkte in ihrem Namen enthalten. Wenn Sie mit Amazon S3-Ressourcen arbeiten, können Sie gsutil so konfigurieren, dass Bucket-URLs im Pfadstil verwendet werden. Fügen Sie dazu Ihrer .boto-Konfigurationsdatei für gsutil den folgenden Eintrag hinzu:

[s3]
calling_format = boto.s3.connection.OrdinaryCallingFormat

Daten mit Storage Transfer Service importieren

Mit dem Storage Transfer Service können Sie große Mengen von Onlinedaten aus Amazon S3-Buckets, Microsoft Azure Blob Storage-Containern und allgemeinen HTTP-/HTTPS-Speicherorten in Cloud Storage importieren. Mit dem Storage Transfer Service können Sie wiederkehrende Übertragungen planen, Quellobjekte löschen und auswählen, welche Objekte übertragen werden.

Wenn Sie Amazon S3-Ereignisbenachrichtigungen verwenden, können Sie außerdem ereignisgesteuerte Übertragungen im Storage Transfer Service einrichten, um solche Benachrichtigungen zu erhalten und automatisch einen Cloud Storage-Bucket beizubehalten, der mit einer Amazon S3-Quelle synchronisiert ist.

Nächste Schritte

Amazon Simple Storage Service und Amazon S3 sind Marken von Amazon.com, Inc. oder ihren Tochtergesellschaften in den Vereinigten Staaten und/oder anderen Ländern.