Speicherobjekte hoch- und herunterladen

Auf dieser Seite wird beschrieben, wie Sie Objekte in und aus Speicher-Buckets von Google Distributed Cloud (GDC) Air-Gap-Appliances hoch- und herunterladen.

Hinweise

In einem Projektnamespace werden Bucket-Ressourcen auf dem Management API-Server verwaltet. Sie benötigen ein Projekt, um mit Buckets und Objekten zu arbeiten.

Außerdem benötigen Sie die entsprechenden Bucket-Berechtigungen, um den folgenden Vorgang auszuführen. Weitere Informationen finden Sie unter Bucket-Zugriff gewähren.

Benennungsrichtlinien für Objekte

Beachten Sie die folgenden Richtlinien, wenn Sie Objekte benennen:

  • Verwenden Sie UTF-8-Zeichen, wenn Sie Objekte benennen.
  • Geben Sie keine personenidentifizierbaren Informationen an.

Objekte in Speicher-Buckets hochladen

Führen Sie die folgenden Befehle aus, um ein Objekt hochzuladen:

gdcloud storage cp LOCAL_PATH s3://REMOTE_PATH
gdcloud storage cp s3://REMOTE_SOURCE_PATH s3://REMOTE_MOVE_DESTINATION_PATH
gdcloud storage mv s3://REMOTE_SOURCE_PATH s3://REMOTE_MOVE_DESTINATION_PATH

Mit dem folgenden Befehl werden alle Textdateien aus dem lokalen Verzeichnis in einen Bucket hochgeladen:

gdcloud storage cp *.txt s3://BUCKET

Mit dem folgenden Befehl werden mehrere Dateien aus dem lokalen Verzeichnis in einen Bucket hochgeladen:

gdcloud storage cp abc1.txt abc2.txt s3://BUCKET

Wenn Sie einen Ordner in einen Bucket hochladen möchten, verwenden Sie die Option „--recursive“, um eine gesamte Verzeichnisstruktur zu kopieren. Mit dem folgenden Befehl wird der Verzeichnisbaum „dir“ hochgeladen:

gdcloud storage cp dir s3://BUCKET --recursive

Führen Sie mehrteilige Uploads für große Objekte durch oder verwenden Sie mehrteilige Uploads automatisch, wenn Sie eine Datei hochladen möchten, die größer als 15 MB ist. In diesem Fall wird die Datei in mehrere Teile mit einer Größe von jeweils 15 MB aufgeteilt. Der letzte Teil ist kleiner. Jeder Teil wird separat hochgeladen und am Zielort wieder zusammengesetzt, wenn die Übertragung abgeschlossen ist.

Wenn der Upload eines Teils fehlschlägt, können Sie den Upload neu starten, ohne dass die bereits hochgeladenen anderen Teile beeinträchtigt werden.

Es gibt zwei Optionen für Multipart-Uploads:

  • --disable-multipart: Deaktiviert mehrteilige Uploads für alle Dateien.
  • --multipart-chunk-size-mb=SIZE: Legt die Größe der einzelnen Chunks eines Multipart-Uploads fest.

Dateien, die größer als SIZE sind, werden automatisch als Multithreaded-Multipart-Upload hochgeladen. Kleinere Dateien werden mit der herkömmlichen Methode hochgeladen. SIZE wird in Megabyte angegeben. Die Standardblockgröße beträgt 15 MB. Die Mindestgröße für Chunks beträgt 5 MB und die Höchstgröße 5 GB.

Objekte aus Speicher-Buckets herunterladen

So rufen Sie Objekte aus dem Bucket ab:

gdcloud storage cp s3://BUCKET/OBJECT LOCAL_FILE_TO_SAVE

So laden Sie alle Textdateien aus einem Bucket in Ihr aktuelles Verzeichnis herunter:

gdcloud storage cp s3://BUCKET/*.txt .

So laden Sie die Textdatei abc.txt aus einem Bucket in Ihr aktuelles Verzeichnis herunter:

gdcloud storage cp s3://BUCKET/abc.txt .

Wenn Sie eine ältere Version der Datei herunterladen möchten, listen Sie zuerst alle Versionen der Datei auf:

gdcloud storage ls s3://BUCKET/abc.txt --all-versions

Beispielausgabe:

s3://my-bucket/abc.txt#OEQxNTk4MUEtMzEzRS0xMUVFLTk2N0UtQkM4MjAwQkJENjND
s3://my-bucket/abc.txt#ODgzNEYzQ0MtMzEzRS0xMUVFLTk2NEItMjI1MTAwQkJENjND
s3://my-bucket/abc.txt#ODNCNDEzNzgtMzEzRS0xMUVFLTlDOUMtQzRDOTAwQjg3RTg3

Laden Sie dann eine bestimmte Version der Textdatei abc.txt aus dem Bucket in Ihr aktuelles Verzeichnis herunter:

gdcloud storage cp s3://BUCKET/abc.txt#OEQxNTk4MUEtMzEzRS0xMUVFLTk2N0UtQkM4MjAwQkJENjND .