Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Auf dieser Seite wird beschrieben, wie Sie die gdcloud-Befehlszeile installieren und konfigurieren, um den Objektspeicher in Google Distributed Cloud-Projekten (GDC) zu verwalten, die nicht mit dem Internet verbunden sind. Darin wird beschrieben, wie Sie die erforderlichen Komponenten und Einstellungen herunterladen, installieren und konfigurieren, die für die effektive Verwendung von Speicher-Buckets und ‑Objekten in dieser isolierten Umgebung erforderlich sind.
Diese Seite richtet sich an Zielgruppen wie IT-Administratoren in der Gruppe der Infrastrukturbetreiber oder Entwickler in der Gruppe der Anwendungsbetreiber, die Objektspeicher-Buckets für Projekte in GDC-Umgebungen ohne Internetverbindung bereitstellen und verwalten möchten. Weitere Informationen finden Sie unter Zielgruppen für die GDC-Dokumentation für Air-Gap-Umgebungen.
gcloud CLI vorbereiten
Wenn Sie die gdcloud CLI verwenden möchten, folgen Sie der Anleitung unten, um das Paket herunterzuladen, zu installieren und zu konfigurieren.
Führen Sie die folgenden Befehle aus, um die Komponente für Speicherabhängigkeiten zu installieren:
gdcloudcomponentsinstallstorage-cli-dependencies
Weitere Informationen zum Befehl components install finden Sie unter gcloud CLI installieren.
gcloud CLI für Objektspeicher konfigurieren
Die folgenden Konfigurationen müssen festgelegt werden, damit die gcloud CLI für den Objektspeicher verwendet werden kann.
Ersetzen Sie ACCESS_KEY_ID durch die Zugriffsschlüssel-ID, die Sie aus dem Secret unter Zugangsdaten abrufen erhalten haben:
gdcloud config set storage/s3_access_key_id ACCESS_KEY_ID
Ersetzen Sie SECRET_ACCESS_KEY durch den geheimen Schlüssel, der aus dem Secret in Zugriffsanmeldedaten abrufen abgerufen wurde:
gdcloud config set storage/s3_secret_access_key SECRET_ACCESS_KEY
Ersetzen Sie CA_BUNDLE_FILE durch den Pfad zum CA-Zertifikat:
gdcloud config set storage/s3_custom_ca_certs_file CA_BUNDLE_FILE
Ersetzen Sie ENDPOINT durch den Endpunkt, den Ihr Infrastrukturbetreiber bereitstellt:
gdcloudconfigsetstorage/s3_endpointENDPOINT
Dieser Schritt unterscheidet sich geringfügig für Dual-Zone-Buckets. Jeder Bucket mit zwei Zonen bietet drei Endpunkte, über die Sie auf den Bucket zugreifen können. In den meisten Fällen ist der globale Endpunkt geeignet, um automatische Failovers zu nutzen:
Zone1-Endpunkt: Dieser Endpunkt wird immer von Zone1 empfangen. Wenn Sie diesen Endpunkt verwenden, haben Sie eine Read-After-Write-Konsistenz für alle Objekte, die in zone1 geschrieben werden. Wenn zone1 jedoch ausfällt, muss ein Client entweder den zone2- oder den globalen Endpunkt verwenden, um weiterhin Daten in diesen Bucket zu lesen/zu schreiben. Wenn der Client aus einem Nutzercluster stammt, ist dieser Endpunkt nur innerhalb von zone1 zugänglich.
Zone2-Endpunkt: Dieser Endpunkt wird immer von Zone2 empfangen. Wenn Sie diesen Endpunkt verwenden, haben Sie eine Read-After-Write-Konsistenz für alle Objekte, die in zone2 geschrieben werden. Wenn zone2 jedoch ausfällt, muss ein Client entweder den zone1- oder den globalen Endpunkt verwenden, um weiterhin Daten in diesen Bucket zu lesen/zu schreiben. Wenn der Client aus einem Nutzercluster stammt, ist dieser Endpunkt nur innerhalb von zone2 zugänglich.
Globaler Endpunkt: Bei diesem Endpunkt wird Ihre Anfrage entweder an Zone 1 oder Zone 2 weitergeleitet. Diese Option bietet keine Sitzungsaffinität. Anfragen, die in derselben Sitzung gestellt werden, können also in Zone 1 oder Zone 2 eingehen. Das bedeutet, dass es keine Garantie für das Lesen nach dem Schreiben für Anfragen an den globalen Endpunkt gibt. Der globale Endpunkt bietet ein automatisches Failover, falls eine Zone ausfällt. Nutzer müssen die Endpunkte in ihren Arbeitslasten also nicht ändern, wie es bei Verwendung des zonenbasierten Endpunkts erforderlich wäre. Außerdem ist dieser Endpunkt von Nutzerclustern in allen Zonen aus zugänglich.
Führen Sie die folgenden Befehle aus, um die globalen/zonalen Endpunkte für Ihren Bucket aufzurufen und den gewünschten Endpunkt auszuwählen:
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-04 (UTC)."],[[["\u003cp\u003eThe gdcloud CLI tool is used for managing object storage, and this guide provides steps on how to set it up.\u003c/p\u003e\n"],["\u003cp\u003eDownloading the gdcloud CLI is the first step, as detailed in the gdcloud CLI overview document.\u003c/p\u003e\n"],["\u003cp\u003eInstalling the storage dependencies component is required to use the storage command tree, and this can be achieved by running \u003ccode\u003egdcloud components install storage-cli-dependencies\u003c/code\u003e.\u003c/p\u003e\n"],["\u003cp\u003eConfiguring the gdcloud CLI for object storage involves setting the access key ID, secret access key, CA certificate path, and endpoint using \u003ccode\u003egdcloud config set\u003c/code\u003e commands.\u003c/p\u003e\n"]]],[],null,["# Install and configure storage CLI\n\nThis page guides you through how to install and configure the gdcloud CLI for managing object storage when working with Google Distributed Cloud (GDC) air-gapped projects. It covers how to download, install, and configure the necessary components and settings essential for effectively using storage buckets and objects in this isolated environment.\n\nThis page is for audiences such as IT admins within the infrastructure operator group or developers within the application operator group who are looking to provision and manage object storage buckets for projects within GDC air-gapped environments. For more information, see [Audiences for GDC air-gapped documentation](/distributed-cloud/hosted/docs/latest/gdch/resources/audiences).\n\nPrepare the gdcloud CLI\n-----------------------\n\nTo use the gdcloud CLI, see the following steps to download, install, and configure the package.\n\n### Download the gdcloud CLI\n\nTo download the gdcloud CLI, see the\n[gdcloud CLI overview](/distributed-cloud/hosted/docs/latest/gdch/resources/gdcloud-overview).\n\n### Install the gdcloud CLI\n\nIn order to use the storage command tree, the storage dependencies component must be installed.\n\n1. Follow [Install gdcloud CLI](/distributed-cloud/hosted/docs/latest/gdch/resources/gdcloud-install).\n\n2. To install the storage dependencies component, run the following commands:\n\n gdcloud components install storage-cli-dependencies\n\n For more information on the `components install` command, see [Install gdcloud CLI](/distributed-cloud/hosted/docs/latest/gdch/resources/gdcloud-install).\n\n| **Note:** This command only installs the dependencies onto the client machine. For configuring the gdcloud CLI follow [Configure gdcloud CLI for object storage](#gdcloud-storage-configure).\n\n### Configure the gdcloud CLI for object storage\n\nThe following configurations must be set to use the gdcloud CLI for object storage.\n\n1. Replace `ACCESS_KEY_ID` with the access key ID obtained from the secret in [getting access credentials](/distributed-cloud/hosted/docs/latest/gdch/platform/pa-user/grant-obtain-storage-access#getting_bucket_access_credentials):\n\n gdcloud config set storage/s3_access_key_id ACCESS_KEY_ID\n\n2. Replace `SECRET_ACCESS_KEY` with the secret key obtained from the secret in [getting access credentials](/distributed-cloud/hosted/docs/latest/gdch/platform/pa-user/grant-obtain-storage-access#getting_bucket_access_credentials):\n\n gdcloud config set storage/s3_secret_access_key SECRET_ACCESS_KEY\n\n3. Replace `CA_BUNDLE_FILE` with the path to the CA Certificate:\n\n gdcloud config set storage/s3_custom_ca_certs_file CA_BUNDLE_FILE\n\n | **Note:** If the CA Certs for GDC are already installed on the environment then you can set this to `/etc/ssl/certs/ca-certificates.crt`\n4. Replace `ENDPOINT` with the endpoint your Infrastructure Operator (IO) provides:\n\n gdcloud config set storage/s3_endpoint ENDPOINT\n\n | **Note:** This is the full endpoint beginning with `https://`.\n\n This step differs slightly for dual-zone buckets. Each dual-zone bucket provides three endpoints that you can choose to access the bucket. For most situations, the global endpoint is appropriate in order to take advantage of automatic failovers:\n - Zone1 endpoint: This endpoint is always received by zone1. If using this endpoint, you have read-after-write consistency for any objects written to zone1. However, if zone1 goes down, a client needs to change to using either the zone2 or global endpoint to continue reading/writing to this bucket. If the client is coming from a user cluster, then this endpoint will only be accessible from within zone1.\n - Zone2 endpoint: This endpoint is always received by zone2. If using this endpoint, you have read-after-write consistency for any objects written to zone2. However, if zone2 goes down, a client needs to change to using either the zone1 or global endpoint to continue reading/writing to this bucket. If the client is coming from a user cluster, then this endpoint will only be accessible from within zone2.\n - Global endpoint: This endpoint results in your request being routed to either zone1 or zone2. This option doesn't provide session affinity, meaning that requests made using the same session may arrive in either zone1 or zone2. This means that there is no read-after-write guarantee for requests made to the global endpoint. The global endpoint provides automatic failover in the event that a zone goes down, so users won't have to change endpoints in their workloads the way they would need to if using the zonal endpoint. In addition, this endpoint is accessible from user clusters in all zones.\n\n Run the following commands to view the global/zonal endpoints for your bucket and choose the one you want to use: \n\n kgo get buckets $BUCKET_NAME -n $PROJECT_NAME -o jsonpath=\"{.status.globalEndpoint}\"\n\n kgo get buckets $BUCKET_NAME -n $PROJECT_NAME -o jsonpath=\"{.status.zonalEndpoints}\""]]