Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Cette page explique comment créer un dépôt de sauvegarde pour les charges de travail de cluster dans Google Distributed Cloud (GDC) air-gapped.
Un dépôt de sauvegarde représente un emplacement de stockage compatible pour vos sauvegardes. Un dépôt de sauvegarde est également utilisé pour stocker les enregistrements des sauvegardes, des plans de sauvegarde, des plans de restauration et des restaurations.
Avant de commencer
Pour créer un dépôt de sauvegarde, vous devez disposer des éléments suivants :
Un point de terminaison compatible est disponible.
Administrateur des sauvegardes de l'organisation : gère les ressources de sauvegarde telles que les plans de sauvegarde et de restauration dans les clusters d'utilisateur. Demandez à votre administrateur IAM de l'organisation de vous attribuer le rôle Administrateur des sauvegardes de l'organisation (organization-backup-admin). Pour en savoir plus, consultez Définitions des rôles.
Créer un dépôt
Créez un dépôt à l'aide de la console GDC ou de l'API.
Console
Connectez-vous à la console GDC.
Dans le menu de navigation, cliquez sur Sauvegarde pour les clusters. Assurez-vous qu'aucun projet n'est sélectionné dans le sélecteur de projet.
Cliquez sur Créer un dépôt.
Saisissez un nom de dépôt. La description est facultative.
Dans la liste Cluster principal (lecture/écriture), sélectionnez un cluster.
Dans la liste Clusters associés (lecture seule), sélectionnez les clusters associés.
Dans le champ Point de terminaison URI S3, saisissez un point de terminaison contenant le nom de domaine complet de votre site de stockage d'objets.
Dans le champ Nom du bucket, saisissez le nom complet du bucket, que vous trouverez dans l'état de la ressource personnalisée du bucket GDC.
Dans le champ Région du bucket, saisissez la région dans laquelle le bucket a été créé.
Dans la liste ID de clé d'accès, saisissez l'ID de clé d'accès.
Dans le champ Clé d'accès, saisissez la clé d'accès.
Cliquez sur Créer.
API
Pour utiliser les API de sauvegarde et de restauration, vous devez configurer une ressource personnalisée ClusterBackupRepository valide comme emplacement de vos sauvegardes et fournir les identifiants requis.
Ajoutez une ressource personnalisée ClusterBackupRepository pour utiliser ces identifiants et appliquez la nouvelle ressource au serveur de l'API Management.
Les dépôts de sauvegarde sont limités au champ d'application du cluster :
Un NamespacedName faisant référence au secret contenant les identifiants d'accès pour endpoint.
endpoint
Nom de domaine complet du système de stockage.
type
Type de dépôt de sauvegarde. Seul le type S3 est accepté.
s3Options
Configuration du point de terminaison S3. Obligatoire si la valeur de type est S3.
bucket : nom complet du bucket, que vous trouverez dans l'état de la ressource personnalisée du bucket GDC.
region : région du point de terminaison donné. La région est spécifique au système de stockage.
forcePathStyle : cette option détermine s'il faut forcer les URL de style chemin d'accès pour les objets.
importPolicy
Définissez l'une des options suivantes :
ReadWrite : ce dépôt peut être utilisé pour planifier ou créer des sauvegardes, des plans de sauvegarde et des restaurations.
ReadOnly : ce dépôt ne peut être utilisé que pour importer et afficher des sauvegardes. Vous ne pouvez pas créer de sauvegardes ni de ressources dans ce dépôt, mais les restaurations peuvent utiliser et référencer des sauvegardes en lecture seule. Il n'y a aucune restriction sur la fréquence à laquelle un dépôt de sauvegarde peut être utilisé comme ReadOnly..
Règles d'importation du dépôt de sauvegarde
Tous les clusters doivent disposer d'au moins un dépôt ReadWrite pour pouvoir utiliser les fonctionnalités de sauvegarde et de restauration. Les dépôts ReadOnly sont facultatifs, n'ont aucune limite et sont utilisés pour obtenir de la visibilité sur les autres sauvegardes de cluster pour les restaurations inter-clusters.
Les dépôts ReadOnly ne peuvent pas être utilisés comme emplacements de stockage pour des sauvegardes supplémentaires ni pour des plans de sauvegarde dans le cluster dans lequel ils ont été importés.
L'importation d'un dépôt en tant que ReadWrite revendique le dépôt pour ce cluster, ce qui empêche les autres clusters d'importer le même dépôt en tant que ReadWrite. Après l'importation d'un dépôt ReadWrite, tous les enregistrements des sauvegardes, plans de sauvegarde et restaurations précédents de ce dépôt sont importés dans le cluster cible en tant que ressources personnalisées locales.
L'importation d'un dépôt en tant que ReadOnly ne revendique pas le dépôt. Elle importe uniquement les sauvegardes, les plans de sauvegarde, les restaurations et les plans de restauration. Les plans de sauvegarde dans les dépôts en lecture seule ne planifient pas les sauvegardes. Ils existent pour donner de la visibilité sur les plans de sauvegarde qui existent dans le cluster à partir duquel vous effectuez l'importation. La suppression d'un dépôt ReadOnly nettoie toutes les ressources importées du cluster et n'a aucun effet sur les ressources de l'emplacement de stockage, car aucune opération d'écriture n'est effectuée sur le stockage d'objets pour les dépôts en lecture seule.
Lorsqu'un dépôt ReadWrite est supprimé du cluster :
Toutes les ressources personnalisées locales associées à ce dépôt, telles que les sauvegardes et les restaurations, sont supprimées du cluster actuel.
La revendication du dépôt par ce cluster est supprimée, ce qui permet au dépôt d'être utilisé comme ReadWrite par un autre cluster. Toutefois, ces ressources ne sont pas supprimées du point de terminaison de stockage.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[[["\u003cp\u003eThis guide details the process of creating a backup repository in Google Distributed Cloud (GDC) air-gapped environments for storing cluster workload backups and related records.\u003c/p\u003e\n"],["\u003cp\u003eCreating a backup repository requires a compatible endpoint, a pre-existing object storage bucket, granted access to the bucket, and the appropriate identity and access role, like the Organization Backup Admin.\u003c/p\u003e\n"],["\u003cp\u003eRepositories can be created through either the GDC console, involving the input of the main cluster, linked cluster(s), fully qualified domain name, bucket name, region, access key ID and access key; or via API, where a \u003ccode\u003eClusterBackupRepository\u003c/code\u003e custom resource is defined with the relevant credentials and storage details.\u003c/p\u003e\n"],["\u003cp\u003eBackup repositories have two import policies, \u003ccode\u003eReadWrite\u003c/code\u003e for creating new backups and resources, and \u003ccode\u003eReadOnly\u003c/code\u003e for viewing backups without the ability to create new ones, with \u003ccode\u003eReadWrite\u003c/code\u003e repositories being unique to a single cluster, and \u003ccode\u003eReadOnly\u003c/code\u003e available to many.\u003c/p\u003e\n"],["\u003cp\u003eRemoving a \u003ccode\u003eReadWrite\u003c/code\u003e repository from a cluster removes the associated custom resources from the cluster and releases the claim on the repository, while removing a \u003ccode\u003eReadOnly\u003c/code\u003e repository only removes imported resources without affecting the storage location.\u003c/p\u003e\n"]]],[],null,["# Add a backup repository\n\nThis page describes how to create a backup repository for cluster workloads in Google Distributed Cloud (GDC) air-gapped.\n\nA backup repository represents a compatible storage location for your\nbackups. A backup repository is also used to store records of\nbackups, backup plans, restore plans, and restores.\n\nBefore you begin\n----------------\n\nTo create a backup repository, you must have the following:\n\n\u003cbr /\u003e\n\n- A compatible endpoint available.\n- A previously [created bucket](/distributed-cloud/hosted/docs/latest/gdch/platform/pa-user/create-storage-buckets) to use as the backup repository.\n- You have [granted access](/distributed-cloud/hosted/docs/latest/gdch/platform/pa-user/grant-obtain-storage-access) for the object storage bucket.\n- The necessary identity and access role:\n\n - Organization Backup Admin: manages backup resources such as backup and restore plans in user clusters. Ask your Organization IAM Admin to grant you the Organization Backup Admin (`organization-backup-admin`) role. For more information, see [Role\n definitions](/distributed-cloud/hosted/docs/latest/gdch/platform/pa-user/iam/role-definitions).\n\nCreate a repository\n-------------------\n\nCreate a repository by using the GDC console or the API. \n\n### Console\n\n1. Sign in to the GDC console.\n2. In the navigation menu, click **Backup for Clusters**. Ensure no project is selected in the project selector.\n3. Click **Create repository**.\n4. Enter a repository name. The description is optional.\n5. In the **Main cluster (read/write)** list, choose a cluster.\n6. In the **Linked clusters (read only)** list, choose the linked clusters.\n7. In the **S3 URI endpoint** field, enter an endpoint containing the fully-qualified domain name of your object storage site.\n8. In the **Bucket name** field, enter the name of the fully qualified name of the bucket, which can be found from the status of the GDC bucket custom resource.\n9. In the **Bucket region** field, enter the region where the bucket was created.\n10. In the **Access Key ID** list, enter the access key ID.\n11. In the **Access key** field, enter the access key.\n12. Click **Create**.\n\n### API\n\n\nTo use the backup and restore APIs, you must configure a valid\n`ClusterBackupRepository` custom resource to be the location of your\nbackups, and supply the required credentials.\n\n1. Fetch the secret generated in [Grant and obtain storage bucket access](/distributed-cloud/hosted/docs/latest/gdch/platform/pa-user/grant-obtain-storage-access#getting_bucket_access_credentials).\n\n2. Add a `ClusterBackupRepository` custom resource to use these credentials\n and apply the new resource to the Management API server.\n Backup repositories are cluster-scoped:\n\n apiVersion: backup.gdc.goog/v1\n kind: ClusterBackupRepository\n metadata:\n name: user-1-user\n namespace: user-1-user-cluster\n spec:\n secretReference:\n namespace: \"object-storage-secret-ns\"\n name: \"object-storage-secret\"\n endpoint: \"https://objectstorage.google.gdch.test\"\n type: \"S3\"\n s3Options:\n bucket: \"fully-qualified-bucket-name\"\n region: \"us-east-1\"\n forcePathStyle: true\n importPolicy: \"ReadWrite\"\n\n This example includes the following values:\n\nBackup repository import policies\n---------------------------------\n\nAll clusters must have at least one `ReadWrite` repository to successfully use backup and restore features. `ReadOnly` repositories are optional, have no\nlimit, and are used to gain visibility into other cluster backups for\ncross-cluster restores.\n\n`ReadOnly` repositories cannot be used as storage locations for additional\nbackups or for backup plans within the cluster they were imported.\n\nImporting a repository as `ReadWrite` claims the repository for that cluster,\npreventing other clusters from importing the same repository as\n`ReadWrite`. After importing a `ReadWrite` repository, all records of previous\nbackups, backup plans, and restores in that repository are imported into the\ntarget cluster as local custom resources.\n\nImporting a repository as `ReadOnly` does not claim the repository, it only\nimports the backups, backup plans, restores, and restore plans. Backup plans in read-only repositories don't schedule backups,\nthey exist to provide visibility into what backup plans exist in the cluster you are importing from. Removing a `ReadOnly` repository cleans up any imported resources from\nthe cluster and has no effect on the resources in the storage location as no write operations occur to object storage for read-only repositories.\n\nWhen a `ReadWrite` repository is removed from the cluster:\n\n- All local custom resources associated with that repository, such as backups and restores, are removed from the current cluster.\n- That cluster's claim on the repository is removed, allowing the repository to be used as `ReadWrite` by another cluster. However, these resources are not removed from the storage endpoint.\n\nWhat's next\n-----------\n\n- [Customize backup and restore for an application](/distributed-cloud/hosted/docs/latest/gdch/platform-application/pa-ao-operations/cluster-backup/customize-backup-restore)\n- [Plan a set of backups](/distributed-cloud/hosted/docs/latest/gdch/platform-application/pa-ao-operations/cluster-backup/plan-backups)"]]