Sicherungen planen


In dieser Anleitung wird gezeigt, wie Sie Sicherungen mit Cloud Scheduler und Cloud Run-Funktionen für Filestore-Instanzen planen.

Lernziele

  • Erstellen Sie ein Clientdienstkonto für Cloud Scheduler mit der Anmeldedaten, die zum Aufrufen einer Cloud Run-Funktionsfunktion erforderlich sind.
  • Erstellen Sie ein Clientdienstkonto zur Verwendung durch Cloud Run-Funktionen mit die Anmeldedaten zum Aufrufen des Filestore-Endpunkts.
  • Cloud Run-Funktionsfunktion erstellen, die eine Sicherung erstellt (oder löscht) einer Dateifreigabe.
  • Erstellen Sie einen Cloud Scheduler-Job, der die Funktion zum Erstellen von Sicherungen (oder zum Löschen von Sicherungen) in regelmäßigen Abständen ausführt.

Kosten

In diesem Dokument verwenden Sie die folgenden kostenpflichtigen Komponenten von Google Cloud:

Mit dem Preisrechner können Sie eine Kostenschätzung für Ihre voraussichtliche Nutzung vornehmen. Neuen Google Cloud-Nutzern steht möglicherweise eine kostenlose Testversion zur Verfügung.

Hinweise

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  4. Enable the Artifact Registry, Cloud Build, Filestore, Cloud Run functions, Cloud Logging, Pub/Sub, Cloud Run, and Cloud Scheduler APIs.

    Enable the APIs

  5. Install the Google Cloud CLI.
  6. To initialize the gcloud CLI, run the following command:

    gcloud init
  7. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  8. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  9. Enable the Artifact Registry, Cloud Build, Filestore, Cloud Run functions, Cloud Logging, Pub/Sub, Cloud Run, and Cloud Scheduler APIs.

    Enable the APIs

  10. Install the Google Cloud CLI.
  11. To initialize the gcloud CLI, run the following command:

    gcloud init
  12. Wenn in Ihrem Projekt keine Filestore-Instanz vorhanden ist, müssen Sie zuerst eine erstellen.

Clientdienstkonten für Cloud Scheduler- und Cloud Run-Funktionen erstellen

  1. Klicken Sie in der Google Cloud Console auf Aktivieren Sie Cloud Shell.

  2. Erstellen Sie ein Clientdienstkonto, das Cloud Scheduler zum Aufrufen einer Cloud Run-Funktion ausführt. In diesem Beispiel verwenden wir den Befehl iam service-accounts create, um das Konto schedulerunner zu benennen und den Anzeigenamen auf „Service Account for FS Backups-Scheduler“ festzulegen:

    gcloud iam service-accounts create schedulerunner \
        --display-name="Service Account for FS Backups-Scheduler"
    
  3. Clientdienstkonto erstellen, das von Cloud Run zum Aufrufen verwendet wird Filestore-Endpunkt. In diesem Beispiel nennen wir das Konto backupagent und legen den Anzeigenamen auf "Service Account for FS Backups-GCF" fest:

    gcloud iam service-accounts create backupagent \
        --display-name="Service Account for FS Backups-GCF"
    

    Mit dem folgenden Befehl können Sie prüfen, ob das Dienstkonto erstellt wurde:

    gcloud iam service-accounts list
    

    Der Befehl gibt in etwa Folgendes zurück:

    NAME                                         EMAIL                                                   DISABLED
    Service Account for FS Backups-GCF           backupagent@$PROJECT_ID.iam.gserviceaccount.com         False
    Service Account for FS Backups-Scheduler     schedulerunner@$PROJECT_ID.iam.gserviceaccount.com      False
    

Umgebungsvariablen einrichten

Richten Sie in Ihrer lokalen Umgebung die folgenden Umgebungsvariablen ein:

  • Google Cloud-Projekt-ID und -Projekt:

    export PROJECT_ID=`gcloud config get-value core/project`
    export PROJECT_NUMBER=`gcloud projects describe $PROJECT_ID --format='value(projectNumber)'`
    
  • Der Cloud Scheduler-Dienst-Agent und die Clientdienstkonten für Cloud Scheduler- und Cloud Run-Funktionen:

    export SCHEDULER_SA=service-$PROJECT_NUMBER@gcp-sa-cloudscheduler.iam.gserviceaccount.com
    export SCHEDULER_CLIENT_SA=schedulerunner@$PROJECT_ID.iam.gserviceaccount.com
    export GCF_CLIENT_SA=backupagent@$PROJECT_ID.iam.gserviceaccount.com
    
  • Ihre Filestore-Instanz:

    export FS_LOCATION=fs-location
    export INSTANCE_NAME=instance-id
    export SHARE_NAME=datafile-share-name
    

    Ersetzen Sie Folgendes:

    • fs-location durch die Region oder Zone, in der Filestore -Instanz befindet.
    • instance-id durch die Instanz-ID der Filestore-Instanz.
    • file-share-name durch den Namen, den Sie für die NFS-Dateifreigabe festlegen, der von der Instanz bereitgestellt wird.
  • Richten Sie Umgebungsvariablen für Ihre Filestore-Sicherung ein:

    export FS_BACKUP_LOCATION=region
    

    Ersetzen Sie region durch die Region, in der Sie die Sicherung speichern möchten.

Funktion erstellen, die eine Sicherung erstellt

  1. Rufen Sie in der Google Cloud Console die Seite „Cloud Run-Funktionen“ auf.

    Zur Übersicht "Cloud Run-Funktionen"

  2. Klicken Sie auf Funktion erstellen und konfigurieren Sie die Funktion so:

    • Grundlagen:
      • Umgebung: Wählen Sie in diesem Beispiel 2nd gen aus. Das ist die Standardeinstellung.
      • Funktionsname: In diesem Beispiel nennen wir die Funktion fsbackup.
      • Region: Wählen Sie in diesem Beispiel us-central1 aus.
    • Trigger:
      • Triggertyp: Wählen Sie im Menü HTTPS aus.
      • Authentifizierung: Wählen Sie Require authentication aus.
    • Laufzeit, Build, Verbindungen und Sicherheitseinstellungen:
      • Laufzeit > Runtime-Dienstkonto > Dienstkonto: Wählen Sie im Menü Service Account for FS Backups-GCF (backupagent@$PROJECT_ID.iam.gserviceaccount.com) aus.
      • Verbindungen > Einstellungen für eingehenden Traffic: Wählen Sie Allow all traffic aus.
  3. Klicken Sie auf Weiter und fahren Sie mit der Konfiguration so fort:

    • Laufzeit: Wählen Sie Python 3.8 oder eine neuere Version aus. vollständig von Cloud Run-Funktionen unterstützt aus.
    • Quellcode: Inline editor.
    • Einstiegspunkt: Geben Sie create_backup ein.
    • Fügen Sie der Datei requirements.txt die folgenden Abhängigkeiten hinzu:

      google-auth==2.29.0
      requests==2.31.0
      

      Je nach Anwendungsfall müssen Sie möglicherweise andere Abhängigkeiten zusammen mit den entsprechenden Versionsnummern angeben. Weitere Informationen finden Sie unter Vorinstallierte Pakete.

    • Kopieren Sie das folgende Python-Codebeispiel mit dem Inline-Editor in die Datei main.py:

      Sicherungen erstellen

      1. Mit diesem Codebeispiel wird eine Sicherung mit dem Namen mybackup- erstellt, an die Folgendes angehängt wird: zum Zeitpunkt der Erstellung.
      PROJECT_ID = 'project-id'
      SOURCE_INSTANCE_ZONE = 'filestore-zone'
      SOURCE_INSTANCE_NAME = 'filestore-name'
      SOURCE_FILE_SHARE_NAME = 'file-share-name'
      BACKUP_REGION = 'backup-region'
      
      import google.auth
      import google.auth.transport.requests
      from google.auth.transport.requests import AuthorizedSession
      import time
      import requests
      import json
      
      credentials, project = google.auth.default()
      request = google.auth.transport.requests.Request()
      credentials.refresh(request)
      authed_session = AuthorizedSession(credentials)
      
      def get_backup_id():
          return "mybackup-" + time.strftime("%Y%m%d-%H%M%S")
      
      def create_backup(request):
          trigger_run_url = "https://file.googleapis.com/v1/projects/{}/locations/{}/backups?backupId={}".format(PROJECT_ID, BACKUP_REGION, get_backup_id())
          headers = {
            'Content-Type': 'application/json'
          }
          post_data = {
            "description": "my new backup",
            "source_instance": "projects/{}/locations/{}/instances/{}".format(PROJECT_ID, SOURCE_INSTANCE_ZONE, SOURCE_INSTANCE_NAME),
            "source_file_share": "{}".format(SOURCE_FILE_SHARE_NAME)
          }
          print("Making a request to " + trigger_run_url)
          r = authed_session.post(url=trigger_run_url, headers=headers, data=json.dumps(post_data))
          data = r.json()
          print(data)
          if r.status_code == requests.codes.ok:
            print(str(r.status_code) + ": The backup is uploading in the background.")
          else:
            raise RuntimeError(data['error'])
          return "Backup creation has begun!"
      

      Ersetzen Sie Folgendes:

      • project-id durch die Google Cloud-Projekt-ID der Filestore-Quellinstanz.
      • filestore-zone durch die Zone der Filestore-Quellinstanz.
      • filestore-name durch den Namen der Filestore-Quellinstanz.
      • file-share-name durch den Namen der Dateifreigabe.
      • backup-region durch die Region, in der die Sicherung gespeichert wird.
      1. Klicken Sie auf Funktion testen.

        In Cloud Shell wird eine neue Tabsitzung geöffnet. Darin sind die folgenden message wird zurückgegeben, wenn der Vorgang erfolgreich war:

        Function is ready to test.
        
      2. Klicken Sie auf Bereitstellen und warten Sie, bis die Bereitstellung abgeschlossen ist.

      3. Kehren Sie zum vorherigen Cloud Shell-Tab zurück.

      Sicherungen löschen

      In diesem Codebeispiel werden Sicherungen gelöscht, die älter als ein vordefinierter Zeitraum sind.

      Konfigurieren Sie diese Funktion auf die gleiche Weise wie die Funktion zum Erstellen von Sicherungen, mit Ausnahme von Folgendem:

      • Funktionsname: deletefsbackups.
      • Einstiegspunkt: delete_backup.
      PROJECT_ID = 'project-id'
      BACKUP_REGION = 'region'
      BACKUP_RETENTION_TIME_HRS = hours
      
      import google.auth
      import google.auth.transport.requests
      from google.auth.transport.requests import AuthorizedSession
      import time
      import requests
      import json
      
      credentials, project = google.auth.default()
      request = google.auth.transport.requests.Request()
      credentials.refresh(request)
      authed_session = AuthorizedSession(credentials)
      
      retention_seconds = BACKUP_RETENTION_TIME_HRS * 60 * 60
      
      def delete_backup(request):
          now = time.time()
          list = []
          trigger_run_url = "https://file.googleapis.com/v1beta1/projects/{}/locations/{}/backups".format(PROJECT_ID, BACKUP_REGION)
          r = authed_session.get(trigger_run_url)
          data = r.json()
          if not data:
              print("No backups to delete.")
              return "No backups to delete."
          else:
              list.extend(data['backups'])
              while 'nextPageToken' in data.keys():
                  nextPageToken = data['nextPageToken']
                  trigger_run_url_next = "https://file.googleapis.com/v1beta1/projects/{}/locations/{}/backups?pageToken={}".format(PROJECT_ID, BACKUP_REGION, nextPageToken)
                  r = authed_session.get(trigger_run_url_next)
                  data = r.json()
                  list.extend(data['backups'])
          for i in list:
              backup_time = i['createTime']
              backup_time = backup_time[:-4]
              backup_time = float(time.mktime(time.strptime(backup_time, "%Y-%m-%dT%H:%M:%S.%f")))
              if now - backup_time > retention_seconds:
                  print("Deleting " + i['name'] + " in the background.")
                  r = authed_session.delete("https://file.googleapis.com/v1beta1/{}".format(i['name']))
                  data = r.json()
                  print(data)
                  if r.status_code == requests.codes.ok:
                    print(str(r.status_code) + ": Deleting " + i['name'] + " in the background.")
                  else:
                    raise RuntimeError(data['error'])
          return "Backup deletion has begun!"
      

      Ersetzen Sie Folgendes:

      • project-id durch die Google Cloud-Projekt-ID der Sicherung.
      • region durch die Region, in der sich die Sicherungen befinden.
      • hours durch die Anzahl der Stunden, für die Sicherungen aufbewahrt werden sollen. Wenn Sie beispielsweise Sicherungen 10 Tage lang aufbewahren möchten, geben Sie 240 ein.

IAM-Rollen zu Clientdienstkonten zuweisen

  1. Fügen Sie dem Cloud Scheduler-Dienst-Agent die Rolle roles/cloudscheduler.serviceAgent in der IAM-Richtlinie des Cloud Scheduler-Clientdienstkontos hinzu. Dadurch kann der Dienst-Agent Übernahme der Identität des Clientdienstkontos, um die Funktion aufzurufen die eine Sicherung erstellt. Führen Sie den iam service-accounts add-iam-policy-binding aus. Befehl:

    gcloud iam service-accounts add-iam-policy-binding $SCHEDULER_CLIENT_SA \
        --member=serviceAccount:$SCHEDULER_SA \
        --role=roles/cloudscheduler.serviceAgent
    
  2. Weisen Sie dem Clientdienstkonto von Cloud Run-Funktionen die roles/file.editor, damit Aufrufe an die Filestore-Endpunkt. Führen Sie den Befehl projects add-iam-policy-binding aus:

    gcloud projects add-iam-policy-binding $PROJECT_ID \
        --member=serviceAccount:$GCF_CLIENT_SA \
        --role=roles/file.editor
    
  3. Gewähren Sie dem Clientdienstkonto von Cloud Scheduler die Rolle roles/cloudfunctions.invoker für die Funktion, die Sie verwenden möchten. Führen Sie den folgenden Befehl functions add-iam-policy-binding aus:

    Sicherungen erstellen

    gcloud functions add-iam-policy-binding fsbackup \
        --member serviceAccount:$SCHEDULER_CLIENT_SA \
        --role roles/cloudfunctions.invoker
    

    Jetzt kann nur das Clientdienstkonto von Cloud Scheduler fsbackup aufrufen.

    Sicherungen löschen

    gcloud functions add-iam-policy-binding deletefsbackups \
        --member serviceAccount:$SCHEDULER_CLIENT_SA \
        --role roles/cloudfunctions.invoker
    

    Jetzt kann nur das Clientdienstkonto von Cloud Scheduler deletefsbackups aufrufen.

Cloud Scheduler-Job erstellen, der die Funktion fsbackup nach einem bestimmten Zeitplan auslöst

  1. Wenn Sie in unserem Beispiel für diese Anleitung eine Sicherung jeden Wochentag um 22:00 Uhr planen möchten, verwenden Sie den Befehl scheduler jobs create http:

    gcloud scheduler jobs create http fsbackupschedule \
        --schedule "0 22 * * 1-5" \
        --http-method=GET \
        --uri=https://us-central1-$PROJECT_ID.cloudfunctions.net/fsbackup \
        --oidc-service-account-email=$SCHEDULER_CLIENT_SA    \
        --oidc-token-audience=https://us-central1-$PROJECT_ID.cloudfunctions.net/fsbackup
    

    Im Flag --schedule geben Sie die Häufigkeit an, mit der der Job ausgeführt wird. Verwenden Sie dazu die unix-cron-Formatierung. Weitere Informationen finden Sie unter Cronjob-Zeitpläne konfigurieren.

  2. Starten Sie den Cloud Scheduler-Job, der im vorherigen Schritt erstellt wurde. In unserem Verwenden Sie beispielsweise den scheduler jobs runs , um ihn sofort auszuführen:

    gcloud scheduler jobs run fsbackupschedule
    

    Der Job fsbackupschedule ruft die Funktion fsbackups sofort auf, nachdem Sie den Befehl ausgeführt haben, und ruft sie dann jeden Wochentag um 22:00 Uhr noch einmal auf, bis der Job pausiert wird.

  3. Prüfen Sie die Logs für die Funktion fsbackups, um zu sehen, ob die Funktion ordnungsgemäß ausgeführt wird und einen status 200-Wert zurückgibt.

  4. Prüfen Sie, ob die Sicherung mit dem backups list erstellt wurde. Befehl:

    gcloud filestore backups list
    

    Der Befehl gibt in etwa Folgendes zurück:

    NAME                      LOCATION     SRC_INSTANCE                        SRC_FILE_SHARE  STATE
    mybackup-20201123-184500  us-central1  us-central1-c/instances/nfs-server  vol1            READY
    

Benachrichtigungen zu niedrigen Kontingenten für Sicherungen

Wenn bei Ihrer Implementierung von geplanten Sicherungen das Risiko besteht, das Kontingent von Sicherungen zu überschreiten, empfehlen wir die Einrichtung von Benachrichtigungen zu niedrigen Sicherungskontingenten. So werden Sie benachrichtigt, wenn das Sicherungskontingent knapp wird.

Bereinigen

Nachdem Sie die Anleitung abgeschlossen haben, können Sie die erstellten Ressourcen bereinigen, damit sie keine Kontingente mehr nutzen und keine Gebühren mehr anfallen. In den folgenden Abschnitten erfahren Sie, wie Sie diese Ressourcen löschen oder deaktivieren.

Projekt löschen

Am einfachsten vermeiden Sie weitere Kosten durch Löschen des für die Anleitung erstellten Projekts.

So löschen Sie das Projekt:

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Nächste Schritte