Aus einer Dumpdatei importieren

Bevor Sie Daten importieren, müssen Sie Folgendes tun:

  1. Erstellen Sie einen Datenbankcluster, in den die Daten importiert werden sollen.

  2. Laden Sie die Dumpdatei in einen Speicher-Bucket hoch. Eine Anleitung finden Sie unter Objekte in Storage-Buckets hochladen.

    Das Dienstkonto des Database Service-Importdienstes muss Zugriff auf die Dump-Datei haben. Das Dienstkonto heißt postgresql-import-DATABASE_CLUSTER_NAME oder oracle-import-DATABASE_CLUSTER_NAME, je nachdem, welche Art von Datenbank Sie importieren.

    Ersetzen Sie DATABASE_CLUSTER_NAME durch den Namen des Datenbankclusters, in den Sie Daten importieren.

Sie können eine Dumpdatei in einen Datenbankcluster importieren, indem Sie entweder die GDC-Konsole oder die Distributed Cloud CLI verwenden:

Console

  1. Öffnen Sie in der GDC-Konsole die Seite Database cluster overview (Übersicht über Datenbankcluster), um den Cluster zu sehen, der die Datenbank enthält, die Sie importieren.

  2. Klicken Sie auf Importieren. Der Bereich Daten in Konten importieren wird geöffnet.

  3. Geben Sie im Bereich Daten in Konten importieren im Abschnitt Quelle den Speicherort der SQL-Dumpdatei an, die Sie zuvor hochgeladen haben.

  4. Geben Sie im Feld Ziel eine vorhandene Zieldatenbank für den Import an.

  5. Klicken Sie auf Importieren. In der GDC-Konsole wird ein Banner mit dem Status des Imports angezeigt.

gdcloud-Befehlszeile

  1. Bevor Sie die Distributed Cloud CLI verwenden, müssen Sie sie installieren und initialisieren. Authentifizieren Sie sich dann bei Ihrer Organisation.

  2. Führen Sie den folgenden Befehl aus, um eine Dump-Datei in eine Datenbank zu importieren:

    gdcloud database import sql DATABASE_CLUSTER s3://BUCKET_NAME/sample.dmp \
        --project=PROJECT_NAME
    

    Ersetzen Sie Folgendes:

    • DATABASE_CLUSTER durch den Namen des Datenbankclusters, in den Daten importiert werden sollen.
    • BUCKET_NAME/SAMPLE.dmp durch den Speicherort der Dumpdatei.
    • PROJECT_NAME durch den Namen des Projekts, in dem sich der Datenbankcluster befindet.

API

apiVersion: DBENGINE_NAME.dbadmin.gdc.goog/v1
kind: Import
metadata:
  name: IMPORT_NAME
  namespace: USER_PROJECT
spec:
  dbclusterRef: DBCLUSTER_NAME
  dumpStorage:
    s3Options:
      bucket: BUCKET_NAME
      key: DUMP_FILE_PATH
    type: S3

Ersetzen Sie die folgenden Variablen:

  • DBENGINE_NAME: der Name der Datenbank-Engine. Dies ist einer der folgenden Werte: alloydbomni, postgresql oder oracle.
  • IMPORT_NAME: Der Name des Importvorgangs.
  • USER_PROJECT: Der Name des Nutzerprojekts, in dem der zu importierende Datenbankcluster erstellt wird.
  • DBCLUSTER_NAME: der Name des Datenbankclusters.
  • BUCKET_NAME: der Name des Object Storage-Buckets, in dem die Importdateien gespeichert sind.
  • DUMP_FILE_PATH: Der Name des Objektspeicherpfads zu den gespeicherten Dateien.