从转储文件导入

在导入数据之前,您必须:

  1. 创建数据库集群以将数据导入到其中。

  2. 将转储文件上传到存储桶。如需了解相关说明,请参阅将对象上传到存储分区

    数据库服务导入服务账号必须有权访问转储文件。服务账号名称为 postgresql-import-DATABASE_CLUSTER_NAMEoracle-import-DATABASE_CLUSTER_NAME,具体取决于您要导入的数据库类型。

    DATABASE_CLUSTER_NAME 替换为要将数据导入到的数据库集群的名称。

您可以使用 GDC 控制台或 Distributed Cloud CLI 将转储文件导入数据库集群:

控制台

  1. 在 GDC 控制台中打开数据库集群概览页面,查看包含您要导入的数据库的集群。

  2. 点击导入。系统随即会打开将数据导入账号面板。

  3. 将数据导入账号面板的来源部分中,指定您之前上传的 SQL 数据转储文件的位置。

  4. 目标字段中,指定用于导入的现有目标数据库。

  5. 点击导入。GDC 控制台中的横幅会显示导入状态。

gdcloud CLI

  1. 在使用 Distributed Cloud CLI 之前,请安装并初始化该工具。然后,通过您的组织进行身份验证

  2. 运行以下命令,将转储文件导入数据库:

    gdcloud database import sql DATABASE_CLUSTER s3://BUCKET_NAME/sample.dmp \
        --project=PROJECT_NAME
    

    替换以下内容:

    • DATABASE_CLUSTER 替换为要将数据导入到的数据库集群的名称。
    • BUCKET_NAME/SAMPLE.dmp 替换为转储文件的位置。
    • PROJECT_NAME 替换为数据库集群所在项目的名称。

API

apiVersion: DBENGINE_NAME.dbadmin.gdc.goog/v1
kind: Import
metadata:
  name: IMPORT_NAME
  namespace: USER_PROJECT
spec:
  dbclusterRef: DBCLUSTER_NAME
  dumpStorage:
    s3Options:
      bucket: BUCKET_NAME
      key: DUMP_FILE_PATH
    type: S3

执行以下变量替换操作:

  • DBENGINE_NAME:数据库引擎的名称。可以是 alloydbomnipostgresqloracle
  • IMPORT_NAME:导入操作的名称。
  • USER_PROJECT:要导入的数据库集群所在的用户项目的名称。
  • DBCLUSTER_NAME:数据库集群的名称。
  • BUCKET_NAME:用于存储导入文件的对象存储桶的名称。
  • DUMP_FILE_PATH:存储文件的对象存储路径的名称。