덤프 파일에서 가져오기

데이터를 가져오기 전에 다음 작업을 완료해야 합니다.

  1. 데이터를 가져올 데이터베이스 클러스터를 만듭니다.

  2. 덤프 파일을 스토리지 버킷에 업로드합니다. 자세한 내용은 스토리지 버킷에 객체 업로드를 참고하세요.

    데이터베이스 서비스 가져오기 서비스 계정에 덤프 파일에 대한 액세스 권한이 있어야 합니다. 서비스 계정의 이름은 가져오는 데이터베이스의 유형에 따라 postgresql-import-DATABASE_CLUSTER_NAME 또는 oracle-import-DATABASE_CLUSTER_NAME입니다.

    DATABASE_CLUSTER_NAME을 데이터를 가져오는 데이터베이스 클러스터의 이름으로 바꿉니다.

GDC 콘솔 또는 Distributed Cloud CLI를 사용하여 덤프 파일을 데이터베이스 클러스터로 가져올 수 있습니다.

콘솔

  1. GDC 콘솔에서 데이터베이스 클러스터 개요 페이지를 열어 가져오려는 데이터베이스가 포함된 클러스터를 확인합니다.

  2. 가져오기를 클릭합니다. 계정으로 데이터 가져오기 패널이 열립니다.

  3. 계정으로 데이터 가져오기 패널의 소스 섹션에서 이전에 업로드한 SQL 데이터 덤프 파일의 위치를 지정합니다.

  4. 대상 필드에서 가져올 기존 대상 데이터베이스를 지정합니다.

  5. 가져오기를 클릭합니다. GDC 콘솔의 배너에 가져오기 상태가 표시됩니다.

gdcloud CLI

  1. Distributed Cloud CLI를 사용하기 전에 설치하고 초기화하세요. 그런 다음 조직으로 인증합니다.

  2. 다음 명령어를 실행하여 덤프 파일을 데이터베이스로 가져옵니다.

    gdcloud database import sql DATABASE_CLUSTER s3://BUCKET_NAME/sample.dmp \
        --project=PROJECT_NAME
    

    다음을 바꿉니다.

    • DATABASE_CLUSTER을 데이터를 가져올 데이터베이스 클러스터의 이름으로 바꿉니다.
    • BUCKET_NAME/SAMPLE.dmp을 덤프 파일의 위치로 바꿉니다.
    • PROJECT_NAME을 데이터베이스 클러스터가 있는 프로젝트의 이름으로 바꿉니다.

API

apiVersion: DBENGINE_NAME.dbadmin.gdc.goog/v1
kind: Import
metadata:
  name: IMPORT_NAME
  namespace: USER_PROJECT
spec:
  dbclusterRef: DBCLUSTER_NAME
  dumpStorage:
    s3Options:
      bucket: BUCKET_NAME
      key: DUMP_FILE_PATH
    type: S3

다음 변수를 바꿉니다.

  • DBENGINE_NAME: 데이터베이스 엔진의 이름입니다. alloydbomni, postgresql, oracle 중 하나입니다.
  • IMPORT_NAME: 가져오기 작업의 이름입니다.
  • USER_PROJECT: 가져올 데이터베이스 클러스터가 생성된 사용자 프로젝트의 이름입니다.
  • DBCLUSTER_NAME: 데이터베이스 클러스터의 이름입니다.
  • BUCKET_NAME: 가져오기 파일을 저장하는 객체 스토리지 버킷의 이름입니다.
  • DUMP_FILE_PATH: 저장된 파일의 객체 스토리지 경로 이름입니다.