Importar de um arquivo dump

Antes de importar dados, faça o seguinte:

  1. Crie um cluster de banco de dados para importar os dados.

  2. Faça upload do arquivo dump para um bucket de armazenamento. Consulte as instruções em Fazer upload de objetos para buckets de armazenamento.

    A conta de serviço de importação do Database Service precisa ter acesso ao arquivo dump. A conta de serviço é chamada de postgresql-import-DATABASE_CLUSTER_NAME ou oracle-import-DATABASE_CLUSTER_NAME, dependendo do tipo de banco de dados que você está importando.

    Substitua DATABASE_CLUSTER_NAME pelo nome do cluster de banco de dados em que você está importando dados.

É possível importar um arquivo dump para um cluster de banco de dados usando o console do GDC ou a CLI do Distributed Cloud:

Console

  1. Abra a página Visão geral do cluster de banco de dados no console do GDC para conferir o cluster que contém o banco de dados que você está importando.

  2. Clique em Importar. O painel Importar dados para contas é aberto.

  3. Na seção Origem do painel Importar dados para contas, especifique o local do arquivo dump de dados SQL que você enviou antes.

  4. No campo Destino, especifique um banco de dados de destino para a importação.

  5. Clique em Importar. Um banner no console do GDC mostra o status da importação.

CLI gdcloud

  1. Antes de usar a CLI do Distributed Cloud, instale e inicialize. Em seguida, faça a autenticação com sua organização.

  2. Execute o comando a seguir para importar um arquivo dump para um banco de dados:

    gdcloud database import sql DATABASE_CLUSTER s3://BUCKET_NAME/sample.dmp \
        --project=PROJECT_NAME
    

    Substitua:

    • DATABASE_CLUSTER com o nome do cluster de banco de dados para importar dados.
    • BUCKET_NAME/SAMPLE.dmp com o local do arquivo dump.
    • PROJECT_NAME com o nome do projeto em que o cluster de banco de dados está.

API

apiVersion: DBENGINE_NAME.dbadmin.gdc.goog/v1
kind: Import
metadata:
  name: IMPORT_NAME
  namespace: USER_PROJECT
spec:
  dbclusterRef: DBCLUSTER_NAME
  dumpStorage:
    s3Options:
      bucket: BUCKET_NAME
      key: DUMP_FILE_PATH
    type: S3

Substitua as seguintes variáveis:

  • DBENGINE_NAME: o nome do mecanismo de banco de dados. É um dos campos alloydbomni, postgresql ou oracle.
  • IMPORT_NAME: o nome da operação de importação.
  • USER_PROJECT: o nome do projeto do usuário em que o cluster de banco de dados a ser importado foi criado.
  • DBCLUSTER_NAME: o nome do cluster de banco de dados.
  • BUCKET_NAME: o nome do bucket de armazenamento de objetos que armazena os arquivos de importação.
  • DUMP_FILE_PATH: o nome do caminho de armazenamento de objetos para os arquivos armazenados.