Importe a partir de um ficheiro de despejo

Antes de importar dados, tem de:

  1. Crie um cluster de base de dados para importar os dados.

  2. Carregue o ficheiro de despejo para um contentor de armazenamento. Consulte o artigo Carregue objetos para contentores de armazenamento para ver instruções.

    A conta de serviço de importação do serviço de base de dados tem de ter acesso ao ficheiro de despejo. A conta de serviço tem o nome postgresql-import-DATABASE_CLUSTER_NAME ou oracle-import-DATABASE_CLUSTER_NAME, consoante o tipo de base de dados que está a importar.

    Substitua DATABASE_CLUSTER_NAME pelo nome do cluster da base de dados para o qual está a importar dados.

Pode importar um ficheiro de despejo para um cluster de base de dados através da consola do GDC ou da CLI do Distributed Cloud:

Consola

  1. Abra a página Vista geral do cluster de base de dados na consola do GDC para ver o cluster que contém a base de dados que está a importar.

  2. Clique em Importar. O painel Importar dados para contas é aberto.

  3. Na secção Origem do painel Importar dados para contas, especifique a localização do ficheiro de despejo de dados SQL que carregou anteriormente.

  4. No campo Destino, especifique uma base de dados de destino existente para a importação.

  5. Clique em Importar. Uma faixa na consola do GDC mostra o estado da importação.

CLI gcloud

  1. Antes de usar a Distributed Cloud CLI, instale-a e inicialize-a. Em seguida, faça a autenticação com a sua organização.

  2. Execute o seguinte comando para importar um ficheiro de despejo para uma base de dados:

    gdcloud database import sql DATABASE_CLUSTER s3://BUCKET_NAME/sample.dmp \
        --project=PROJECT_NAME
    

    Substitua o seguinte:

    • DATABASE_CLUSTER com o nome do cluster da base de dados para o qual importar dados.
    • BUCKET_NAME/SAMPLE.dmp com a localização do ficheiro de despejo.
    • PROJECT_NAME com o nome do projeto em que o cluster da base de dados se encontra.

API

apiVersion: DBENGINE_NAME.dbadmin.gdc.goog/v1
kind: Import
metadata:
  name: IMPORT_NAME
  namespace: USER_PROJECT
spec:
  dbclusterRef: DBCLUSTER_NAME
  dumpStorage:
    s3Options:
      bucket: BUCKET_NAME
      key: DUMP_FILE_PATH
    type: S3

Substitua as seguintes variáveis:

  • DBENGINE_NAME: o nome do motor da base de dados. Esta é uma das opções: alloydbomni, postgresql ou oracle.
  • IMPORT_NAME: o nome da operação de importação.
  • USER_PROJECT: o nome do projeto do utilizador onde o cluster de base de dados a importar é criado.
  • DBCLUSTER_NAME: o nome do cluster da base de dados.
  • BUCKET_NAME: o nome do contentor de armazenamento de objetos que armazena os ficheiros de importação.
  • DUMP_FILE_PATH: o nome do caminho de armazenamento de objetos para os ficheiros armazenados.