Antes de importar datos, debe hacer lo siguiente:
Crea un clúster de bases de datos para importar los datos.
Sube el archivo de volcado a un segmento de almacenamiento. Consulta las instrucciones para subir objetos a segmentos de almacenamiento.
La cuenta de servicio de importación del servicio de bases de datos debe tener acceso al archivo de volcado. La cuenta de servicio se llama
postgresql-import-DATABASE_CLUSTER_NAME
ooracle-import-DATABASE_CLUSTER_NAME
, según el tipo de base de datos que estés importando.Sustituye
DATABASE_CLUSTER_NAME
por el nombre del clúster de base de datos al que vas a importar datos.
Puedes importar un archivo de volcado en un clúster de bases de datos mediante la consola de GDC o la CLI de Distributed Cloud:
Consola
Abre la página Resumen del clúster de bases de datos en la consola de GDC para ver el clúster que contiene la base de datos que vas a importar.
Haz clic en Importar. Se abrirá el panel Importar datos a cuentas.
En la sección Origen del panel Importar datos a cuentas, especifique la ubicación del archivo de volcado de datos SQL que ha subido anteriormente.
En el campo Destino, especifica una base de datos de destino para la importación.
Haz clic en Importar. En la consola de GDC se muestra un banner con el estado de la importación.
CLI de gdcloud
Antes de usar Distributed Cloud CLI, instálalo e inicialízalo. A continuación, autentícate con tu organización.
Ejecuta el siguiente comando para importar un archivo de volcado en una base de datos:
gdcloud database import sql DATABASE_CLUSTER s3://BUCKET_NAME/sample.dmp \ --project=PROJECT_NAME
Haz los cambios siguientes:
- DATABASE_CLUSTER con el nombre del clúster de bases de datos al que se van a importar los datos.
- BUCKET_NAME/SAMPLE.dmp con la ubicación del archivo de volcado.
- PROJECT_NAME con el nombre del proyecto en el que se encuentra el clúster de bases de datos.
API
apiVersion: DBENGINE_NAME.dbadmin.gdc.goog/v1
kind: Import
metadata:
name: IMPORT_NAME
namespace: USER_PROJECT
spec:
dbclusterRef: DBCLUSTER_NAME
dumpStorage:
s3Options:
bucket: BUCKET_NAME
key: DUMP_FILE_PATH
type: S3
Sustituye las siguientes variables:
DBENGINE_NAME
: el nombre del motor de la base de datos. Puede seralloydbomni
,postgresql
ooracle
.IMPORT_NAME
: el nombre de la operación de importación.USER_PROJECT
: el nombre del proyecto de usuario en el que se crea el clúster de base de datos que se va a importar.DBCLUSTER_NAME
: el nombre del clúster de la base de datos.BUCKET_NAME
: el nombre del segmento de almacenamiento de objetos que almacena los archivos de importación.DUMP_FILE_PATH
: el nombre de la ruta de almacenamiento de objetos a los archivos almacenados.