Avant d'importer des données, vous devez :
Créez un cluster de bases de données dans lequel importer les données.
Importez le fichier de dump dans un bucket de stockage. Pour obtenir des instructions, consultez Importer des objets dans des buckets de stockage.
Le compte de service du service d'importation Database Service doit avoir accès au fichier de dump. Le compte de service est nommé
postgresql-import-DATABASE_CLUSTER_NAME
ouoracle-import-DATABASE_CLUSTER_NAME
, selon le type de base de données que vous importez.Remplacez
DATABASE_CLUSTER_NAME
par le nom du cluster de base de données dans lequel vous importez des données.
Vous pouvez importer un fichier de dump dans un cluster de bases de données à l'aide de la console GDC ou de Distributed Cloud CLI :
Console
Ouvrez la page Présentation du cluster de bases de données dans la console GDC pour afficher le cluster contenant la base de données que vous importez.
Cliquez sur Importer. Le panneau Importer des données dans les comptes s'ouvre.
Dans la section Source du panneau Importer des données dans les comptes, spécifiez l'emplacement du fichier de dump de données SQL que vous avez importé précédemment.
Dans le champ Destination, spécifiez une base de données de destination existante pour l'importation.
Cliquez sur Importer. Une bannière sur la console GDC indique l'état de l'importation.
gdcloud CLI
Avant d'utiliser Distributed Cloud CLI, installez-la et initialisez-la. Ensuite, authentifiez-vous auprès de votre organisation.
Exécutez la commande suivante pour importer un fichier de dump dans une base de données :
gdcloud database import sql DATABASE_CLUSTER s3://BUCKET_NAME/sample.dmp \ --project=PROJECT_NAME
Remplacez les éléments suivants :
- DATABASE_CLUSTER par le nom du cluster de bases de données dans lequel importer les données.
- BUCKET_NAME/SAMPLE.dmp par l'emplacement du fichier de dump.
- PROJECT_NAME par le nom du projet dans lequel se trouve le cluster de bases de données.
API
apiVersion: DBENGINE_NAME.dbadmin.gdc.goog/v1
kind: Import
metadata:
name: IMPORT_NAME
namespace: USER_PROJECT
spec:
dbclusterRef: DBCLUSTER_NAME
dumpStorage:
s3Options:
bucket: BUCKET_NAME
key: DUMP_FILE_PATH
type: S3
Remplacez les variables suivantes :
DBENGINE_NAME
: nom du moteur de base de données. Il s'agit de l'une des valeurs suivantes :alloydbomni
,postgresql
ouoracle
.IMPORT_NAME
: nom de l'opération d'importation.USER_PROJECT
: nom du projet utilisateur dans lequel le cluster de bases de données à importer est créé.DBCLUSTER_NAME
: nom du cluster de base de données.BUCKET_NAME
: nom du bucket de stockage d'objets qui stocke les fichiers d'importation.DUMP_FILE_PATH
: nom du chemin d'accès au stockage d'objets vers les fichiers stockés.