Google Cloud fournit des outils, des produits, des conseils et des services professionnels pour migrer depuis Amazon Relational Database Service (RDS) ou Amazon Aurora vers Cloud SQL pour PostgreSQL ou AlloyDB pour PostgreSQL.
Ce document est destiné aux administrateurs cloud et de bases de données qui souhaitent planifier, implémenter et valider un projet de migration de base de données. Il s'adresse également aux décideurs qui évaluent l'opportunité d'effectuer une migration et qui souhaitent découvrir en quoi elle pourrait consister.
Ce document se concentre sur une migration de base de données homogène, c'est-à-dire une migration dans laquelle les bases de données source et cible utilisent la même technologie de base de données. Dans ce guide de migration, la source est Amazon RDS ou Amazon Aurora pour PostgreSQL, et la destination est Cloud SQL pour PostgreSQL ou AlloyDB pour PostgreSQL.
Ce document fait partie d'une série d'articles sur la migration depuis AWS vers Google Cloud, qui comprend les documents suivants :
- Commencer
- Migrer depuis Amazon EC2 vers Compute Engine
- Migrer depuis Amazon S3 vers Cloud Storage
- Migrer d'Amazon EKS vers GKE
- Migrer depuis Amazon RDS et Amazon Aurora pour MySQL vers Cloud SQL pour MySQL
- Migrer depuis Amazon RDS et Amazon Aurora pour PostgreSQL vers Cloud SQL et AlloyDB pour PostgreSQL (ce document)
- Migrer depuis Amazon RDS pour SQL Server vers Cloud SQL pour SQL Server
- Migrer d'AWS Lambda vers Cloud Run
Pour cette migration vers Google Cloud, nous vous recommandons de suivre le framework de migration décrit dans la section Migrer vers Google Cloud : premiers pas.
Le diagramme suivant illustre le parcours de votre migration.
Vous pouvez migrer depuis votre environnement source vers Google Cloud dans une série d'itérations. Par exemple, vous pouvez commencer par migrer certaines charges de travail, et en migrer d'autres ultérieurement. Pour chaque itération de migration distincte, vous suivez les phases du framework de migration général :
- Évaluer et découvrir vos charges de travail et vos données
- Planifier et établir vos fondations sur Google Cloud
- Migrer vos charges de travail et vos données vers Google Cloud
- Optimiser votre environnement Google Cloud
Pour en savoir plus sur les phases de ce framework, consultez la page Migrer vers Google Cloud : premiers pas.
Pour concevoir un plan de migration efficace, nous vous recommandons de valider chaque étape du plan et de vous assurer de disposer d'une stratégie de rollback. Pour vous aider à valider votre plan de migration, consultez la page Migrer vers Google Cloud : bonnes pratiques pour valider un plan de migration.
Évaluer l'environnement source
Au cours de la phase d'évaluation, vous déterminez les exigences et les dépendances pour migrer votre environnement source vers Google Cloud.
La phase d’évaluation est cruciale pour la réussite de votre migration. Vous devez acquérir une connaissance approfondie des charges de travail que vous souhaitez migrer, de leurs exigences, de leurs dépendances et de votre environnement actuel. Vous devez comprendre votre point de départ pour planifier et exécuter avec succès une migration Google Cloud.
La phase d'évaluation comprend les tâches suivantes :
- Dresser un inventaire complet de vos applications
- Cataloguer vos charges de travail en fonction de leurs propriétés et de leurs dépendances
- Former et préparer vos équipes sur Google Cloud
- Créer des tests et des démonstrations de faisabilité sur Google Cloud
- Calculer le coût total de possession (TCO) de l'environnement cible
- Choisissez la stratégie de migration pour vos charges de travail.
- Choisissez vos outils de migration.
- Définissez le plan de migration et le calendrier.
- Validez votre plan de migration.
La phase d'évaluation de la base de données vous aide à choisir la taille et les spécifications de votre instance de base de données Cloud SQL cible qui correspondent à la source pour des besoins de performances similaires. Portez une attention particulière à la taille et au débit du disque, aux IOPS et au nombre de processeurs virtuels. Les migrations peuvent rencontrer des difficultés ou échouer en raison d'une taille incorrecte de l'instance de base de données cible. Une taille incorrecte peut entraîner de longs délais de migration, des problèmes de performances de la base de données, des erreurs de base de données et des problèmes de performances de l'application. Lorsque vous choisissez une instance Cloud SQL, n'oubliez pas que les performances des disques sont basées sur la taille des disques et le nombre de processeurs virtuels.
Les sections suivantes s'appuient sur Migrer vers Google Cloud: évaluer et découvrir vos charges de travail et intègrent les informations de ce document.
Dresser l'inventaire de vos instances Amazon RDS ou Amazon Aurora
Pour définir le champ d'application de votre migration, vous devez créer un inventaire et collecter des informations sur vos instances Amazon RDS et Amazon Aurora. Idéalement, il s'agit d'un processus automatisé, car les approches manuelles sont sujettes à des erreurs et peuvent conduire à des hypothèses incorrectes.
Amazon RDS ou Amazon Aurora, et Cloud SQL pour PostgreSQL ou AlloyDB pour PostgreSQL ne disposent peut-être pas de fonctionnalités, de spécifications d'instance ou de fonctionnement similaires. Certaines fonctionnalités peuvent être implémentées différemment ou être indisponibles. Les différences peuvent concerner l'infrastructure, le stockage, l'authentification et la sécurité, la réplication, la sauvegarde, la haute disponibilité, le modèle de capacité des ressources, ainsi que les intégrations et les extensions de fonctionnalités spécifiques du moteur de base de données. Selon le type de moteur de base de données, la taille de l'instance et l'architecture, les valeurs par défaut des paramètres de paramètres de base de données sont également différentes.
Le benchmarking peut vous aider à mieux comprendre les charges de travail à migrer et à définir l'architecture appropriée de l'environnement cible de migration. Il est important de collecter des informations sur les performances pour estimer les besoins de l'environnement cible Google Cloud. Les concepts et outils d'analyse comparative sont détaillés dans la section Effectuer des tests et des validations du processus de migration, mais ils s'appliquent également à l'étape de création de l'inventaire.
Outils d'évaluation
Pour une évaluation initiale de votre infrastructure actuelle, nous vous recommandons d'utiliser Google Cloud Migration Center ainsi que d'autres outils d'évaluation de base de données spécialisés tels que migVisor et l'outil d'évaluation de la migration de base de données (DMA).
Avec Migration Center, vous pouvez effectuer une évaluation complète de votre environnement d'applications et de bases de données, y compris l'adéquation technique pour une migration de base de données vers Google Cloud. Vous recevez des recommandations de taille et de configuration pour chaque base de données source, et vous créez un rapport sur le coût total de possession (TCO) pour les serveurs et les bases de données.
Pour en savoir plus sur l'évaluation de votre environnement AWS à l'aide de Migration Center, consultez la section Importer des données depuis d'autres fournisseurs cloud.
En plus de Migration Center, vous pouvez utiliser l'outil spécialisé migVisor. migVisor est compatible avec différents moteurs de base de données et est particulièrement adapté aux migrations hétérogènes. Pour en savoir plus sur migVisor, consultez la présentation de migVisor.
migVisor peut identifier les artefacts et les fonctionnalités de base de données propriétaires incompatibles susceptibles de provoquer la migration par défaut, et peut indiquer des solutions de contournement. migVisor peut également recommander une solution Google Cloud cible, y compris la taille et l'architecture initiales.
Le résultat de l'évaluation de la base de données migVisor fournit les informations suivantes :
- Découverte et analyse complètes des déploiements de bases de données actuels.
- Rapport détaillé sur la complexité de la migration, basé sur les fonctionnalités propriétaires utilisées par votre base de données.
- Rapport financier avec des informations sur les économies de coûts après la migration, les coûts de migration et le nouveau budget d'exploitation.
- Plan de migration par étapes pour déplacer les bases de données et les applications associées avec un minimum de perturbation pour l'entreprise.
Pour voir des exemples de résultats d'évaluation, consultez la page migVisor : outil d'évaluation de la migration vers le cloud.
Notez que migVisor augmente temporairement l'utilisation du serveur de base de données. En règle générale, cette charge supplémentaire est inférieure à 3 % et peut être exécutée en dehors des heures de pointe.
Le résultat de l'évaluation migVisor vous aide à créer un inventaire complet de vos instances RDS. Le rapport inclut des propriétés génériques (version et édition du moteur de base de données, CPU et taille de la mémoire), ainsi que des informations sur la topologie de la base de données, les règles de sauvegarde, les paramètres de paramètre et les personnalisations spéciales utilisées.
Si vous préférez utiliser des outils Open Source, vous pouvez utiliser des scripts de collecte de données avec (ou à la place) les outils mentionnés. Ces scripts peuvent vous aider à collecter des informations détaillées (sur les charges de travail, les fonctionnalités, les objets de base de données et le code de base de données) et à créer votre inventaire de bases de données. De plus, les scripts fournissent généralement une évaluation détaillée de la migration de la base de données, y compris une estimation de l'effort de migration.
Nous vous recommandons l'outil Open Source DMA, conçu par des ingénieurs Google. Il offre une évaluation complète et précise de la base de données, y compris des fonctionnalités utilisées, de la logique de base de données et des objets de base de données (y compris les schémas, les tables, les vues, les fonctions, les déclencheurs et les procédures stockées).
Pour utiliser l'outil DMA, téléchargez les scripts de collecte pour votre moteur de base de données à partir du dépôt Git, puis suivez les instructions. Envoyez les fichiers de sortie à Google Cloud pour analyse. Google Cloud crée et fournit un rapport d'évaluation de la base de données, ainsi que les prochaines étapes du processus de migration.
Identifier et documenter le champ d'application de la migration et les temps d'arrêt abordables
À ce stade, vous devez documenter les informations essentielles qui ont une incidence sur votre stratégie et vos outils de migration. À ce stade, vous pouvez répondre aux questions suivantes:
- Vos bases de données ont-elles une taille supérieure à 5 To ?
- Votre base de données contient-elle des tables volumineuses ? Leur taille est-elle supérieure à 16 To ?
- Où sont situées les bases de données (régions et zones) et quelle est leur proximité avec les applications ?
- À quelle fréquence les données changent-elles ?
- Quel est votre modèle de cohérence des données ?
- Quelles sont les options de bases de données de destination ?
- Quelle est la compatibilité des bases de données source et de destination ?
- Les données doivent-elles se trouver dans certains emplacements physiques ?
- Existe-t-il des données qui peuvent être compressées et archivées, ou des données qui n'ont pas du tout besoin d'être migrées ?
Pour définir le champ d'application de la migration, décidez des données à conserver et à migrer. Migrer toutes vos bases de données peut prendre beaucoup de temps et d'efforts. Certaines données peuvent rester dans les sauvegardes de vos bases de données sources. Par exemple, les anciennes tables de journalisation ou les données d'archivage peuvent ne pas être nécessaires. Vous pouvez également décider de déplacer les données après le processus de migration, en fonction de votre stratégie et de vos outils.
Établissez des bases de référence pour la migration de données qui vous aideront à comparer et à évaluer vos résultats et impacts. Ces références sont des points de référence qui représentent l'état de vos données avant et après la migration, et qui vous aident à prendre des décisions. Il est important de prendre des mesures sur l'environnement source qui peuvent vous aider à évaluer la réussite de votre migration de données. Ces mesures incluent les suivantes:
- La taille et la structure de vos données
- l'exhaustivité et la cohérence de vos données ;
- La durée et les performances des transactions et des processus commerciaux les plus importants.
Déterminez le temps d'arrêt que vous pouvez vous permettre. Quels sont les impacts commerciaux des temps d'arrêt ? Existe-t-il des périodes d'activité faible de la base de données, pendant lesquelles moins d'utilisateurs sont affectés par les temps d'arrêt ? Si oui, pendant combien de temps et quand ces périodes se produisent-elles ? Envisagez d'avoir un temps d'arrêt partiel en écriture seule, tandis que les requêtes en lecture seule sont toujours traitées.
Évaluer votre processus de déploiement et d'administration
Une fois les inventaires créés, évaluez les processus opérationnels et de déploiement de votre base de données pour déterminer comment ils doivent être adaptés pour faciliter votre migration. Ces processus sont fondamentaux pour la façon dont vous préparez et gérez votre environnement de production.
Réfléchissez à la façon dont vous effectuez les tâches suivantes :
Définissez et appliquez des règles de sécurité pour vos instances. Par exemple, vous devrez peut-être remplacer les groupes de sécurité Amazon. Vous pouvez utiliser des rôles Google IAM, des règles de pare-feu VPC et VPC Service Controls pour contrôler l'accès à vos instances Cloud SQL pour PostgreSQL et contraindre les données dans un VPC.
Appliquez des correctifs et configurez vos instances. Vos outils de déploiement existants devront peut-être être mis à jour. Par exemple, vous pouvez utiliser des paramètres de configuration personnalisés dans des groupes de paramètres ou des groupes d'options Amazon. Vos outils de provisionnement devront peut-être être adaptés pour utiliser Cloud Storage ou Secret Manager afin de lire ces listes de configuration personnalisées.
Gérer l'infrastructure de surveillance et d'alerte Les catégories de métriques pour vos instances de base de données source Amazon fournissent une observabilité pendant le processus de migration. Les catégories de métriques peuvent inclure Amazon CloudWatch, Performance Insights, la surveillance améliorée et les listes de processus de l'OS.
Terminer l'évaluation
Après avoir créé les inventaires de votre environnement Amazon RDS ou Amazon Aurora, effectuez les autres étapes de la phase d'évaluation décrites sur la page Migrer vers Google Cloud: évaluer et découvrir vos charges de travail.
Planifier et établir vos fondations
Au cours de la phase de planification et de compilation, vous provisionnez et configurez l'infrastructure pour effectuer les opérations suivantes :
- Exécuter vos charges de travail dans votre environnement Google Cloud
- Se connecter à votre environnement source et à votre environnement Google Cloud pour effectuer la migration
La phase de planification et de compilation est composée des tâches suivantes :
- Créez une hiérarchie de ressources.
- Configurer Identity and Access Management (IAM) de Google Cloud
- Configurer la facturation
- Configurez la connectivité réseau.
- Renforcez votre sécurité.
- Configurer la journalisation, la surveillance et les alertes
Pour en savoir plus sur chacune de ces tâches, consultez la section Migrer vers Google Cloud: planifier et créer vos fondations.
Si vous prévoyez d'utiliser Database Migration Service pour la migration, consultez la section Méthodes de mise en réseau pour Cloud SQL pour PostgreSQL pour comprendre les configurations réseau disponibles pour les scénarios de migration.
Surveillance et alertes
Utilisez Cloud Monitoring de Google, qui inclut des tableaux de bord prédéfinis pour plusieurs produits Google Cloud, y compris un tableau de bord de surveillance Cloud SQL. Vous pouvez également envisager d'utiliser des solutions de surveillance tierces intégrées à Google Cloud, comme Datadog et Splunk. Pour en savoir plus, consultez la section À propos de l'observabilité des bases de données.
Migrer des instances Amazon RDS et Amazon Aurora pour PostgreSQL vers Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL
Pour migrer vos instances, procédez comme suit:
Choisissez la stratégie de migration: réplication continue ou maintenance planifiée.
Choisissez les outils de migration en fonction de la stratégie et des exigences que vous avez choisies.
Définissez le plan et le calendrier de migration pour chaque migration de base de données, y compris les tâches de préparation et d'exécution.
Définissez les tâches de préparation à effectuer pour vous assurer que l'outil de migration peut fonctionner correctement.
Définissez les tâches d'exécution, qui incluent les activités de travail qui implémentent la migration.
Définissez des scénarios de remplacement pour chaque tâche d'exécution.
Effectuez des tests et des validations, qui peuvent être effectués dans un environnement de préproduction distinct.
Effectuez la migration.
Effectuez le basculement en production.
Nettoyez l'environnement source et configurez l'instance cible.
Effectuer un réglage et une optimisation
Chaque phase est décrite dans les sections suivantes :
Choisir votre stratégie de migration
À cette étape, vous disposez de suffisamment d'informations pour évaluer et sélectionner l'une des stratégies de migration suivantes qui correspond le mieux à votre cas d'utilisation pour chaque base de données:
- Maintenance planifiée (également appelée migration ponctuelle): cette approche est idéale si vous pouvez vous permettre un temps d'arrêt. Cette option est relativement moins coûteuse et complexe, car vos charges de travail et vos services ne nécessiteront pas beaucoup de refactorisation. Toutefois, si la migration échoue avant la fin, vous devez redémarrer le processus, ce qui prolonge le temps d'arrêt.
Réplication continue (également appelée migration par goutte-à-goutte): pour les bases de données critiques, cette option offre un risque de perte de données plus faible et un temps d'arrêt quasi nul. Les efforts sont divisés en plusieurs blocs. Par conséquent, en cas d'échec, le rollback et la répétition prennent moins de temps. Toutefois, la configuration est plus complexe et nécessite plus de planification et de temps. Des efforts supplémentaires sont également nécessaires pour refactoriser les applications qui se connectent à vos instances de base de données. Envisagez l'une des variantes suivantes:
- En utilisant l'approche Y (écriture et lecture), qui est une forme de migration parallèle, en dupliquant les données dans les instances source et de destination pendant la migration.
- En utilisant un microservice d'accès aux données, ce qui réduit les efforts de refactorisation requis par l'approche Y (écriture et lecture).
Pour en savoir plus sur les stratégies de migration de données, consultez la section Évaluer les approches de migration des données.
Le schéma suivant présente un organigramme basé sur des exemples de questions que vous pourriez vous poser pour déterminer la stratégie de migration d'une seule base de données:
L'organigramme précédent présente les points de décision suivants:
Pouvez-vous vous permettre un temps d'arrêt ?
- Si ce n'est pas le cas, adoptez la stratégie de migration de réplication continue.
- Si oui, passez au point de décision suivant.
Pouvez-vous vous permettre le temps d'arrêt représenté par un intervalle de basculement lors de la migration de données ? La période de transition représente le temps nécessaire pour effectuer une sauvegarde de la base de données, la transférer vers Cloud SQL, la restaurer, puis migrer vos applications.
- Si ce n'est pas le cas, adoptez la stratégie de migration de réplication continue.
- Si la réponse est oui, adoptez la stratégie de migration de maintenance planifiée.
Les stratégies peuvent varier pour différentes bases de données, même lorsqu'elles se trouvent sur la même instance. Un mix de stratégies peut produire des résultats optimaux. Par exemple, migrez les bases de données de petite taille et peu utilisées à l'aide de l'approche de maintenance planifiée, mais utilisez la réplication continue pour les bases de données critiques pour lesquelles les temps d'arrêt sont coûteux.
En général, une migration est considérée comme terminée lorsque le basculement entre l'instance source initiale et l'instance cible a lieu. Toute réplication (le cas échéant) est arrêtée, et toutes les lectures et écritures sont effectuées sur l'instance cible. Le basculement lorsque les deux instances sont synchronisées n'entraîne aucune perte de données et un temps d'arrêt minimal.
Pour en savoir plus sur les stratégies et les déploiements de migration de données, consultez la section Classification des migrations de bases de données.
Réduire au maximum les temps d'arrêt et les impacts liés à la migration
Les configurations de migration qui ne comportent aucun temps d'arrêt de l'application nécessitent une configuration plus complexe. Trouvez le bon équilibre entre la complexité de la configuration et les temps d'arrêt programmés pendant les heures ouvrées où le trafic est faible.
Chaque stratégie de migration comporte un compromis et un impact associé au processus de migration. Par exemple, les processus de réplication impliquent une charge supplémentaire sur vos instances sources, et vos applications peuvent être affectées par le délai avant réplication. Les applications (et les clients) peuvent être amenées à attendre pendant les temps d'arrêt de l'application, au moins aussi longtemps que le délai de réplication avant d'utiliser la nouvelle base de données. En pratique, les facteurs suivants peuvent augmenter le temps d'arrêt:
- Les requêtes de base de données peuvent prendre quelques secondes. Au moment de la migration, les requêtes en cours peuvent être interrompues.
- Le remplissage du cache peut prendre un certain temps si la base de données est volumineuse ou si elle dispose d'une mémoire tampon importante.
- Les applications arrêtées dans la source et redémarrées dans Google Cloud peuvent présenter un léger temps de latence jusqu'à ce que la connexion à l'instance de base de données Google Cloud soit établie.
- Les routes réseau vers les applications doivent être redirigées. Selon la configuration des entrées DNS, cette opération peut prendre un certain temps. Lorsque vous mettez à jour les enregistrements DNS, réduisez la valeur TTL avant la migration.
Les pratiques courantes suivantes peuvent contribuer à réduire les temps d'arrêt et l'impact:
- Trouvez une période où les temps d'arrêt auront un impact minimal sur vos charges de travail. Par exemple, en dehors des heures d'ouverture normales, les week-ends ou pendant d'autres intervalles de maintenance planifiés.
- Identifiez les parties de vos charges de travail qui peuvent être migrées et passer en production à différentes étapes. Vos applications peuvent comporter différents composants qui peuvent être isolés, adaptés et migrés sans impact. Par exemple, les interfaces, les modules CRM, les services backend et les plates-formes de création de rapports. Ces modules peuvent avoir leurs propres bases de données, qui peuvent être planifiées pour la migration plus tôt ou plus tard dans le processus.
- Si vous pouvez accepter une latence sur la base de données cible, envisagez d'implémenter une migration progressive. Utilisez des transferts de données incrémentiels par lot et adaptez une partie de vos charges de travail pour qu'elles fonctionnent avec les données obsolètes de l'instance cible.
- Envisagez de refactoriser vos applications pour réduire l'impact de la migration. Par exemple, adaptez vos applications pour qu'elles écrivent à la fois dans les bases de données source et cible, et implémentez ainsi une réplication au niveau de l'application.
Choisissez vos outils de migration.
Le facteur le plus important pour une migration réussie est de choisir le bon outil de migration. Une fois la stratégie de migration définie, examinez et choisissez l'outil de migration.
De nombreux outils sont disponibles, chacun étant optimisé pour certains cas d'utilisation de migration. Voici quelques cas d'utilisation:
- Stratégie de migration (maintenance planifiée ou réplication continue)
- Moteurs et versions de base de données source et cible
- Environnements dans lesquels se trouvent les instances source et cible.
- Taille de la base de données Plus la base de données est volumineuse, plus la migration de la sauvegarde initiale prend du temps.
- Fréquence des modifications de la base de données.
- Possibilité d'utiliser des services gérés pour la migration.
Pour assurer une migration et une transition fluides, vous pouvez utiliser des modèles de déploiement d'applications, une orchestration de l'infrastructure et des applications de migration personnalisées. Toutefois, des outils spécialisés appelés services de migration gérés peuvent faciliter le processus de transfert de données, d'applications ou même d'infrastructures entières d'un environnement à un autre. Ils exécutent l'extraction des données à partir des bases de données sources, les transportent de manière sécurisée vers les bases de données cibles et peuvent éventuellement les modifier pendant le transit. Grâce à ces fonctionnalités, elles encapsulent la logique complexe de la migration et offrent des fonctionnalités de surveillance de la migration.
Les services de migration gérés offrent les avantages suivants:
Minimiser les temps d'arrêt : les services utilisent les fonctionnalités de réplication intégrées des moteurs de base de données lorsqu'elles sont disponibles et effectuent la promotion des instances répliquées.
Assurer l'intégrité et la sécurité des données : les données sont transférées de manière sécurisée et fiable de la base de données source vers la base de données cible.
Offrir une expérience de migration cohérente: différentes techniques et tendances de migration peuvent être regroupées dans une interface cohérente et commune à l'aide d'exécutables de migration de base de données, que vous pouvez gérer et surveiller.
Proposez des modèles de migration résilients et éprouvés: les migrations de bases de données sont des événements peu fréquents, mais critiques. Pour éviter les erreurs de débutant et les problèmes liés aux solutions existantes, vous pouvez utiliser les outils d'experts expérimentés plutôt que de créer une solution personnalisée.
Optimiser les coûts: les services de migration gérés peuvent être plus rentables que le provisionnement de serveurs et de ressources supplémentaires pour des solutions de migration personnalisées.
Les sections suivantes décrivent les recommandations concernant les outils de migration, qui dépendent de la stratégie de migration choisie.
Outils pour les migrations de maintenance planifiée
Les sous-sections suivantes décrivent les outils pouvant être utilisés pour les migrations ponctuelles, ainsi que les limites et les bonnes pratiques de chaque outil.
Pour les migrations ponctuelles vers Cloud SQL pour PostgreSQL ou AlloyDB pour PostgreSQL, nous vous recommandons d'utiliser des sauvegardes du moteur de base de données pour exporter les données de votre instance source et les importer dans votre instance cible. Les tâches de migration ponctuelles ne sont pas compatibles avec Database Migration Service.
Sauvegardes du moteur de base de données intégrées
Lorsque des temps d'arrêt importants sont acceptables et que vos bases de données sources sont relativement statiques, vous pouvez utiliser les fonctionnalités de vidage et de chargement (parfois appelées sauvegarde et restauration) intégrées au moteur de base de données.
La configuration et la synchronisation nécessitent un certain effort, en particulier pour un grand nombre de bases de données, mais les sauvegardes du moteur de base de données sont généralement facilement disponibles et simples à utiliser. Cette approche convient à toutes les tailles de base de données et est généralement plus efficace que les autres outils pour les instances volumineuses.
Les sauvegardes du moteur de base de données présentent les limites générales suivantes:
- Les sauvegardes peuvent être sujettes à des erreurs, en particulier si elles sont effectuées manuellement.
- Les données peuvent être non sécurisées si les instantanés ne sont pas correctement gérés.
- Les sauvegardes ne disposent pas de fonctionnalités de surveillance appropriées.
- Les sauvegardes nécessitent des efforts pour s'adapter lors de la migration de plusieurs bases de données.
Vous pouvez utiliser les utilitaires de sauvegarde intégrés PostgreSQL, pg_dump
et pg_dumpall
, pour migrer à la fois Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL. Toutefois, les utilitaires pg_dump
et pg_dumapall
présentent les limites générales suivantes:
- Les utilitaires de sauvegarde intégrés doivent être utilisés pour migrer des bases de données de 500 Go ou moins. L'extraction et la restauration de grandes bases de données peuvent prendre beaucoup de temps et nécessiter un espace disque et une mémoire importants.
- L'utilitaire
pg_dump
n'inclut pas les utilisateurs et les rôles. Pour migrer ces comptes utilisateur et rôles, vous pouvez utiliser l'utilitairepg_dumpall
. - Cloud Storage accepte une taille d'objet unique maximale de 5 téraoctets (To). Si vous disposez de bases de données dont la taille est supérieure à 5 To, l'opération d'exportation vers Cloud Storage échoue. Dans ce cas, vous devez diviser vos fichiers d'exportation en segments plus petits.
Si vous choisissez d'utiliser ces utilitaires, tenez compte des restrictions et des bonnes pratiques suivantes:
- Compressez les données pour réduire les coûts et la durée de transfert. Utilisez l'option
--jobs
avec la commandepg_dump
pour exécuter un nombre donné de tâches de vidage simultanément. - Utilisez l'option
-z
avec la commandepg_dump
pour spécifier le niveau de compression à utiliser. Les valeurs acceptables pour cette option sont comprises entre 0 et 9. La valeur par défaut est la compression au niveau 6. Des valeurs plus élevées réduisent la taille du fichier de dump, mais peuvent entraîner une consommation élevée des ressources sur l'hôte client. Si l'hôte client dispose de suffisamment de ressources, des niveaux de compression plus élevés peuvent réduire encore la taille du fichier de dump. - Utiliser les indicateurs appropriés lors de la création d'un fichier de dump SQL
- Vérifiez la base de données importée Surveillez la sortie de l'utilitaire
pg_restore
pour détecter d'éventuels messages d'erreur pendant le processus de restauration. Examinez les journaux PostgreSQL pour détecter d'éventuels avertissements ou erreurs pendant le processus de restauration. Exécutez des requêtes de base et des calculs de nombre de tables pour vérifier l'intégrité de votre base de données.
Pour en savoir plus sur les limites et les bonnes pratiques, consultez les ressources suivantes:
- Bonnes pratiques pour importer et exporter des données avec Cloud SQL pour PostgreSQL
- Problèmes connus de Cloud SQL pour PostgreSQL
- Importer un fichier DMP dans AlloyDB pour PostgreSQL
- Migrer des utilisateurs disposant d'identifiants vers AlloyDB pour PostgreSQL ou une autre instance Cloud SQL
Autres approches de migration de maintenance planifiée
L'utilisation d'autres approches que les utilitaires de sauvegarde intégrés peut offrir plus de contrôle et de flexibilité lors de la migration de maintenance planifiée. Ces autres types d'approches vous permettent d'effectuer des transformations, des vérifications ou d'autres opérations sur vos données pendant la migration. Vous pouvez regrouper plusieurs instances ou bases de données en une seule instance ou base de données. La consolidation d'instances peut contribuer à atténuer les coûts opérationnels et à résoudre vos problèmes d'évolutivité.
Une alternative aux utilitaires de sauvegarde consiste à utiliser des fichiers plats pour exporter et importer vos données. Pour en savoir plus sur l'importation de fichiers plats, consultez la page Exporter et importer à l'aide de fichiers CSV pour Cloud SQL pour PostgreSQL.
Vous pouvez également utiliser une importation gérée pour configurer la réplication à partir d'une base de données PostgreSQL externe. Lorsque vous utilisez une importation gérée, une première importation de données de la base de données externe vers l'instance Cloud SQL pour PostgreSQL est effectuée. Ce chargement initial utilise un service qui extrait les données du serveur externe (l'instance RDS ou Aurora) et les importe directement dans l'instance Cloud SQL pour PostgreSQL. Pour en savoir plus, consultez la section Utiliser une importation gérée pour configurer la réplication à partir de bases de données externes.
Vous pouvez également effectuer une migration ponctuelle de vos données en exportant les tables de votre base de données PostgreSQL source vers des fichiers CSV ou SQL. Vous pouvez ensuite importer le fichier CSV ou SQL dans Cloud SQL pour PostgreSQL ou AlloyDB pour PostgreSQL. Pour exporter la date de votre instance source, vous pouvez utiliser l'extension aws_s3
pour PostgreSQL. Vous pouvez également utiliser Amazon Database Migration Service et un bucket S3 comme cible. Pour en savoir plus sur cette approche, consultez les ressources suivantes:
- Installer l'extension aws_s3 pour PostgreSQL
- Utiliser Amazon S3 comme cible pour Amazon Database Migration Service
Vous pouvez également importer manuellement des données dans une instance AlloyDB pour PostgreSQL. Les formats acceptés sont les suivants:
- CSV: avec ce format de fichier, chaque fichier contient le contenu d'une table de la base de données. Vous pouvez charger les données dans le fichier CSV à l'aide du programme de ligne de commande
psql
. Pour en savoir plus, consultez la section sur la création d'un fichier CSV. - DMP: ce format de fichier contient l'archive d'une base de données PostgreSQL entière. Vous importez les données de ce fichier à l'aide de l'utilitaire
pg_restore
. Pour en savoir plus, consultez la section Importer un fichier DMP. - SQL: ce format de fichier contient la reconstruction textuelle d'une base de données PostgreSQL. Les données de ce fichier sont traitées à l'aide de la ligne de commande
psql
. Pour en savoir plus, consultez la section Importer un fichier SQL.
Outils pour les migrations de réplication continue
Le schéma suivant présente un organigramme avec des questions qui peuvent vous aider à choisir l'outil de migration pour une seule base de données lorsque vous utilisez une stratégie de migration de réplication continue:
L'organigramme précédent présente les points de décision suivants:
Préférez-vous utiliser des services de migration gérés ?
Si oui, pouvez-vous vous permettre quelques secondes d'indisponibilité d'écriture pendant l'étape de réplication ?
- Si la réponse est oui, utilisez Database Migration Service.
- Si ce n'est pas le cas, explorez les autres options de migration.
Si ce n'est pas le cas, vous devez évaluer si la réplication intégrée du moteur de base de données est prise en charge:
- Si tel est le cas, nous vous recommandons d'utiliser la réplication intégrée.
- Si ce n'est pas le cas, nous vous recommandons d'explorer d'autres options de migration.
Les sections suivantes décrivent les outils pouvant être utilisés pour les migrations continues, ainsi que leurs limites et leurs bonnes pratiques.
Database Migration Service pour la migration de réplication continue
Database Migration Service fournit un type de tâche spécifique pour les migrations continues. Ces jobs de migration continue prennent en charge les migrations haute fidélité vers Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL.
Lorsque vous utilisez Database Migration Service pour migrer vers Cloud SQL pour PostgreSQL ou AlloyDB pour PostgreSQL, des conditions préalables et des limites sont associées à chaque instance cible:
Si vous effectuez une migration vers Cloud SQL pour PostgreSQL, utilisez les ressources suivantes:
- La liste complète des conditions préalables est fournie dans la section Configurer votre source pour PostgreSQL.
- La liste complète des limites est fournie dans la section Limites connues pour PostgreSQL.
Si vous effectuez une migration vers AlloyDB pour PostgreSQL, utilisez les ressources suivantes:
- La liste complète des conditions préalables est fournie dans la section Configurer votre source pour PostgreSQL vers AlloyDB pour PostgreSQL.
- La liste complète des limites est fournie dans la section Limites connues de la migration de PostgreSQL vers AlloyDB pour PostgreSQL.
Réplication intégrée du moteur de base de données
La réplication intégrée du moteur de base de données est une alternative à Database Migration Service pour une migration continue.
La réplication de base de données représente le processus de copie et de distribution des données d'une base de données appelée base de données principale vers d'autres bases de données appelées instances répliquées. Ce processus vise à améliorer l'accessibilité des données, ainsi que la tolérance aux pannes et la fiabilité d'un système de base de données. Bien que la migration de bases de données ne soit pas l'objectif principal de la réplication de bases de données, elle peut être utilisée comme outil pour atteindre cet objectif. La réplication de base de données est généralement un processus en cours qui se produit en temps réel lorsque des données sont insérées, mises à jour ou supprimées dans la base de données principale. La réplication de base de données peut être effectuée en tant qu'opération ponctuelle ou en tant que séquence d'opérations par lots.
La plupart des moteurs de base de données modernes implémentent différentes méthodes de réplication de base de données. Un type de réplication peut être obtenu en copiant et en envoyant le journal WAL (Write-Ahead Logging) ou le journal des transactions de l'instance principale à ses instances répliquées. Cette approche est appelée réplication physique ou binaire. D'autres types de réplication fonctionnent en distribuant les instructions SQL brutes qu'une base de données principale reçoit, au lieu de répliquer les modifications au niveau du système de fichiers. Ces types de réplication sont appelés réplication logique. Pour PostgreSQL, il existe également des extensions tierces, telles que pglogical
, qui implémentent la réplication logique en s'appuyant sur la journalisation WAL.
Cloud SQL est compatible avec la réplication pour PostgreSQL. Toutefois, certains prérequis et limites s'appliquent.
Vous trouverez ci-dessous les limites et les conditions préalables de Cloud SQL pour PostgreSQL:
Les versions Amazon suivantes sont compatibles:
- Amazon RDS 9.6.10 et versions ultérieures, 10.5 et versions ultérieures, 11.1 et versions ultérieures, 12, 13 et 14
- Amazon Aurora 10.11 et versions ultérieures, 11.6 et versions ultérieures, 12.4 et versions ultérieures, et 13.3 et versions ultérieures
Le pare-feu du serveur externe doit être configuré pour autoriser la plage d'adresses IP internes allouée à l'accès aux services privés du réseau VPC. La base de données de l'instance dupliquée Cloud SQL pour PostgreSQL utilise le réseau VPC comme réseau privé.
Le pare-feu de la base de données source doit être configuré pour autoriser l'intégralité de la plage d'adresses IP internes allouée à la connexion de service privée du réseau VPC. L'instance de destination Cloud SQL pour PostgreSQL utilise ce réseau VPC dans le champ
privateNetwork
de son paramètreIpConfiguration
.Lorsque vous installez l'extension pglogical sur une instance Cloud SQL pour PostgreSQL, assurez-vous d'avoir défini l'indicateur
enable_pglogical
suron
(par exemple,cloudsql.enable_pglogical=on
).Assurez-vous que le paramètre
shared_preload_libraries
inclut l'extensionpglogical
sur votre instance source (par exemple,shared_preload_libraries=pg_stat_statements,pglogical
). Définissez le paramètrerds.logical_replication
sur 1. Ce paramètre active les journaux WAL au niveau logique.Ces modifications nécessitent un redémarrage de l'instance principale.
Pour en savoir plus sur l'utilisation de Cloud SQL pour PostgreSQL pour la réplication, consultez la checklist pour les serveurs externes dans la section sur la réplication pour PostgreSQL, ainsi que la section Configurer la réplication logique et le décodage pour PostgreSQL dans la documentation officielle de Cloud SQL.
AlloyDB pour PostgreSQL est compatible avec la réplication via l'extension pglogical. Pour activer l'extension pglogical pour la réplication, vous pouvez utiliser la commande CREATE EXTENSION
. Avant d'utiliser cette commande, vous devez d'abord définir les indicateurs de base de données alloydb.enable_pglogical
et alloydb.logical_decoding
sur on
dans l'instance AlloyDB pour PostgreSQL dans laquelle vous souhaitez utiliser l'extension.
L'activation de ces options nécessite un redémarrage de l'instance.
Autres approches de migration de réplication continue
Vous pouvez utiliser Datastream pour répliquer les modifications de votre instance PostgreSQL source en quasi temps réel. Datastream utilise la capture des données modifiées (CDC) et la réplication pour répliquer et synchroniser les données. Vous pouvez ensuite utiliser Datastream pour la réplication continue depuis Amazon RDS et Amazon Aurora. Vous utilisez Datastream pour répliquer les modifications de votre instance PostgreSQL vers BigQuery ou Cloud Storage. Ces données répliquées peuvent ensuite être importées dans votre instance Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL avec Dataflow à l'aide d'un modèle Dataflow Flex ou avec Dataproc.
Pour en savoir plus sur l'utilisation de Datastream et de Dataflow, consultez les ressources suivantes:
- Configurer une base de données Amazon RDS pour PostgreSQL dans Datastream
- Configurer une base de données PostgreSQL Amazon Aurora dans Datastream
- Utiliser les fichiers journaux WAL de la base de données PostgreSQL
- Transmettre les modifications apportées aux données en temps réel avec Datastream
- Présentation de Dataflow
- Modèle Flex Dataflow pour importer des données par lot depuis Google Cloud Storage vers AlloyDB pour PostgreSQL (et Postgres)
Outils tiers pour la migration de la réplication continue
Dans certains cas, il peut être préférable d'utiliser un seul outil tiers pour la plupart des moteurs de base de données. Par exemple, si vous préférez utiliser un service de migration géré et que vous devez vous assurer que la base de données cible est toujours synchronisée en quasi-temps réel avec la source, ou si vous avez besoin de transformations plus complexes telles que le nettoyage, la restructuration et l'adaptation des données pendant le processus de migration.
Si vous décidez d'utiliser un outil tiers, choisissez l'une des recommandations suivantes, que vous pouvez utiliser pour la plupart des moteurs de base de données.
Striim est une plate-forme en mémoire de bout en bout qui permet de collecter, filtrer, transformer, enrichir, agréger, analyser et diffuser des données en temps réel:
Avantages :
- Gère de grands volumes de données et des migrations complexes.
- Capture des données modifiées intégrée pour SQL Server
- Modèles de connexion préconfigurés et pipelines sans code
- Peut gérer de grandes bases de données critiques qui fonctionnent sous une charge transactionnelle importante.
- Diffusion de type "exactement une fois".
Inconvénients :
- Non Open Source.
- Peut s'avérer coûteux, en particulier pour les migrations longues.
- Certaines limites de propagation des opérations de langage de définition de données (LDD) Pour en savoir plus, consultez la section Opérations LDD compatibles et Notes et limites de l'évolution du schéma.
Pour en savoir plus sur Striim, consultez la page Exécuter Striim dans Google Cloud.
Debezium est une plate-forme distribuée Open Source pour la capture des données modifiées. Elle peut diffuser des modifications de données aux abonnés externes:
Avantages :
- Open Source.
- Un soutien important de la communauté
- Rentable
- Contrôle précis des lignes, des tables ou des bases de données
- Spécialisé pour la capture des modifications en temps réel à partir des journaux des transactions de base de données.
Inconvénients :
- Nécessite une expérience spécifique avec Kafka et ZooKeeper.
- Distribution de type "au moins une fois" des modifications de données, ce qui signifie que vous devez gérer les doublons.
- Configuration manuelle de la surveillance à l'aide de Grafana et Prometheus
- La réplication par lot incrémentielle n'est pas prise en charge.
Pour en savoir plus sur les migrations Debezium, consultez la section Réplication de données en temps quasi réel avec Debezium.
Fivetran est une plate-forme de transfert de données automatisée qui permet de transférer des données depuis et entre des plates-formes de données cloud.
Avantages :
- Modèles de connexion préconfigurés et pipelines sans code
- Propage toutes les modifications de schéma de votre source vers la base de données cible.
- Distribution de type "exactement une fois" des modifications de vos données, ce qui signifie que vous n'avez pas besoin de gérer les doublons.
Inconvénients :
- Non Open Source.
- La prise en charge des transformations de données complexes est limitée.
Vous devez définir le plan de migration et le calendrier
Pour réussir la migration de la base de données et le passage en production, nous vous recommandons de préparer un plan de migration complet et bien défini. Pour réduire l'impact sur votre activité, nous vous recommandons de créer une liste de tous les éléments de travail nécessaires.
La définition du champ d'application de la migration révèle les tâches que vous devez effectuer avant, pendant et après le processus de migration de la base de données. Par exemple, si vous décidez de ne pas migrer certaines tables à partir d'une base de données, vous devrez peut-être effectuer des tâches avant ou après la migration pour implémenter ce filtrage. Vous vous assurez également que la migration de votre base de données n'affecte pas votre contrat de niveau de service (SLA) et votre plan de continuité d'activité existants.
Nous vous recommandons d'inclure les documents suivants dans votre documentation de planification de la migration:
- Document de conception technique (CDT)
- Matrice RACI
- Calendrier (par exemple, un plan "T-Minus")
Les migrations de bases de données sont un processus itératif, et les premières migrations sont souvent plus lentes que les suivantes. En général, les migrations bien planifiées se déroulent sans problème, mais des problèmes imprévus peuvent toujours survenir. Nous vous recommandons de toujours disposer d'un plan de rollback. Nous vous recommandons de suivre les conseils de la section Migrer vers Google Cloud: bonnes pratiques pour valider un plan de migration.
TDD
Le TDD documente toutes les décisions techniques à prendre pour le projet. Incluez les éléments suivants dans le TDD:
- Exigences commerciales et criticité
- Objectif de temps de récupération (RTO) :
- Objectif de point de reprise après sinistre (RPO) :
- Détails de la migration de la base de données
- Estimations de l'effort de migration
- Recommandations de validation de la migration
Matrice RACI
Certains projets de migration nécessitent une matrice RACI, qui est un document de gestion de projet courant qui définit les personnes ou groupes responsables des tâches et des livrables du projet de migration.
Chronologie
Préparez un calendrier pour chaque base de données à migrer. Incluez toutes les tâches à accomplir, ainsi que les dates de début et de fin estimées.
Pour chaque environnement de migration, nous vous recommandons de créer un plan T-minus. Un plan "Jour J" est structuré comme un calendrier de compte à rebours et liste toutes les tâches requises pour mener à bien le projet de migration, ainsi que les groupes responsables et la durée estimée.
Le calendrier doit tenir compte non seulement de l'exécution des tâches de préparation préalable à la migration, mais aussi des tâches de validation, d'audit ou de test qui ont lieu après le transfert de données.
La durée des tâches de migration dépend généralement de la taille de la base de données, mais d'autres aspects doivent également être pris en compte, comme la complexité de la logique métier, l'utilisation de l'application et la disponibilité de l'équipe.
Voici un exemple de plan de lancement:
Date | Phase | Catégorie | Tâches | Rôle | T-minus | État |
---|---|---|---|---|---|---|
11/1/2023 | Pré-migration | Évaluation | Créer un rapport d'évaluation | Équipe de découverte | -21 | Terminée |
11/7/2023 | Pré-migration | Préparation des cibles | Concevoir l'environnement cible tel que décrit dans le document de conception | Équipe de migration | -14 | Terminée |
11/15/2023 | Pré-migration | Gouvernance d'entreprise | Date de migration et approbation du délai avant le lancement | Direction | -6 | Terminée |
11/18/2023 | Migration | Configurer DMS | Créer des profils de connexion | Ingénieur en migration vers le cloud | -3 | Terminée |
11/19/2023 | Migration | Configurer DMS | Créer et démarrer des tâches de migration | Ingénieur en migration vers le cloud | -2 | Non démarrée |
11/19/2023 | Migration | Surveiller le DMS | Surveiller les jobs DMS et les modifications LDD dans l'instance source | Ingénieur en migration vers le cloud | -2 | Non démarrée |
11/21/2023 | Migration | Basculement DMS | Promouvoir une instance DMS répliquée | Ingénieur en migration vers le cloud | 0 | Non démarrée |
11/21/2023 | Migration | Validation de la migration | Validation de la migration de la base de données | Équipe de migration | 0 | Non démarrée |
11/21/2023 | Migration | Test de l'application | Exécuter des tests de fonctionnalités et de performances | Équipe de migration | 0 | Non démarrée |
11/22/2023 | Migration | Gouvernance d'entreprise | Validation de la migration : OK ou KO | Équipe de migration | 1 | Non démarrée |
11/23/2023 | Post-migration | Valider la surveillance | Configurer la surveillance | Équipe en charge de l'infrastructure | 2 | Non démarrée |
11/25/2023 | Post-migration | Sécurité | Supprimer le compte utilisateur DMS | Équipe de sécurité | 4 | Non démarrée |
Plusieurs migrations de bases de données
Si vous devez migrer plusieurs bases de données, votre plan de migration doit contenir des tâches pour toutes les migrations.
Nous vous recommandons de commencer le processus par la migration d'une base de données plus petite, idéalement non critique. Cette approche peut vous aider à développer vos connaissances et votre confiance dans le processus et les outils de migration. Vous pouvez également détecter toute faille dans le processus dès les premières étapes du calendrier de migration global.
Si vous devez migrer plusieurs bases de données, les délais peuvent être chargés en parallèle. Par exemple, pour accélérer le processus de migration, vous pouvez choisir de migrer un groupe de bases de données petites, statiques ou moins critiques en même temps, comme illustré dans le diagramme suivant.
Dans l'exemple illustré dans le diagramme, les bases de données 1 à 4 sont un groupe de petites bases de données migrées simultanément.
Définir les tâches de préparation
Les tâches de préparation sont toutes les activités que vous devez effectuer pour remplir les conditions préalables à la migration. Sans les tâches de préparation, la migration ne peut pas avoir lieu ou la base de données migrée se trouve dans un état inutilisable.
Les tâches de préparation peuvent être classées comme suit:
- Préparations et prérequis pour une instance Amazon RDS ou Amazon Aurora
- Préparation et conditions préalables pour la base de données source
- Configuration des instances Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL
- Configuration spécifique à la migration
Préparation et prérequis pour les instances Amazon RDS ou Amazon Aurora
Tenez compte des tâches de configuration et de prérequis courantes suivantes:
- Selon votre chemin de migration, vous devrez peut-être autoriser les connexions à distance sur vos instances RDS. Si votre instance RDS est configurée pour être privée dans votre VPC, une connectivité privée RFC 1918 doit exister entre Amazon et Google Cloud.
Vous devrez peut-être configurer un nouveau groupe de sécurité pour autoriser les connexions à distance sur les ports requis et appliquer le groupe de sécurité à votre instance Amazon RDS ou Amazon Aurora:
- Par défaut, dans AWS, l'accès réseau est désactivé pour les instances de base de données.
- Vous pouvez spécifier des règles dans un groupe de sécurité qui autorisent l'accès à partir d'une plage d'adresses IP, d'un port ou d'un groupe de sécurité. Les mêmes règles s'appliquent à toutes les instances de base de données associées à ce groupe de sécurité.
Si vous effectuez la migration depuis Amazon RDS, assurez-vous de disposer d'espace disque suffisant pour mettre en mémoire tampon les journaux d'écriture anticipée pendant toute la durée de l'opération de chargement complet sur votre instance Amazon RDS.
Pour la réplication en cours (modifications en streaming via CDC), vous devez utiliser une instance RDS complète et non une instance répliquée de lecture.
Si vous utilisez la réplication intégrée, vous devez configurer votre instance Amazon RDS ou Amazon Aurora pour la réplication pour PostgreSQL. La réplication intégrée ou les outils qui l'utilisent ont besoin de la réplication logique pour PostgreSQL.
Si vous utilisez des outils tiers, des paramètres et des configurations préalables sont généralement requis avant de pouvoir les utiliser. Consultez la documentation de l'outil tiers.
Pour en savoir plus sur la préparation des instances et les conditions préalables, consultez la section Configurer le serveur externe pour la réplication pour PostgreSQL.
Préparation et conditions préalables pour la base de données source
Si vous choisissez d'utiliser Database Migration Service, configurez votre base de données source avant de vous y connecter. Pour en savoir plus, consultez les pages Configurer votre source pour PostgreSQL et Configurer votre source pour PostgreSQL vers AlloyDB pour PostgreSQL.
Pour les tables qui ne possèdent pas de clés primaires, après la migration de la sauvegarde initiale par Database Migration Service, seules les instructions
INSERT
seront migrées vers la base de données cible pendant la phase de CDC. Les instructionsDELETE
etUPDATE
ne sont pas migrées pour ces tables.Notez que les objets volumineux ne peuvent pas être répliqués par Database Migration Service, car la fonctionnalité de décodage logique de PostgreSQL n'est pas compatible avec le décodage des modifications apportées aux objets volumineux.
Si vous choisissez d'utiliser la réplication intégrée, sachez que la réplication logique présente certaines limites concernant les commandes, les séquences et les objets volumineux du langage de définition de données (LDD). Les clés primaires doivent exister ou être ajoutées aux tables à activer pour la CDC et qui subissent de nombreuses mises à jour.
Certains outils de migration tiers exigent que toutes les colonnes d'objets volumineux puissent avoir une valeur nulle. Toute colonne d'objet volumineux qui est
NOT NULL
doit avoir cette contrainte supprimée lors de la migration.Effectuez des mesures de référence sur votre environnement source en production. Réfléchissez aux éléments suivants :
- Mesurez la taille de vos données, ainsi que les performances de votre charge de travail. Combien de temps durent les requêtes ou transactions importantes, en moyenne ? Combien de temps pendant les heures de pointe ?
- Documentez les mesures de référence pour les comparer ultérieurement, afin de déterminer si la fidélité de votre migration de base de données est satisfaisante. Déterminez si vous pouvez basculer vos charges de travail de production et mettre hors service votre environnement source, ou si vous en avez encore besoin à des fins de remplacement.
Configuration des instances Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL
Pour que votre instance cible atteigne des niveaux de performances similaires à ceux de votre instance source, choisissez la taille et les spécifications de votre instance de base de données PostgreSQL cible pour qu'elles correspondent à celles de l'instance source. Portez une attention particulière à la taille et au débit du disque, opérations d'entrée/de sortie par seconde (IOPS) et au nombre de processeurs virtuels (vCPU). Une taille incorrecte peut entraîner de longs délais de migration, des problèmes de performances de la base de données, des erreurs de base de données et des problèmes de performances de l'application. Lorsque vous choisissez une instance Cloud SQL pour PostgreSQL ou AlloyDB pour PostgreSQL, gardez à l'esprit que les performances du disque sont basées sur la taille du disque et le nombre de processeurs virtuels.
Vous devez confirmer les propriétés et les exigences suivantes avant de créer vos instances Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL. Si vous souhaitez modifier ces propriétés et ces exigences ultérieurement, vous devrez recréer les instances.
Choisissez soigneusement le projet et la région de vos instances Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL cibles. Vous ne pouvez pas migrer d'instances entre des projets et des régions Google Cloud sans transfert de données.
Migrez vers une version majeure correspondante sur Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL. Par exemple, si vous utilisez PostgreSQL 14.x sur Amazon RDS ou Amazon Aurora, vous devez migrer vers Cloud SQL ou AlloyDB pour PostgreSQL, pour la version 14.x de PostgreSQL.
Répliquez les informations utilisateur séparément si vous utilisez des sauvegardes du moteur de base de données intégrées ou Database Migration Service. Pour en savoir plus, consultez les limites de la section Sauvegardes spécifiques au moteur de base de données.
Examinez les indicateurs de configuration spécifiques au moteur de base de données et comparez leurs valeurs d'instance source et cible. Assurez-vous de comprendre leur impact et de savoir s'ils doivent être identiques ou non. Par exemple, lorsque vous travaillez avec PostgreSQL, nous vous recommandons de comparer les valeurs de la table
pg_settings
de votre base de données source à celles de l'instance Cloud SQL et AlloyDB pour PostgreSQL. Mettez à jour les paramètres d'indicateur si nécessaire sur l'instance de base de données cible pour répliquer les paramètres source.En fonction de la nature de votre charge de travail, vous devrez peut-être activer des extensions spécifiques pour prendre en charge votre base de données. Si votre charge de travail nécessite ces extensions, consultez les extensions PostgreSQL compatibles et découvrez comment les activer dans Cloud SQL et AlloyDB pour PostgreSQL.
Pour en savoir plus sur la configuration de Cloud SQL pour PostgreSQL, consultez les pages Options de configuration de l'instance, Options spécifiques au moteur de base de données et Extensions compatibles.
Pour en savoir plus sur la configuration d'AlloyDB pour PostgreSQL, consultez les sections Options de base de données compatibles et Extensions compatibles.
Configuration spécifique à la migration
Si vous pouvez vous permettre des temps d'arrêt, vous pouvez importer des fichiers de dump SQL dans Cloud SQL et AlloyDB pour PostgreSQL. Dans ce cas, vous devrez peut-être créer un bucket Cloud Storage pour stocker le dump de la base de données.
Si vous utilisez la réplication, vous devez vous assurer que l'instance répliquée Cloud SQL et AlloyDB pour PostgreSQL a accès à votre base de données principale (source). Cet accès peut être obtenu à l'aide des options de connectivité documentées.
Selon votre cas d'utilisation et la criticité, vous devrez peut-être implémenter un scénario de remplacement, qui consiste généralement à inverser la direction de la réplication. Dans ce cas, vous devrez peut-être mettre en place un mécanisme de réplication supplémentaire depuis votre Cloud SQL et AlloyDB pour PostgreSQL cible vers votre instance Amazon source.
Vous pouvez mettre hors service les ressources qui connectent votre environnement Amazon et Google Cloud une fois la migration terminée et validée.
Si vous migrez vers AlloyDB pour PostgreSQL, envisagez d'utiliser une instance Cloud SQL pour PostgreSQL comme destination potentielle pour vos scénarios de remplacement. Utilisez l'extension pglogical pour configurer la réplication logique vers cette instance Cloud SQL.
Pour en savoir plus, consultez les ressources suivantes :
- Bonnes pratiques pour l'importation et l'exportation de données
- Connectivité pour PostgreSQL et PostgreSQL vers AlloyDB pour PostgreSQL dans Database Migration Service
Définir les tâches d'exécution
Les tâches d'exécution implémentent le travail de migration lui-même. Les tâches dépendent de l'outil de migration que vous avez choisi, comme décrit dans les sous-sections suivantes.
Sauvegardes du moteur de base de données intégrées
Utilisez l'utilitaire pg_dump
pour créer une sauvegarde. Pour en savoir plus sur l'utilisation de cet utilitaire pour importer et exporter des données, consultez les ressources suivantes:
- Page de documentation de l'utilitaire
pg_dump
- Importer des données dans Cloud SQL pour PostgreSQL
- Importer un fichier DMP dans AlloyDB pour PostgreSQL
Tâches de migration de Database Migration Service
Définissez et configurez des jobs de migration dans Database Migration Service pour migrer des données d'une instance source vers la base de données de destination. Les tâches de migration se connectent à l'instance de base de données source via des profils de connexion définis par l'utilisateur.
Testez toutes les conditions préalables pour vous assurer que la tâche peut s'exécuter correctement. Choisissez un moment où vos charges de travail peuvent supporter un temps d'arrêt limité pour la migration et le passage en production.
Dans Database Migration Service, la migration commence par l'extraction et la restauration initiales du schéma sans index ni contraintes, suivies de l'opération de copie des données. Une fois la copie des données terminée, les index et les contraintes sont restaurés. Enfin, la réplication continue des modifications de la source vers l'instance de base de données de destination est lancée.
Database Migration Service utilise l'extension pglogical
pour la réplication de votre source vers l'instance de base de données cible. Au début de la migration, cette extension configure la réplication en exigeant des verrous exclusifs à court terme sur toutes les tables de votre instance Amazon RDS ou Amazon Aurora source. C'est pourquoi nous vous recommandons de lancer la migration lorsque la base de données est la moins occupée et d'éviter les instructions sur la source pendant la phase de dump et de réplication, car les instructions LDD ne sont pas répliquées. Si vous devez effectuer des opérations LDD, utilisez les fonctions "pglogical" pour exécuter des instructions LDD sur votre instance source ou exécutez manuellement les mêmes instructions LDD sur l'instance cible de la migration, mais uniquement une fois l'étape de dump initial terminée.
Le processus de migration avec Database Migration Service se termine par l'opération de promotion. La promotion d'une instance de base de données interrompt la connexion de la base de données de destination au flux de modifications provenant de la base de données source. L'instance de destination, désormais autonome, est ensuite promue en instance principale. Cette approche est également appelée "switch de production".
Pour un processus de configuration de migration entièrement détaillé, consultez les guides de démarrage rapide pour PostgreSQL et PostgreSQL vers AlloyDB pour PostgreSQL.
Réplication intégrée du moteur de base de données
Cloud SQL est compatible avec deux types de réplication logique: la réplication logique intégrée de PostgreSQL et la réplication logique via l'extension pglogical. Pour AlloyDB pour PostgreSQL, nous vous recommandons d'utiliser l'extension pglogical
pour la réplication. Chaque type de réplication logique présente ses propres caractéristiques et limites.
La réplication logique intégrée présente les fonctionnalités et les limites suivantes:
- Elle est disponible dans PostgreSQL 10 et versions ultérieures.
- Toutes les modifications et toutes les colonnes sont répliquées. Les publications sont définies au niveau de la table.
- Les données ne sont répliquées que de tables de base vers des tables de base.
- Il n'effectue pas de réplication de séquence.
- Il s'agit du type de réplication recommandé lorsque de nombreuses tables ne comportent pas de clé primaire. Configurez la réplication logique PostgreSQL intégrée. Pour les tables sans clé primaire, appliquez le formulaire
REPLICA IDENTITY FULL
afin que la réplication intégrée utilise l'ensemble de la ligne comme identifiant unique au lieu d'une clé primaire.
La réplication logique pglogical
présente les fonctionnalités et limites suivantes:
- Elle est disponible dans toutes les versions de PostgreSQL et offre une compatibilité entre les versions.
- Le filtrage des lignes est disponible dans la source.
- Il ne réplique pas les tables
UNLOGGED
etTEMPORARY
. - Une clé primaire ou une clé unique est requise dans les tables pour capturer les modifications
UPDATE
etDELETE
. - La réplication de séquence est disponible.
- La réplication retardée est possible.
- Elle permet de détecter les conflits et de les résoudre de manière configurable en cas de présence de plusieurs éditeurs ou de conflits entre les données répliquées et les modifications locales.
Pour savoir comment configurer la réplication logique PostgreSQL intégrée à partir d'un serveur externe tel qu'Amazon RDS ou Amazon Aurora pour PostgreSQL, consultez les ressources suivantes:
- Configurer la réplication logique PostgreSQL intégrée
- Configurer la réplication logique avec pglogical
Outils tiers
Définissez les tâches d'exécution pour l'outil tiers que vous avez choisi.
Cette section se concentre sur Striim. Striim utilise des applications qui acquièrent des données à partir de diverses sources, les traitent, puis les transmettent à d'autres applications ou cibles.
Vous utilisez un ou plusieurs flux pour organiser ces processus de migration dans vos applications personnalisées. Pour coder vos applications personnalisées, vous pouvez utiliser un outil de programmation graphique ou le langage de programmation Tungsten Query Language (TQL).
Pour en savoir plus sur l'utilisation de Striim, consultez les ressources suivantes:
Principes de base de Striim : concepts Striim
Guide de démarrage rapide Striim dans Google Cloud : Exécuter Striim dans Google Cloud
Paramètres de configuration pour la réplication continue : PostgreSQL et SQL Server
Guide des bonnes pratiques : Passer d'un chargement initial à une réplication continue
Si vous décidez d'utiliser Striim pour migrer vos données, consultez les guides suivants pour savoir comment utiliser Striim pour migrer des données vers Google Cloud:
- Tutoriels sur le service de migration Striim vers Google Cloud
- Migrer des bases de données transactionnelles vers AlloyDB pour PostgreSQL
Définir des scénarios de remplacement
Définissez des actions de remplacement pour chaque tâche d'exécution de la migration afin de vous protéger contre les problèmes imprévus pouvant survenir au cours du processus de migration. Les tâches de remplacement dépendent généralement de la stratégie de migration et des outils utilisés.
Le remplacement peut nécessiter un effort considérable. Nous vous recommandons de ne pas passer en production tant que les résultats de vos tests ne sont pas satisfaisants. La migration de la base de données et le scénario de remplacement doivent être correctement testés pour éviter une panne grave.
Définissez des critères de réussite et définissez des délais pour toutes vos tâches d'exécution de la migration. Effectuer un essai de migration permet de recueillir des informations sur les délais attendus pour chaque tâche. Par exemple, pour une migration de maintenance planifiée, vous pouvez vous permettre le temps d'arrêt représenté par l'intervalle de basculement. Toutefois, il est important de planifier votre prochaine action au cas où la tâche de migration ponctuelle ou la restauration de la sauvegarde échouerait à mi-chemin. Selon le temps écoulé depuis le début de l'arrêt planifié, vous devrez peut-être reporter la migration si la tâche de migration ne se termine pas dans le délai prévu.
Un plan de secours fait généralement référence à la réinitialisation de la migration après le passage en production, si des problèmes surviennent sur l'instance cible. Si vous implémentez un plan de remplacement, n'oubliez pas qu'il doit être traité comme une migration complète de la base de données, y compris la planification et les tests.
Si vous choisissez de ne pas avoir de plan de secours, assurez-vous de bien comprendre les conséquences possibles. L'absence de plan de remplacement peut entraîner des efforts imprévus et des perturbations évitables dans votre processus de migration.
Bien qu'un remplacement soit une opération à effectuer en dernier recours et que la plupart des migrations de bases de données ne l'utilisent pas, nous vous recommandons de toujours avoir une stratégie de remplacement.
Solution de remplacement simple
Dans cette stratégie de remplacement, vous rebasculez vos applications vers l'instance de base de données source d'origine. Adoptez cette stratégie si vous pouvez vous permettre des temps d'arrêt en cas de bascule ou si vous n'avez pas besoin que les transactions soient validées sur le nouveau système cible.
Si vous avez besoin de toutes les données écrites dans votre base de données cible et que vous pouvez vous permettre un temps d'arrêt, vous pouvez envisager d'arrêter les écritures dans votre instance de base de données cible, de créer des sauvegardes intégrées et de les restaurer sur votre instance source, puis de reconnecter vos applications à l'instance de base de données source initiale. En fonction de la nature de votre charge de travail et de la quantité de données écrites sur l'instance de base de données cible, vous pouvez l'importer dans votre système de base de données source initial ultérieurement, en particulier si vos charges de travail ne dépendent pas d'une heure de création d'enregistrement spécifique ni de contraintes d'ordonnancement temporel.
Réplication inverse
Dans cette stratégie, vous répliquez les écritures qui se produisent sur votre nouvelle base de données cible après le passage en production vers votre base de données source initiale. De cette façon, vous synchronisez la source d'origine avec la nouvelle base de données cible et les écritures sont effectuées sur la nouvelle instance de base de données cible. Son principal inconvénient est que vous ne pouvez pas tester le flux de réplication avant d'avoir effectué la transition vers l'instance de base de données cible. Il n'est donc pas possible de procéder à des tests de bout en bout, et il existe une courte période sans reprise.
Choisissez cette approche lorsque vous pouvez conserver votre instance source pendant un certain temps et que vous effectuez la migration à l'aide de la migration de réplication continue.
Transfert de la réplication
Cette stratégie est une variante de la réplication inverse. Vous répliquez les écritures sur votre nouvelle base de données cible dans une troisième instance de base de données de votre choix. Vous pouvez diriger vos applications vers cette troisième base de données, qui se connecte au serveur et exécute des requêtes en lecture seule lorsque le serveur est indisponible. Vous pouvez utiliser n'importe quel mécanisme de réplication, en fonction de vos besoins. L'avantage de cette approche est qu'elle peut être entièrement testée de bout en bout.
Adoptez cette approche lorsque vous souhaitez être couvert par un plan de secours en permanence ou lorsque vous devez supprimer votre base de données source initiale peu de temps après le passage en production.
Dupliquer les écritures
Si vous choisissez une stratégie de migration de microservice d'accès aux données ou Y (écriture et lecture), ce plan de remplacement est déjà défini. Cette stratégie est plus complexe, car vous devez refactoriser des applications ou développer des outils qui se connectent à vos instances de base de données.
Vos applications écrivent à la fois dans les instances de base de données source et cible initiales, ce qui vous permet d'effectuer une transition progressive vers la production jusqu'à ce que vous n'utilisiez plus que vos instances de base de données cible. En cas de problème, vous reconnectez vos applications à la source initiale sans temps d'arrêt. Vous pouvez supprimer la source initiale et le mécanisme d'écriture en double lorsque vous considérez que la migration a été effectuée sans problème.
Nous vous recommandons cette approche lorsque vous devez absolument éviter tout temps d'arrêt lié à la migration, que vous disposez d'un plan de secours fiable et que vous avez le temps et les ressources nécessaires pour effectuer le refactoring de l'application.
Effectuer des tests et des validations
Les objectifs de cette étape sont de tester et de valider les éléments suivants:
- Migration réussie des données dans la base de données.
- Intégration aux applications existantes après leur passage à la nouvelle instance cible.
Définissez les principaux facteurs de réussite, qui sont propres à votre migration. Voici des exemples de facteurs subjectifs:
- Les données à migrer. Pour certaines charges de travail, il n'est pas nécessaire de migrer toutes les données. Vous ne souhaitez peut-être pas migrer les données déjà agrégées, redondantes, archivées ou obsolètes. Vous pouvez archiver ces données dans un bucket Cloud Storage, à titre de sauvegarde.
- Un pourcentage acceptable de perte de données. Cela s'applique particulièrement aux données utilisées pour les charges de travail d'analyse, où la perte d'une partie des données n'affecte pas les tendances générales ni les performances de vos charges de travail.
- Critères de qualité et de quantité des données, que vous pouvez appliquer à votre environnement source et comparer à l'environnement cible après la migration.
- Critères de performances Certaines transactions commerciales peuvent être plus lentes dans l'environnement cible, mais le temps de traitement reste dans les attentes définies.
Les configurations de stockage de votre environnement source ne correspondent peut-être pas directement aux cibles d'environnement Google Cloud. Par exemple, les configurations des volumes SSD à usage général (gp2 et gp3) avec des performances d'IOPS en utilisation intensive ou les SSD IOPS provisionnés. Pour comparer et dimensionner correctement les instances cibles, effectuez des benchmarks sur vos instances sources, à la fois lors des phases d'évaluation et de validation.
Dans le processus de benchmarking, vous appliquez des séquences d'opérations semblables à celles de la production aux instances de base de données. Pendant cette période, vous capturez et traitez des métriques pour mesurer et comparer les performances relatives des systèmes source et cible.
Pour les configurations classiques basées sur des serveurs, utilisez les mesures pertinentes observées lors des pics de charge. Pour les modèles de capacité de ressources flexibles tels qu'Aurora Serverless, envisagez d'examiner les données historiques des métriques pour observer vos besoins d'ajustement.
Les outils suivants peuvent être utilisés pour les tests, la validation et le benchmark des bases de données:
- HammerDB : outil Open Source de benchmarking et de test de charge de base de données. Il est compatible avec des charges de travail transactionnelles et analytiques complexes, basées sur les normes du secteur, sur plusieurs moteurs de base de données (TPROC-C et TPROC-H). HammerDB dispose d'une documentation détaillée et d'une large communauté d'utilisateurs. Vous pouvez partager et comparer les résultats entre plusieurs moteurs de base de données et configurations de stockage. Pour en savoir plus, consultez les pages Tests de charge SQL Server avec HammerDB et Benchmark des performances Amazon RDS SQL Server avec HammerDB.
- Outil de benchmark DBT2 : outil de benchmark spécialisé pour MySQL. Un ensemble de kits de charge de travail de base de données imite une application pour une entreprise qui possède des entrepôts et implique un mélange de transactions de lecture et d'écriture. Utilisez cet outil si vous souhaitez utiliser un test de charge de traitement transactionnel en ligne (OLTP) prêt à l'emploi.
- DbUnit : outil de test unitaire Open Source utilisé pour tester les interactions de base de données relationnelle en Java. La configuration et l'utilisation sont simples, et il est compatible avec plusieurs moteurs de base de données (MySQL, PostgreSQL, SQL Server, etc.). Toutefois, l'exécution des tests peut parfois être lente, en fonction de la taille et de la complexité de la base de données. Nous vous recommandons cet outil lorsque la simplicité est importante.
- DbFit : framework de test de base de données Open Source compatible avec le développement de code basé sur les tests et les tests automatisés. Il utilise une syntaxe de base pour créer des cas de test et propose des tests basés sur les données, un contrôle des versions et des rapports sur les résultats des tests. Cependant, la prise en charge des requêtes et des transactions complexes est limitée, et il n'est pas soutenu par une grande communauté ni ne dispose d'une documentation complète, par rapport aux autres outils. Nous vous recommandons cet outil si vos requêtes ne sont pas complexes et que vous souhaitez effectuer des tests automatisés et les intégrer à votre processus d'intégration et de livraison continue.
Pour exécuter un test de bout en bout, y compris le test du plan de migration, effectuez toujours un exercice de simulation de migration. Une simulation effectue la migration de la base de données dans son intégralité sans changer de charges de travail de production. Elle offre les avantages suivants:
- Vous permet de vous assurer que tous les objets et configurations sont correctement migrés.
- Vous aide à définir et à exécuter vos scénarios de test de migration.
- Fournit des informations sur le temps nécessaire pour la migration réelle afin que vous puissiez calibrer votre calendrier.
- Représente une occasion de tester, valider et adapter le plan de migration. Parfois, vous ne pouvez pas tout planifier à l'avance. Cela vous aide donc à repérer les lacunes.
Les tests de données peuvent être effectués sur un petit ensemble de bases de données à migrer ou sur l'ensemble complet. En fonction du nombre total de bases de données et des outils utilisés pour implémenter leur migration, vous pouvez décider d'adopter une approche basée sur les risques. Avec cette approche, vous effectuez une validation des données sur un sous-ensemble de bases de données migrées via le même outil, en particulier s'il s'agit d'un service de migration géré.
Pour les tests, vous devez avoir accès aux bases de données source et cible, et effectuer les tâches suivantes:
- Comparez les schémas source et cible. Vérifiez si toutes les tables et les exécutables existent. Vérifiez le nombre de lignes et comparez les données au niveau de la base de données.
- Exécutez des scripts de validation de données personnalisés
- Vérifiez que les données migrées sont également visibles dans les applications qui sont passées à la base de données cible (les données migrées sont lues via l'application).
- Effectuez des tests d'intégration entre les applications commutées et la base de données cible en testant différents cas d'utilisation. Ces tests incluent la lecture et l'écriture de données dans les bases de données cibles via les applications afin que les charges de travail soient entièrement compatibles avec les données migrées et les données nouvellement créées.
- Testez les performances des requêtes de base de données les plus utilisées pour voir s'il y a une dégradation en raison de mauvaises configurations ou d'une mauvaise dimensionnement.
Idéalement, tous ces scénarios de test de migration sont automatisés et reproductibles sur n'importe quel système source. La suite de scénarios de test automatisés est adaptée pour être exécutée sur les applications commutées.
Si vous utilisez Database Migration Service comme outil de migration, consultez la version PostgreSQL ou PostgreSQL vers AlloyDB pour PostgreSQL de l'article "Valider une migration".
Outil de validation des données
Pour effectuer la validation des données, nous vous recommandons d'utiliser l'outil de validation des données (DVT, Data Validation Tool). La DVT est un outil de CLI Python Open Source, soutenu par Google, qui fournit une solution automatisée et reproductible pour la validation dans différents environnements.
L'outil de validation des données peut vous aider à simplifier le processus de validation des données en proposant des fonctions de validation personnalisées à plusieurs niveaux pour comparer les tables source et cible au niveau des tables, des colonnes et des lignes. Vous pouvez également ajouter des règles de validation.
DVT couvre de nombreuses sources de données Google Cloud, y compris AlloyDB pour PostgreSQL, BigQuery, Cloud SQL, Spanner, JSON et les fichiers CSV sur Cloud Storage. Il peut également être intégré à Cloud Run Functions et à Cloud Run pour le déclenchement et l'orchestration basés sur des événements.
DVT accepte les types de validation suivants :
- Comparaisons au niveau du schéma
- Colonne (y compris "MOYENNE", "NB.", "SOMME", "MIN", "MAX", "GROUP BY" et "STRING_AGG")
- Ligne (y compris le hachage et la correspondance exacte dans les comparaisons de champs)
- Comparaison des résultats de requêtes personnalisées
Pour en savoir plus sur la validation des données, consultez le dépôt Git et La validation des données simplifiée avec l'outil de validation des données de Google Cloud.
Effectuer la migration
Les tâches de migration incluent les activités permettant le transfert d'un système à un autre.
Tenez compte des bonnes pratiques suivantes pour votre migration de données:
- Informez les équipes concernées chaque fois qu'une étape du plan commence et se termine.
- Si l'une des étapes prend plus de temps que prévu, comparez le temps écoulé au temps maximal alloué à cette étape. Dans ce cas, transmettez régulièrement des informations intermédiaires aux équipes concernées.
- Si la période est supérieure à la durée maximale réservée à chaque étape du plan, envisagez de revenir en arrière.
- Prenez des décisions "go or no-go" pour chaque étape du plan de migration et de basculement.
- Envisagez des actions de rollback ou des scénarios alternatifs pour chacune des étapes.
Effectuez la migration en suivant les tâches d'exécution définies, puis consultez la documentation de l'outil de migration que vous avez sélectionné.
Effectuer le basculement en production
La procédure de passage à la production à un niveau élevé peut varier en fonction de la stratégie de migration choisie. Si vous pouvez accepter un temps d'arrêt sur vos charges de travail, la transition de la migration commence par arrêter les écritures dans votre base de données source.
Pour les migrations de réplication continue, vous procédez généralement comme suit dans le processus de basculement:
- Arrêtez toute écriture de données dans la base de données source.
- Videz la source.
- Arrêtez le processus de réplication.
- Déployez les applications qui pointent vers la nouvelle base de données cible.
Une fois les données migrées à l'aide de l'outil de migration choisi, vous les validez dans la base de données cible. Vous confirmez que la base de données source et les bases de données cibles sont synchronisées et que les données de l'instance cible respectent les critères de réussite de la migration que vous avez choisis.
Une fois la validation des données conforme à vos critères, vous pouvez effectuer le basculement au niveau de l'application. Déployez les charges de travail qui ont été refactorisées pour utiliser la nouvelle instance cible. Vous déployez les versions de vos applications qui pointent vers la nouvelle instance de base de données cible. Les déploiements peuvent être effectués par le biais de mises à jour progressives, de versions par étapes ou à l'aide d'un modèle de déploiement bleu-vert. Un temps d'arrêt de l'application peut être nécessaire.
Suivez les bonnes pratiques pour votre passage en production:
- Surveillez vos applications qui fonctionnent avec la base de données cible après le passage.
- Définissez une période de surveillance pour déterminer si vous devez implémenter votre plan de remplacement ou non.
- Notez que votre instance Cloud SQL ou AlloyDB pour PostgreSQL peut nécessiter un redémarrage si vous modifiez certains indicateurs de base de données.
- Sachez que l'effort d'inversion de la migration peut être plus important que la résolution des problèmes qui apparaissent dans l'environnement cible.
Nettoyer l'environnement source et configurer l'instance Cloud SQL ou AlloyDB pour PostgreSQL
Une fois la transition terminée, vous pouvez supprimer les bases de données sources. Nous vous recommandons d'effectuer les actions importantes suivantes avant le nettoyage de votre instance source:
Créez une sauvegarde finale de chaque base de données source. Ces sauvegardes vous fournissent l'état final des bases de données sources. Dans certains cas, les sauvegardes peuvent également être requises pour respecter certaines réglementations sur les données.
Collectez les paramètres de paramètre de base de données de votre instance source. Vérifiez également qu'ils correspondent à ceux que vous avez recueillis lors de la phase de création de l'inventaire. Ajustez les paramètres de l'instance cible pour qu'ils correspondent à ceux de l'instance source.
Collectez les statistiques de la base de données de l'instance source et comparez-les à celles de l'instance cible. Si les statistiques sont disparates, il est difficile de comparer les performances de l'instance source et de l'instance cible.
Dans un scénario de remplacement, vous pouvez implémenter la réplication de vos écritures sur l'instance Cloud SQL vers votre base de données source d'origine. La configuration ressemble au processus de migration, mais s'exécute à l'inverse: la base de données source initiale devient la nouvelle cible.
Il est recommandé de répliquer les écritures effectuées sur les instances Cloud SQL cibles vers la base de données source pour maintenir les instances sources à jour après la transition. Si vous devez effectuer un rollback, vous pouvez revenir à vos anciennes instances sources avec une perte de données minimale.
Vous pouvez également utiliser une autre instance et répliquer vos modifications dans cette instance. Par exemple, lorsque AlloyDB pour PostgreSQL est une destination de migration, envisagez de configurer la réplication vers une instance Cloud SQL pour PostgreSQL pour les scénarios de remplacement.
En plus du nettoyage de l'environnement source, vous devez effectuer les configurations critiques suivantes pour vos instances Cloud SQL pour PostgreSQL:
- Configurez un intervalle de maintenance permettant à votre instance principale de contrôler à quel moment des mises à jour perturbatrices peuvent se produire.
- Configurez l'espace de stockage de l'instance de sorte que vous disposiez d'au moins 20 % d'espace disponible pour prendre en charge toutes les opérations de maintenance de base de données critiques que Cloud SQL peut effectuer. Pour recevoir une alerte si l'espace disque disponible est inférieur à 20%, créez une règle d'alerte basée sur les métriques pour la métrique d'utilisation du disque.
Ne démarrez pas une opération administrative avant la fin de l'opération précédente.
Pour en savoir plus sur la maintenance et les bonnes pratiques concernant les instances Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL, consultez les ressources suivantes:
- À propos de la maintenance des instances Cloud SQL pour PostgreSQL
- À propos des paramètres d'instance sur les instances Cloud SQL pour PostgreSQL
- À propos de la maintenance d'AlloyDB pour PostgreSQL
- Configurer les indicateurs de base de données d'une instance AlloyDB pour PostgreSQL
Pour en savoir plus sur la maintenance et les bonnes pratiques, consultez la page À propos de la maintenance des instances Cloud SQL.
Optimiser votre environnement après la migration
L'optimisation est la dernière phase de votre migration. Au cours de cette phase, vous effectuez des itérations sur les tâches d'optimisation jusqu'à ce que votre environnement réponde à vos exigences d'optimisation. Les étapes de chaque itération sont les suivantes :
- Évaluer votre environnement actuel, vos équipes et votre boucle d'optimisation
- Définir vos exigences et vos objectifs d'optimisation
- Optimiser votre environnement et vos équipes
- Ajuster la boucle d'optimisation
Vous devez répéter cette séquence jusqu'à ce que vous ayez atteint vos objectifs d'optimisation.
Pour en savoir plus sur l'optimisation de votre environnement Google Cloud, consultez les pages Migrer vers Google Cloud : optimiser votre environnement et Processus d'optimisation des performances.
Définir vos exigences d'optimisation
Examinez les exigences d'optimisation suivantes pour votre environnement Google Cloud et choisissez celles qui correspondent le mieux à vos charges de travail:
Améliorer la fiabilité et la disponibilité de votre base de données
Avec Cloud SQL, vous pouvez mettre en œuvre une stratégie de reprise après sinistre à haute disponibilité et conforme à vos objectifs en termes de temps de récupération (RTO) et de point de récupération (RPO). Pour améliorer la fiabilité et la disponibilité, tenez compte des points suivants:
- Pour les charges de travail lourdes en lecture, ajoutez des instances répliquées avec accès en lecture pour décharger le trafic de l'instance principale.
- Pour les charges de travail critiques, utilisez la configuration à haute disponibilité, les instances dupliquées pour le basculement régional et une configuration de reprise après sinistre robuste.
- Pour les charges de travail moins critiques, des sauvegardes automatiques et à la demande peuvent suffire.
Pour éviter la suppression accidentelle d'instances, utilisez la protection contre la suppression d'instances.
Lorsque vous migrez vers Cloud SQL pour PostgreSQL, envisagez d'utiliser l'édition Cloud SQL Enterprise Plus pour bénéficier d'une disponibilité, d'une conservation des journaux et d'une maintenance planifiée avec un temps d'arrêt quasi nul accrus. Pour en savoir plus sur Cloud SQL Enterprise Plus, consultez les pages Présentation des éditions Cloud SQL et Maintenance planifiée avec un temps d'arrêt quasi nul.
Pour en savoir plus sur l'amélioration de la fiabilité et de la disponibilité de votre base de données Cloud SQL pour PostgreSQL, consultez les documents suivants:
Lorsque vous migrez vers AlloyDB pour PostgreSQL, configurez des plans de sauvegarde et envisagez d'utiliser le proxy d'authentification AlloyDB pour PostgreSQL. Envisagez de créer et d'utiliser des clusters secondaires pour la réplication interrégionale.
Pour en savoir plus sur l'amélioration de la fiabilité et de la disponibilité de votre base de données AlloyDB pour PostgreSQL, consultez les documents suivants:
Améliorer l'efficacité de votre infrastructure de base de données
Pour avoir un impact économique positif, vos charges de travail doivent utiliser efficacement les ressources et les services disponibles. Vous avez le choix entre les options suivantes :
Fournissez à la base de données la capacité de stockage minimale requise en procédant comme suit:
- Pour faire évoluer automatiquement la capacité de stockage à mesure que la quantité de données augmente, activez l'augmentation automatique de l'espace de stockage. Toutefois, assurez-vous de configurer vos instances pour qu'elles disposent d'une certaine mémoire tampon en cas de pics de charge de travail. N'oubliez pas que les charges de travail de base de données ont tendance à augmenter avec le temps.
Identifiez les ressources surestimées possibles:
- L'ajustement de la taille de vos instances Cloud SQL peut réduire les coûts d'infrastructure sans ajouter de risques supplémentaires à la stratégie de gestion de la capacité.
- Cloud Monitoring fournit des tableaux de bord prédéfinis qui permettent d'identifier l'état et l'utilisation de la capacité de nombreux composants Google Cloud, y compris Cloud SQL. Pour en savoir plus, consultez la section Créer et gérer des tableaux de bord personnalisés.
Identifiez les instances qui ne nécessitent pas de configuration de haute disponibilité ni de reprise après sinistre, puis supprimez-les de votre infrastructure.
Supprimez les tables et les objets dont vous n'avez plus besoin. Vous pouvez les stocker dans une sauvegarde complète ou dans un bucket Cloud Storage d'archivage.
Évaluez le type de stockage le plus économique (SSD ou HDD) pour votre cas d'utilisation.
- Dans la plupart des cas, le SSD est le choix le plus efficace et le plus rentable.
- Si vos ensembles de données sont volumineux (10 To ou plus), non sensibles à la latence ou rarement utilisés, un disque dur peut être plus approprié.
- Pour en savoir plus, consultez la section Choisir entre le stockage SSD et HDD.
Souscrivez des remises sur engagement d'utilisation pour les charges de travail ayant des besoins en ressources prévisibles.
Utilisez Active Assist pour obtenir des insights et des recommandations sur les coûts.
Pour en savoir plus et découvrir d'autres options, consultez la page Réduisez vos coûts tout en faisant plus : découvrez les recommandations d'optimisation des coûts Cloud SQL avec Active Assist.
Lors de la migration vers Cloud SQL pour PostgreSQL, vous pouvez réduire le nombre d'instances surprovisionnées et identifier les instances Cloud SQL pour PostgreSQL inactives.
Pour en savoir plus sur l'amélioration de l'efficacité de votre instance de base de données Cloud SQL pour PostgreSQL, consultez les documents suivants:
- Activer l'augmentation automatique de l'espace de stockage pour Cloud SQL
- Identifier les instances Cloud SQL inactives
- Réduire les instances Cloud SQL surprovisionnées
- Optimiser les requêtes avec utilisation de mémoire élevée
- Créer et gérer des tableaux de bord personnalisés
- Choisir entre le stockage SSD et HDD
- Remises sur engagement d'utilisation
- Active Assist
Lorsque vous utilisez AlloyDB pour PostgreSQL, vous pouvez procéder comme suit pour améliorer l'efficacité de vos coûts:
- Utilisez le moteur de données en colonnes pour effectuer efficacement certaines requêtes analytiques, telles que des fonctions d'agrégation ou des analyses de table.
- Utilisez l'outil de recommandation de quota d'espace de stockage pour les clusters AlloyDB pour PostgreSQL afin de détecter les clusters qui risquent d'atteindre le quota d'espace de stockage.
Pour en savoir plus sur l'amélioration de l'efficacité de votre infrastructure de base de données AlloyDB pour PostgreSQL, consultez les sections de documentation suivantes:
Améliorer les performances de votre infrastructure de base de données
Les problèmes de performances mineurs liés à la base de données peuvent souvent avoir un impact sur l'ensemble de l'opération. Pour maintenir et améliorer les performances de votre instance Cloud SQL, suivez les consignes suivantes:
- Si vous avez un grand nombre de tables de base de données, cela peut affecter les performances et la disponibilité de l'instance, et entraîner la perte de sa couverture par le contrat de niveau de service.
Assurez-vous que l'instance n'est pas limitée en termes de mémoire ou de processeur.
- Pour les charges de travail exigeantes en performances, assurez-vous que votre instance dispose d'au moins 60 Go de mémoire.
- Si vous rencontrez une latence pendant l'insertion, la mise à jour ou la suppression de bases de données, vérifiez les emplacements du rédacteur et de la base de données. L'envoi de données sur une longue distance entraîne généralement une latence.
Améliorez les performances des requêtes à l'aide du tableau de bord "Insights sur les requêtes" prédéfini dans Cloud Monitoring (ou des fonctionnalités intégrées similaires du moteur de base de données). Identifiez les commandes les plus coûteuses et essayez de les optimiser.
Empêchez les fichiers de base de données d'être excessivement volumineux. Définissez
autogrow
en Mo plutôt que sous forme de pourcentage, en utilisant des incréments adaptés à l'exigence.Vérifiez l'emplacement du lecteur et celui de la base de données. La latence affecte davantage les performances de lecture que les performances d'écriture.
Lorsque vous migrez d'Amazon RDS et d'Aurora pour PostgreSQL vers Cloud SQL pour PostgreSQL, tenez compte des consignes suivantes:
- Utilisez la mise en cache pour améliorer les performances de lecture. Examinez les différentes statistiques dans la vue
pg_stat_database
. Par exemple, le ratioblks_hit / (blks_hit + blks_read)
doit être supérieur à 99%. Si ce ratio n'est pas supérieur à 99%, envisagez d'augmenter la taille de la mémoire RAM de votre instance. Pour en savoir plus, consultez la page Collecteur de statistiques PostgreSQL. - Récupérez de l'espace et évitez les mauvaises performances de l'index. En fonction de la fréquence de modification de vos données, définissez un calendrier pour exécuter la commande
VACUUM
sur votre Cloud SQL pour PostgreSQL. - Utilisez l'édition Cloud SQL Enterprise Plus pour augmenter les limites de configuration de la machine et le cache de données. Pour en savoir plus sur Cloud SQL Enterprise Plus, consultez la page Présentation des éditions Cloud SQL.
- Passez à AlloyDB pour PostgreSQL. Si vous effectuez la transition, vous bénéficierez d'une compatibilité complète avec PostgreSQL, d'un meilleur traitement transactionnel et de charges de travail d'analyse transactionnelle rapides compatibles avec votre base de données de traitement. Vous recevez également une recommandation pour de nouveaux index grâce à la fonctionnalité du conseiller d'index.
Pour en savoir plus sur l'amélioration des performances de votre infrastructure de base de données Cloud SQL pour PostgreSQL, consultez la documentation sur l'amélioration des performances de Cloud SQL pour PostgreSQL.
Lorsque vous migrez d'Amazon RDS et d'Aurora pour PostgreSQL vers AlloyDB pour PostgreSQL, tenez compte des consignes suivantes pour améliorer les performances de votre instance de base de données AlloyDB pour PostgreSQL:
- Utilisez le moteur de données en colonnes AlloyDB pour PostgreSQL pour accélérer vos requêtes analytiques.
- Utilisez le conseiller d'index dans AlloyDB for PostgreSQL. Le conseiller d'index suit les requêtes régulièrement exécutées sur votre base de données et les analyse régulièrement pour recommander de nouveaux index susceptibles d'en améliorer les performances.
- Améliorez les performances des requêtes à l'aide des Insights sur les requêtes dans AlloyDB pour PostgreSQL.
Améliorer les fonctionnalités d'observabilité des bases de données
Le diagnostic et le dépannage des problèmes dans les applications qui se connectent à des instances de base de données peuvent s'avérer difficiles et chronophages. C'est pourquoi il est essentiel de disposer d'un espace centralisé où tous les membres de l'équipe peuvent voir ce qui se passe au niveau de la base de données et des instances. Vous pouvez surveiller les instances Cloud SQL de différentes manières:
Cloud SQL utilise des agents personnalisés à mémoire intégrée pour collecter la télémétrie des requêtes.
- Utilisez Cloud Monitoring pour collecter des mesures de votre service et des ressources Google Cloud que vous utilisez. Cloud Monitoring inclut des tableaux de bord prédéfinis pour plusieurs produits Google Cloud, y compris un tableau de bord de surveillance Cloud SQL.
- Vous pouvez créer des tableaux de bord personnalisés qui vous aident à surveiller les métriques et à configurer des règles d'alerte afin de recevoir des notifications en temps opportun.
- Vous pouvez également envisager d'utiliser des solutions de surveillance tierces intégrées à Google Cloud, telles que Datadog et Splunk.
Cloud Logging collecte les données de journalisation à partir des composants d'application courants.
Cloud Trace collecte les données de latence et les plans de requête exécutés à partir d'applications pour vous aider à suivre la propagation des requêtes dans votre application.
Database Center fournit une vue d'ensemble centralisée et assistée par IA de votre parc de bases de données. Vous pouvez surveiller l'état de vos bases de données, la configuration de la disponibilité, la protection des données, la sécurité et la conformité aux normes du secteur.
Pour en savoir plus sur l'amélioration de l'observabilité de votre infrastructure de base de données, consultez les sections de documentation suivantes:
- Surveiller les instances Cloud SQL pour PostgreSQL
- Surveiller les instances avec AlloyDB pour PostgreSQL
Bonnes pratiques et consignes opérationnelles générales pour Cloud SQL et AlloyDB pour PostgreSQL
Appliquez les bonnes pratiques pour Cloud SQL afin de configurer et d'optimiser la base de données.
Voici quelques recommandations générales importantes concernant Cloud SQL:
- Si vous avez des instances volumineuses, nous vous recommandons de les scinder en instances plus petites, dans la mesure du possible.
- Configurez l'espace de stockage pour tenir compte de la maintenance critique des bases de données. Assurez-vous de disposer d'au moins 20% d'espace disponible pour prendre en charge toutes les opérations de maintenance de base de données critiques que Cloud SQL peut effectuer.
- Un trop grand nombre de tables de base de données peut avoir un impact sur le délai de mise à niveau de la base de données. Dans l'idéal, visez moins de 10 000 tables par instance.
- Choisissez la taille appropriée pour vos instances afin de prendre en compte la conservation des journaux de transactions (binaires), en particulier pour les instances à forte activité d'écriture.
Pour pouvoir gérer efficacement les problèmes de performances de la base de données que vous pourriez rencontrer, suivez les instructions suivantes jusqu'à ce que le problème soit résolu:
Évoluer l'infrastructure: augmenter les ressources (telles que le débit disque, les vCPU et la RAM). En fonction de l'urgence, de la disponibilité et de l'expérience de votre équipe, la mise à l'échelle verticale de votre instance peut résoudre la plupart des problèmes de performances. Vous pourrez ensuite examiner plus en détail l'origine du problème dans un environnement de test et envisager des solutions pour l'éliminer.
Effectuer et planifier des opérations de maintenance de la base de données: défragmentation des index, mises à jour des statistiques, analyse de l'espace vide et réindexation des tables fréquemment mises à jour. Vérifiez si et quand ces opérations de maintenance ont été effectuées pour la dernière fois, en particulier sur les objets concernés (tables, index). Déterminez si les activités de base de données ont changé. Par exemple, si vous avez récemment ajouté une colonne ou si vous avez effectué de nombreuses mises à jour dans un tableau.
Effectuez l'ajustement et l'optimisation de la base de données: les tables de votre base de données sont-elles correctement structurées ? Les colonnes présentent-elles les types de données appropriés ? Votre modèle de données est-il adapté au type de charge de travail ? Examinez vos requêtes lentes et leurs plans d'exécution. Utilisent-elles les index disponibles ? Recherchez les analyses d'index, les verrous et les temps d'attente sur d'autres ressources. Envisagez d'ajouter des index pour prendre en charge vos requêtes critiques. Supprimez les index et les clés étrangères non critiques. Envisagez de réécrire les requêtes et les jointures complexes. Le temps nécessaire pour résoudre votre problème dépend de l'expérience et de la disponibilité de votre équipe, et peut aller de quelques heures à plusieurs jours.
Évoluez vos lectures: envisagez d'utiliser des instances dupliquées avec accès en lecture. Lorsque le scaling vertical ne répond pas à vos besoins et que les mesures de réglage et d'optimisation de la base de données ne sont pas efficaces, envisagez d'utiliser le scaling horizontal. Le routage des requêtes de lecture de vos applications vers une instance répliquée de lecture améliore les performances globales de votre charge de travail de base de données. Toutefois, il peut être nécessaire de modifier vos applications pour qu'elles se connectent à l'instance répliquée de lecture.
Réarchitecture de la base de données: envisagez de partitionner et d'indexer la base de données. Cette opération nécessite beaucoup plus d'efforts que le réglage et l'optimisation de la base de données, et peut impliquer une migration de données, mais elle peut constituer une solution à long terme. Parfois, une conception médiocre du modèle de données peut entraîner des problèmes de performances, qui peuvent être partiellement compensés par un scaling vertical. Toutefois, un modèle de données approprié est une solution à long terme. Envisagez de partitionner vos tables. Archivez les données dont vous n'avez plus besoin, si possible. Normalisez la structure de votre base de données, mais n'oubliez pas que la dénormalisation peut également améliorer les performances.
Segmentation de la base de données : vous pouvez effectuer un scaling horizontal de vos écritures en segmentant votre base de données. Le sharding est une opération complexe qui implique de repenser votre base de données et vos applications de manière spécifique, et d'effectuer une migration de données. Vous divisez votre instance de base de données en plusieurs instances plus petites à l'aide de critères de partitionnement spécifiques. Les critères peuvent être basés sur le client ou le sujet. Cette option vous permet de mettre à l'échelle horizontalement vos écritures et vos lectures. Toutefois, cela augmente la complexité de vos charges de travail de base de données et d'application. Cela peut également entraîner des fragments déséquilibrés appelés "hotspots", qui l'emporteraient sur les avantages du sharding.
Pour Cloud SQL pour PostgreSQL et AlloyDB pour PostgreSQL, tenez compte des bonnes pratiques suivantes:
- Pour décharger le trafic de l'instance principale, ajoutez des instances dupliquées avec accès en lecture. Vous pouvez également utiliser un équilibreur de charge tel que HAProxy pour gérer le trafic vers les instances répliquées. Toutefois, évitez d'avoir trop d'instances répliquées, car cela entrave l'opération
VACUUM
. Pour en savoir plus sur l'utilisation de HAProxy, consultez le site Web officiel de HAProxy. - Optimisez l'opération
VACUUM
en augmentant la mémoire système et le paramètremaintenance_work_mem
. Augmenter la mémoire système permet de regrouper davantage de tupels à chaque itération. - Les index plus volumineux peuvent prendre beaucoup de temps à analyser. Par conséquent, définissez le paramètre
INDEX_CLEANUP
surOFF
pour procéder rapidement au nettoyage et figer les données de la table. - Lorsque vous utilisez AlloyDB pour PostgreSQL, utilisez le tableau de bord et les journaux d'audit des insights système d'AlloyDB pour PostgreSQL. Le tableau de bord des insights système d'AlloyDB pour PostgreSQL affiche les métriques des ressources que vous utilisez et vous permet de les surveiller. Pour en savoir plus, consultez les consignes de la section Surveiller les instances dans la documentation AlloyDB pour PostgreSQL.
Pour en savoir plus, consultez les ressources suivantes :
- Section sur les bonnes pratiques générales et Consignes opérationnelles pour Cloud SQL pour PostgreSQL
- À propos de la maintenance et Présentation d'AlloyDB pour PostgreSQL
Étape suivante
- Découvrez d'autres parcours de migration d'AWS vers Google Cloud.
- Découvrez comment comparer les services AWS et Azure à Google Cloud.
- Découvrez à quel moment obtenir de l'aide pour vos migrations.
- Pour découvrir d'autres architectures de référence, schémas et bonnes pratiques, consultez le Centre d'architecture cloud.
Contributeurs
Auteurs :
- Alex Cârciu | Architecte de solutions
- Marco Ferrari | Architecte de solutions cloud
Autre contributeur: Somdyuti Paul | Spécialiste en gestion des données