Migra de AWS a Google Cloud: Migra de Amazon RDS y Amazon Aurora para PostgreSQL a Cloud SQL y AlloyDB para PostgreSQL

Last reviewed 2024-09-12 UTC

Google Cloud proporciona herramientas, productos, orientación y servicios profesionales para migrar de Amazon Relational Database Service (RDS) o Amazon Aurora a Cloud SQL para PostgreSQL o AlloyDB para PostgreSQL.

Este documento está dirigido a administradores de bases de datos y de la nube que desean planificar, implementar y validar un proyecto de migración de bases de datos. También está destinado a los tomadores de decisiones que evalúan la oportunidad de migrar y desean un ejemplo de cómo podría ser una migración.

En este documento, se enfoca en una migración de bases de datos homogénea, que es una migración en la que las bases de datos de origen y de destino tienen la misma tecnología de base de datos. En esta guía de migración, la fuente es Amazon RDS o Amazon Aurora para PostgreSQL, y el destino es Cloud SQL para PostgreSQL o AlloyDB para PostgreSQL.

Este documento es parte de una serie de varias partes sobre la migración de AWS aGoogle Cloud que incluye los siguientes documentos:

Para esta migración a Google Cloud, te recomendamos que sigas el framework de migración que se describe en Migra a Google Cloud: Comienza ahora.

En el siguiente diagrama, se ilustra la ruta del recorrido de tu migración.

Ruta de migración con cuatro fases

Puedes migrar de tu entorno de origen a Google Cloud en una serie de iteraciones. Por ejemplo, puedes migrar algunas cargas de trabajo primero y otras más tarde. Para cada iteración de migración independiente, debes seguir las fases del framework de migración general:

  1. Evalúa y descubre las cargas de trabajo y los datos.
  2. Planifica y compila una base en Google Cloud.
  3. Migra tus cargas de trabajo y datos a Google Cloud.
  4. Optimiza tu entorno de Google Cloud .

Para obtener más información sobre las fases de este framework, consulta Migra a Google Cloud: Comienza ahora.

Para diseñar un plan de migración eficaz, te recomendamos que valides cada paso del plan y te asegures de tener una estrategia de reversión. Para ayudarte a validar tu plan de migración, consulta Migra a Google Cloud: prácticas recomendadas para validar un plan de migración.

Evalúa el entorno de origen|

En la fase de evaluación, determinas los requisitos y las dependencias para migrar tu entorno de origen a Google Cloud.

La fase de evaluación es fundamental para el éxito de la migración. Debes obtener un conocimiento profundo sobre las cargas de trabajo que deseas migrar, sus requisitos, sus dependencias y tu entorno actual. Debes saber cuál es tu punto de partida para planificar y ejecutar de forma correcta una migración de Google Cloud.

La fase de evaluación consta de las siguientes tareas:

  1. Crea un inventario completo de tus aplicaciones.
  2. Cataloga tus cargas de trabajo según sus propiedades y dependencias.
  3. Capacita y educa a tus equipos en Google Cloud.
  4. Crea experimentos y pruebas de concepto en Google Cloud.
  5. Calcula el costo total de propiedad (TCO) del entorno de destino.
  6. Elige la estrategia de migración para tus cargas de trabajo.
  7. Elige tus herramientas de migración.
  8. Define el plan y el cronograma de migración.
  9. Valida tu plan de migración.

La fase de evaluación de la base de datos te ayuda a elegir el tamaño y las especificaciones de la instancia de base de datos de Cloud SQL de destino que coincida con la fuente para necesidades de rendimiento similares. Presta especial atención al tamaño del disco y a la capacidad de procesamiento, las IOPS y la cantidad de CPU virtuales. Es posible que las migraciones tengan problemas o fallen debido al tamaño incorrecto de la instancia de la base de datos de destino. El tamaño incorrecto puede generar tiempos de migración largos, problemas de rendimiento de la base de datos, errores de la base de datos y problemas de rendimiento de la aplicación. Cuando decidas qué instancia de Cloud SQL usar, ten en cuenta que el rendimiento del disco se basa en el tamaño del disco y la cantidad de CPU virtuales.

Las siguientes secciones se basan en el documento Migración a Google Cloud: Evalúa y descubre tus cargas de trabajo y en la integración de la información de ese documento.

Crea un inventario de tus instancias de Amazon RDS o Amazon Aurora

Para definir el alcance de la migración, crea un inventario y recopila información sobre tus instancias de Amazon RDS y Amazon Aurora. Idealmente, este debería ser un proceso automatizado, ya que los enfoques manuales son propensos a errores y pueden generar suposiciones incorrectas.

Es posible que Amazon RDS o Amazon Aurora y Cloud SQL para PostgreSQL o AlloyDB para PostgreSQL no tengan funciones, especificaciones de instancias ni operaciones similares. Es posible que algunas funciones se implementen de forma diferente o no estén disponibles. Las áreas de diferencias pueden incluir la infraestructura, el almacenamiento, la autenticación y la seguridad, la replicación, las copias de seguridad, la alta disponibilidad, el modelo de capacidad de recursos y las integraciones y extensiones específicas de funciones del motor de base de datos. Según el tipo de motor de base de datos, el tamaño de la instancia y la arquitectura, también hay diferencias en los valores predeterminados de la configuración de parámetros de la base de datos.

Las comparativas pueden ayudarte a comprender mejor las cargas de trabajo que se migrarán y a definir la arquitectura correcta del entorno de destino de la migración. Recopilar información sobre el rendimiento es importante para ayudar a estimar las necesidades de rendimiento del entorno de destino de Google Cloud . Los conceptos y las herramientas de comparativas se detallan en la sección Realiza pruebas y validaciones del proceso de migración, pero también se aplican a la etapa de compilación del inventario.

Herramientas para evaluaciones

Para obtener una evaluación general inicial de tu infraestructura actual, te recomendamos que uses Google Cloud Migration Center junto con otras herramientas especializadas de evaluación de bases de datos, como migVisor y la herramienta de evaluación de migración de bases de datos (DMA).

Con Migration Center, puedes realizar una evaluación completa de tu aplicación y el entorno de bases de datos, incluido el ajuste técnico para una migración de bases de datos a Google Cloud. Recibirás recomendaciones de tamaño y configuración para cada base de datos de origen y crearás un informe de costo total de propiedad (TCO) para los servidores y las bases de datos.

Para obtener más información sobre cómo evaluar tu entorno de AWS mediante el Centro de migración, consulta Importa datos de otros proveedores de servicios en la nube.

Además de Migration Center, puedes usar la herramienta especializada migVisor. migVisor admite una variedad de motores de base de datos y es particularmente adecuada para las migraciones heterogéneas. Para obtener una introducción a migVisor, consulta la descripción general de migVisor.

migVisor puede identificar artefactos y funciones de bases de datos propietarias incompatibles que pueden causar que la migración se establezca de forma predeterminada y puede indicar soluciones alternativas. migVisor también puede recomendar una solución de destino de Google Cloud , incluido el tamaño y la arquitectura iniciales.

El resultado de la evaluación de la base de datos de migVisor proporciona lo siguiente:

  • Descubrimiento y análisis integrales de las implementaciones de bases de datos actuales.
  • Informe detallado de la complejidad de la migración, basado en las funciones propietarias que usa tu base de datos.
  • Informe financiero con detalles sobre los ahorros en costos después de la migración, los costos de migración y el nuevo presupuesto operativo
  • Plan de migración por fases para mover las bases de datos y las aplicaciones asociadas con la menor interrupción posible para la empresa.

Para ver algunos ejemplos de resultados de la evaluación, consulta migVisor: Herramienta de evaluación de migración a la nube.

Ten en cuenta que migVisor aumenta temporalmente la utilización del servidor de base de datos. Por lo general, esta carga adicional es inferior al 3% y se puede ejecutar durante las horas de menor demanda.

El resultado de la evaluación de migVisor te ayuda a crear un inventario completo de tus instancias de RDS. El informe incluye propiedades genéricas (versión y edición del motor de base de datos, CPUs y tamaño de la memoria), así como detalles sobre la topología de la base de datos, las políticas de copia de seguridad, la configuración de parámetros y las personalizaciones especiales en uso.

Si prefieres usar herramientas de código abierto, puedes usar secuencias de comandos de recopilador de datos con las herramientas mencionadas (o en su lugar). Estas secuencias de comandos pueden ayudarte a recopilar información detallada (sobre cargas de trabajo, funciones, objetos y código de bases de datos) y a compilar el inventario de tu base de datos. Además, las secuencias de comandos suelen proporcionar una evaluación detallada de la migración de bases de datos, incluida una estimación del esfuerzo de migración.

Te recomendamos la herramienta de código abierto DMA, que crearon los ingenieros de Google. Ofrece una evaluación completa y precisa de la base de datos, incluidos los atributos en uso, la lógica de la base de datos y los objetos de la base de datos (incluidos los esquemas, las tablas, las vistas, las funciones, los activadores y los procedimientos almacenados).

Para usar DMA, descarga las secuencias de comandos de recopilación de tu motor de base de datos desde el repositorio de Git y sigue las instrucciones. Envía los archivos de salida a Google Cloud para su análisis. Google Cloud crea y entrega una lectura de evaluación de la base de datos, y proporciona los próximos pasos en el proceso de migración.

Identifica y documenta el alcance de la migración y el tiempo de inactividad asequible

En esta etapa, documentas la información esencial que influye en tu estrategia y herramientas de migración. A estas alturas, puedes responder las siguientes preguntas:

  • ¿Tus bases de datos son mayores a 5 TB?
  • ¿Hay tablas grandes en tu base de datos? ¿Son mayores de 16 TB?
  • ¿Dónde se encuentran las bases de datos (regiones y zonas) y cuál es su proximidad a las aplicaciones?
  • ¿Con qué frecuencia cambian los datos?
  • ¿Cuál es tu modelo de coherencia de datos?
  • ¿Cuáles son las opciones para las bases de datos de destino?
  • ¿Qué tan compatibles son las bases de datos de origen y de destino?
  • ¿Los datos deben residir en algunas ubicaciones físicas?
  • ¿Hay datos que se puedan comprimir y archivar, o hay datos que no necesitan migración?

Para definir el alcance de la migración, decide qué datos conservar y cuáles migrar. Migrar todas tus bases de datos puede llevar tiempo y esfuerzo considerables. Es posible que algunos datos permanezcan en las copias de seguridad de tu base de datos de origen. Por ejemplo, es posible que no se necesiten las tablas de registro antiguas ni los datos de archivo. Como alternativa, puedes decidir mover los datos después del proceso de migración, según tu estrategia y herramientas.

Establece comparativas de migración de datos que te ayuden a comparar y evaluar tus resultados y los impactos. Estos modelos de referencia son puntos de referencia que representan el estado de tus datos antes y después de la migración y te ayudan a tomar decisiones. Es importante tomar mediciones en el entorno de origen que puedan ayudarte a evaluar el éxito de la migración de datos. Estas mediciones incluyen lo siguiente:

  • El tamaño y la estructura de tus datos
  • La integridad y coherencia de tus datos.
  • La duración y el rendimiento de las transacciones y los procesos comerciales más importantes

Determina cuánto tiempo de inactividad puedes permitirte. ¿Cuáles son los impactos comerciales de los tiempos de inactividad? ¿Hay períodos de baja actividad de la base de datos, durante los cuales hay menos usuarios afectados por el tiempo de inactividad? Si es así, ¿cuánto duran esos períodos y cuándo ocurren? Considera tener un tiempo de inactividad parcial de solo escritura mientras se siguen entregando las solicitudes de solo lectura.

Evalúa tu proceso de implementación y administración

Después de compilar los inventarios, evalúa los procesos operativos y de implementación de tu base de datos para determinar cómo deben adaptarse para facilitar la migración. Estos procesos son fundamentales para preparar y mantener tu entorno de producción.

Considera cómo completar las siguientes tareas:

  • Definir y aplicar políticas de seguridad para tus instancias Por ejemplo, es posible que debas reemplazar los grupos de seguridad de Amazon. Puedes usar los roles de IAM de Google, las reglas de firewall de VPC y los Controles del servicio de VPC para controlar el acceso a tus instancias de Cloud SQL para PostgreSQL y restringir los datos dentro de una VPC.

  • Parchea y configura tus instancias. Es posible que debas actualizar tus herramientas de implementación existentes. Por ejemplo, es posible que uses parámetros de configuración personalizados en los grupos de parámetros o de opciones de Amazon. Es posible que tus herramientas de aprovisionamiento deban adaptarse para usar Cloud Storage o Secret Manager para leer esas listas de configuración personalizadas.

  • Administra la infraestructura de supervisión y alertas. Las categorías de métricas de las instancias de la base de datos de origen de Amazon proporcionan visibilidad durante el proceso de migración. Las categorías de métricas pueden incluir Amazon CloudWatch, Visualizaciones de rendimiento, Supervisión mejorada y listas de procesos del SO.

Completa la evaluación

Después de compilar los inventarios de tu entorno de Amazon RDS o Amazon Aurora, completa el resto de las actividades de la fase de evaluación como se describe en Migra a Google Cloud: evalúa y descubre tus cargas de trabajo.

Planifica y compila tu base

En la fase de planificación y compilación, aprovisionarás y configurarás la infraestructura para hacer lo siguiente:

  • Admite tus cargas de trabajo en tu entorno de Google Cloud .
  • Conectar tu entorno de origen y tu entorno de Google Cloud para completar la migración

La fase de planificación y compilación se compone de las siguientes tareas:

  1. Compila una jerarquía de recursos.
  2. Identity and Access Management (IAM) de Google Cloud.
  3. Configura la facturación.
  4. Configura la conectividad de red.
  5. Endurece tu seguridad.
  6. Configurar el registro, la supervisión y las alertas

Para obtener más información sobre cada una de estas tareas, consulta Migra a Google Cloud: Planifica y compila tu base.

Si planeas usar Database Migration Service para la migración, consulta Métodos de red para Cloud SQL para PostgreSQL para comprender las configuraciones de red disponibles para situaciones de migración.

Supervisión y alertas

Usa la supervisión de Google Cloud, que incluye paneles predefinidos para varios productos de Google Cloud , incluido un panel de supervisión de Cloud SQL. Como alternativa, puedes considerar usar soluciones de supervisión de terceros que estén integradas con Google Cloud, como Datadog y Splunk. Para obtener más información, consulta Acerca de la observabilidad de las bases de datos.

Migra instancias de Amazon RDS y Amazon Aurora para PostgreSQL a Cloud SQL para PostgreSQL y AlloyDB para PostgreSQL

Para migrar tus instancias, haz lo siguiente:

  1. Elige la estrategia de migración: replicación continua o mantenimiento programado.

  2. Elige las herramientas de migración según la estrategia y los requisitos que hayas elegido.

  3. Define el plan de migración y el cronograma para cada migración de base de datos, incluidas las tareas de preparación y ejecución.

  4. Define las tareas de preparación que se deben realizar para garantizar que la herramienta de migración pueda funcionar correctamente.

  5. Define las tareas de ejecución, que incluyen actividades de trabajo que implementan la migración.

  6. Define situaciones de resguardo para cada tarea de ejecución.

  7. Realizar pruebas y validaciones, que se pueden hacer en un entorno de pruebas separado

  8. Realiza la migración.

  9. Realiza la transición a producción.

  10. Limpia el entorno de origen y configura la instancia de destino.

  11. Realiza ajustes y optimizaciones.

Cada fase se describe en las siguientes secciones.

Elige tu estrategia de migración

En este paso, tienes suficiente información para evaluar y seleccionar una de las siguientes estrategias de migración que mejor se adapte a tu caso de uso para cada base de datos:

  • Mantenimiento programado (también llamado migración única): Este enfoque es ideal si puedes permitirte el tiempo de inactividad. Esta opción tiene un costo y una complejidad relativamente más bajos, ya que tus cargas de trabajo y servicios no requerirán mucha refactorización. Sin embargo, si la migración falla antes de completarse, debes reiniciar el proceso, lo que prolonga el tiempo de inactividad.
  • Replicación continua (también llamada migración gradual): Para las bases de datos esenciales, esta opción ofrece un menor riesgo de pérdida de datos y un tiempo de inactividad casi nulo. Los esfuerzos se dividen en varios segmentos, de modo que, si se produce una falla, la reversión y la repetición tardan menos tiempo. Sin embargo, la configuración es más compleja y requiere más planificación y tiempo. También se requiere un esfuerzo adicional para refactorizar las aplicaciones que se conectan a tus instancias de base de datos. Considera una de las siguientes variaciones:

    • Usar el enfoque Y (escritura y lectura), que es una forma de migración en paralelo, duplica los datos en las instancias de origen y destino durante la migración.
    • Usar un microservicio de acceso a los datos, que reduce el esfuerzo de refactorización requerido por el enfoque Y (escritura y lectura).

Para obtener más información sobre las estrategias de migración de datos, consulta Cómo evaluar los enfoques de migración de datos.

En el siguiente diagrama, se muestra un diagrama de flujo basado en preguntas de ejemplo que podrías tener cuando decidas la estrategia de migración para una sola base de datos:

Flujo de trabajo para ayudarte a elegir la estrategia de migración.

En el diagrama de flujo anterior, se muestran los siguientes puntos de decisión:

  • ¿Puedes permitirte un tiempo de inactividad?

    • De lo contrario, adopta la estrategia de migración de replicación continua.
    • Si es así, continúa con el siguiente punto de decisión.
  • ¿Puedes permitirte el tiempo de inactividad que representa la ventana de cambio durante la migración de datos? La ventana de migración representa la cantidad de tiempo que se necesita para crear una copia de seguridad de la base de datos, transferirla a Cloud SQL, restablecerla y, luego, cambiar tus aplicaciones.

    • De lo contrario, adopta la estrategia de migración de replicación continua.
    • Si es así, adopta la estrategia de migración de mantenimiento programado.

Las estrategias pueden variar según las bases de datos, incluso cuando se encuentran en la misma instancia. Una combinación de estrategias puede producir resultados óptimos. Por ejemplo, usa el enfoque de mantenimiento programado para migrar bases de datos pequeñas y de uso poco frecuente, pero usa la replicación continua para las bases de datos esenciales en las que tener tiempo de inactividad es costoso.

Por lo general, se considera que una migración se completó cuando se produce el cambio entre la instancia de origen inicial y la instancia de destino. Se detendrá cualquier replicación (si se usa) y se realizarán todas las operaciones de lectura y escritura en la instancia de destino. Cambiar cuando ambas instancias están sincronizadas significa que no se pierden datos y se minimiza el tiempo de inactividad.

Para obtener más información sobre las estrategias y las implementaciones de migración de datos, consulta Clasificación de las migraciones de bases de datos.

Las configuraciones de migración que no proporcionan tiempo de inactividad de la aplicación requieren una configuración más completada. Encuentra el equilibrio adecuado entre la complejidad de la configuración y el tiempo de inactividad programado durante el horario de atención con poco tráfico.

Cada estrategia de migración tiene una compensación y un impacto asociado con el proceso de migración. Por ejemplo, los procesos de replicación implican una carga adicional en tus instancias de origen, y tus aplicaciones podrían verse afectadas por el retraso de replicación. Es posible que las aplicaciones (y los clientes) deban esperar durante el tiempo de inactividad de la aplicación, al menos mientras dure el retraso de replicación antes de usar la base de datos nueva. En la práctica, los siguientes factores podrían aumentar el tiempo de inactividad:

  • Las consultas a la base de datos pueden tardar unos segundos en completarse. En el momento de la migración, es posible que se aborten las consultas en curso.
  • La caché puede tardar un tiempo en llenarse si la base de datos es grande o tiene una memoria de búfer sustancial.
  • Es posible que las aplicaciones que se detuvieron en la fuente y se reiniciaron en Google Cloud tengan una pequeña demora hasta que se establezca la conexión a la instancia de la base de datos de Google Cloud.
  • Se deben redireccionar las rutas de red a las aplicaciones. Según la configuración de las entradas de DNS, esto puede tardar un poco. Cuando actualices los registros DNS, reduce el TTL antes de la migración.

Las siguientes prácticas comunes pueden ayudar a minimizar el tiempo de inactividad y el impacto:

  • Busca un período en el que el tiempo de inactividad tenga un impacto mínimo en tus cargas de trabajo. Por ejemplo, fuera del horario de atención habitual, durante los fines de semana o en otros períodos de mantenimiento programados.
  • Identifica las partes de tus cargas de trabajo que pueden someterse a la migración y la migración a producción en diferentes etapas. Tus aplicaciones pueden tener diferentes componentes que se pueden aislar, adaptar y migrar sin ningún impacto. Por ejemplo, frontends, módulos de CRM, servicios de backend y plataformas de informes. Estos módulos podrían tener sus propias bases de datos que se pueden programar para la migración antes o después en el proceso.
  • Si puedes permitirte una latencia en la base de datos de destino, considera implementar una migración gradual. Usa transferencias de datos incrementales por lotes y adapta parte de tus cargas de trabajo para que funcionen con los datos inactivos en la instancia de destino.
  • Considera refactorizar tus aplicaciones para admitir un impacto mínimo de migración. Por ejemplo, adapta tus aplicaciones para escribir en las bases de datos de origen y de destino y, por lo tanto, implementa una replicación a nivel de la aplicación.

Elige tus herramientas de migración

El factor más importante para realizar una migración exitosa es elegir la herramienta de migración correcta. Una vez que se haya decidido la estrategia de migración, revisa y elige la herramienta de migración.

Hay muchas herramientas disponibles, cada una optimizada para ciertos casos de uso de migración. Los casos de uso pueden incluir lo siguiente:

  • Estrategia de migración (mantenimiento programado o replicación continua)
  • Motores y versiones de los motores de bases de datos de origen y destino
  • Son los entornos en los que se encuentran las instancias de origen y las de destino.
  • Tamaño de la base de datos Cuanto más grande sea la base de datos, más tiempo llevará migrar la copia de seguridad inicial.
  • Frecuencia de los cambios en la base de datos.
  • Disponibilidad para usar servicios administrados para la migración

Para garantizar una migración y una transición sin problemas, puedes usar patrones de implementación de aplicaciones, organización de la infraestructura y aplicaciones de migración personalizadas. Sin embargo, las herramientas especializadas llamadas servicios de migración administrada pueden facilitar el proceso de mover datos, aplicaciones o incluso infraestructuras completas de un entorno a otro. Ejecutan la extracción de datos desde las bases de datos de origen, transportan los datos de forma segura a las bases de datos de destino y, de manera opcional, pueden modificar los datos durante el envío. Con estas capacidades, encapsulan la lógica compleja de la migración y ofrecen capacidades de supervisión de la migración.

Los servicios de migración administrada proporcionan las siguientes ventajas:

  • Minimiza el tiempo de inactividad: Los servicios usan las capacidades de replicación integradas de los motores de base de datos cuando están disponibles y realizan la promoción de réplicas.

  • Garantizar la integridad y seguridad de los datos: Los datos se transfieren de forma segura y confiable de la fuente a la base de datos de destino.

  • Proporciona una experiencia de migración coherente: Se pueden consolidar diferentes técnicas y patrones de migración en una interfaz coherente y común con ejecutables de migración de bases de datos, que puedes administrar y supervisar.

  • Ofrece modelos de migración resilientes y probados: Las migraciones de bases de datos son eventos poco frecuentes, pero fundamentales. Para evitar errores de principiantes y problemas con las soluciones existentes, puedes usar herramientas de expertos con experiencia, en lugar de crear una solución personalizada.

  • Optimiza los costos: Los servicios de migración administrada pueden ser más rentables que aprovisionar servidores y recursos adicionales para soluciones de migración personalizadas.

En las siguientes secciones, se describen las recomendaciones de herramientas de migración, que dependen de la estrategia de migración elegida.

Herramientas para migraciones de mantenimiento programado

En las siguientes sub secciones, se describen las herramientas que se pueden usar para las migraciones únicas, junto con las limitaciones y prácticas recomendadas de cada una.

Para las migraciones únicas a Cloud SQL para PostgreSQL o a AlloyDB para PostgreSQL, te recomendamos que uses copias de seguridad del motor de base de datos para exportar los datos de tu instancia de origen y, luego, importarlos a tu instancia de destino. Los trabajos de migración únicos no son compatibles con Database Migration Service.

Copias de seguridad del motor de base de datos integradas

Cuando se acepta un tiempo de inactividad significativo y tus bases de datos de origen son relativamente estáticas, puedes usar las funciones de volcado y carga integradas (también llamadas copia de seguridad y restablecimiento) del motor de base de datos.

Se requiere cierto esfuerzo para la configuración y sincronización, en especial para una gran cantidad de bases de datos, pero las copias de seguridad del motor de base de datos suelen estar disponibles y son fáciles de usar. Este enfoque es adecuado para cualquier tamaño de base de datos y, por lo general, es más eficaz que otras herramientas para instancias grandes.

Las copias de seguridad del motor de base de datos tienen las siguientes limitaciones generales:

  • Las copias de seguridad pueden ser propensas a errores, en especial si se realizan de forma manual.
  • Los datos pueden no estar seguros si las instantáneas no se administran correctamente.
  • Las copias de seguridad carecen de capacidades de supervisión adecuadas.
  • Las copias de seguridad requieren esfuerzo para escalar cuando se migran muchas bases de datos.

Puedes usar las utilidades de copia de seguridad integradas de PostgreSQL, pg_dump y pg_dumpall, para migrar Cloud SQL para PostgreSQL y AlloyDB para PostgreSQL. Sin embargo, las utilidades pg_dump y pg_dumapall tienen las siguientes limitaciones generales:

  • Se deben usar las utilidades de copia de seguridad integradas para migrar bases de datos que tengan un tamaño de 500 GB o menos. El volcado y la restauración de bases de datos grandes pueden tardar mucho tiempo y requerir mucho espacio en el disco y memoria.
  • La utilidad pg_dump no incluye usuarios ni roles. Para migrar estas cuentas de usuario y roles, puedes usar la utilidad pg_dumpall.
  • Cloud Storage admite un tamaño máximo de un solo objeto de hasta 5 terabytes (TB). Si tienes bases de datos de más de 5 TB, la operación de exportación a Cloud Storage falla. En este caso, debes dividir los archivos de exportación en segmentos más pequeños.

Si decides usar estas utilidades, ten en cuenta las siguientes restricciones y prácticas recomendadas:

  • Comprime los datos para reducir el costo y la duración de la transferencia. Usa la opción --jobs con el comando pg_dump para ejecutar una cantidad determinada de trabajos de volcado de forma simultánea.
  • Usa la opción -z con el comando pg_dump para especificar el nivel de compresión que se usará. Los valores aceptables para esta opción varían de 0 a 9. El valor predeterminado es comprimir en un nivel 6. Los valores más altos disminuyen el tamaño del archivo de volcado, pero pueden causar un alto consumo de recursos en el host del cliente. Si el host cliente tiene suficientes recursos, los niveles de compresión más altos pueden reducir aún más el tamaño del archivo de volcado.
  • Usa las marcas correctas cuando crees un archivo de volcado de SQL.
  • Verifica la base de datos importada. Supervisa el resultado de la utilidad pg_restore para detectar mensajes de error durante el proceso de restablecimiento. Revisa los registros de PostgreSQL en busca de advertencias o errores durante el proceso de restablecimiento. Ejecuta consultas básicas y recuentos de tablas para verificar la integridad de tu base de datos.

Para obtener más información sobre las limitaciones y las prácticas recomendadas, consulta los siguientes recursos:

Otros enfoques para la migración de mantenimiento programado

El uso de otros enfoques que no sean las utilidades de copia de seguridad integradas podría proporcionar más control y flexibilidad en la migración de mantenimiento programada. Estos otros tipos de enfoques te permiten realizar transformaciones, verificaciones y otras operaciones en tus datos mientras realizas la migración. Puedes consolidar varias instancias o bases de datos en una sola instancia o base de datos. La consolidación de instancias puede ayudar a mitigar los costos operativos y facilitar los problemas de escalabilidad.

Una de esas alternativas a las utilidades de copia de seguridad es usar archivos planos para exportar y importar tus datos. Para obtener más información sobre la importación de archivos planos, consulta Cómo exportar e importar con archivos CSV para Cloud SQL para PostgreSQL.

Otra alternativa es usar una importación administrada para configurar la replicación desde una base de datos de PostgreSQL externa. Cuando usas una importación administrada, se realiza una carga inicial de datos de la base de datos externa a la instancia de Cloud SQL para PostgreSQL. Esta carga inicial usa un servicio que extrae datos del servidor externo (la instancia de RDS o Aurora) y los importa directamente a la instancia de Cloud SQL para PostgreSQL. Si deseas obtener más información, consulta Usa una importación administrada para configurar la replicación desde bases de datos externas.

Una forma alternativa de realizar una migración de datos única es exportar las tablas de tu base de datos de PostgreSQL de origen a archivos CSV o SQL. Luego, puedes importar el archivo CSV o SQL a Cloud SQL para PostgreSQL o AlloyDB para PostgreSQL. Para exportar la fecha de tu instancia de origen, puedes usar la extensión aws_s3 para PostgreSQL. Como alternativa, puedes usar Amazon Database Migration Service y un bucket de S3 como destino. Para obtener información detallada sobre este enfoque, consulta los siguientes recursos:

También puedes importar datos de forma manual a una instancia de AlloyDB para PostgreSQL. Los formatos compatibles son los siguientes:

  • CSV: Con este formato de archivo, cada archivo contiene el contenido de una tabla de la base de datos. Puedes cargar los datos en el archivo CSV con el programa de línea de comandos psql. Para obtener más información, consulta Cómo importar un archivo CSV.
  • DMP: Este formato de archivo contiene el archivo de una base de datos completa de PostgreSQL. Para importar datos de este archivo, usa la utilidad pg_restore. Para obtener más información, consulta Cómo importar un archivo DMP.
  • SQL: Este formato de archivo contiene la reconstrucción de texto de una base de datos de PostgreSQL. Los datos de este archivo se procesan con la línea de comandos psql. Para obtener más información, consulta Cómo importar un archivo SQL.

Herramientas para migraciones de replicación continua

En el siguiente diagrama, se muestra un diagrama de flujo con preguntas que pueden ayudarte a elegir la herramienta de migración para una sola base de datos cuando usas una estrategia de migración de replicación continua:

Flujo de trabajo para ayudarte a elegir una herramienta para las migraciones de replicación continua.

En el diagrama de flujo anterior, se muestran los siguientes puntos de decisión:

  • ¿Prefieres usar servicios de migración administrados?

    • Si es así, ¿puedes permitirte unos segundos de tiempo de inactividad de escritura mientras se realiza el paso de replicación?

      • Si es así, usa Database Migration Service.
      • De lo contrario, explora otras opciones de migración.
    • De lo contrario, debes evaluar si se admite la replicación integrada del motor de base de datos:

      • Si es así, te recomendamos que uses la replicación integrada.
      • De lo contrario, te recomendamos que explores otras opciones de migración.

En las siguientes secciones, se describen las herramientas que se pueden usar para las migraciones continuas, junto con sus limitaciones y prácticas recomendadas.

Database Migration Service para la migración de replicación continua

Database Migration Service proporciona un tipo de trabajo específico para las migraciones continuas. Estas tareas de migración continua admiten migraciones de alta fidelidad a Cloud SQL para PostgreSQL y a AlloyDB para PostgreSQL.

Cuando usas Database Migration Service para migrar a Cloud SQL para PostgreSQL o AlloyDB para PostgreSQL, existen requisitos previos y limitaciones que están asociados con cada instancia de destino:

Replicación integrada del motor de base de datos

La replicación integrada en el motor de base de datos es una opción alternativa a Database Migration Service para una migración continua.

La replicación de bases de datos representa el proceso de copiar y distribuir datos de una base de datos llamada base de datos principal a otras bases de datos llamadas réplicas. Su objetivo es aumentar la accesibilidad a los datos y mejorar la tolerancia a errores y la confiabilidad de un sistema de base de datos. Aunque la migración de bases de datos no es el objetivo principal de la replicación de bases de datos, se puede usar con éxito como una herramienta para lograr este objetivo. La replicación de bases de datos suele ser un proceso continuo que se produce en tiempo real a medida que se insertan, actualizan o borran datos en la base de datos principal. La replicación de bases de datos se puede realizar como una operación única o una secuencia de operaciones por lotes.

La mayoría de los motores de base de datos modernos implementan diferentes formas de lograr la replicación de bases de datos. Se puede lograr un tipo de replicación copiando y enviando el registro de escritura por adelantado o el registro de transacciones del principal a sus réplicas. Este enfoque se denomina replicación física o binaria. Otros tipos de replicación funcionan distribuyendo las instrucciones SQL sin procesar que recibe una base de datos principal, en lugar de replicar los cambios a nivel del sistema de archivos. Estos tipos de replicación se denominan replicación lógica. En el caso de PostgreSQL, también hay extensiones de terceros, como pglogical, que implementan la replicación lógica que se basa en el registro de escritura por adelantado (WAL).

Cloud SQL admite la replicación para PostgreSQL. Sin embargo, existen algunos requisitos previos y limitaciones.

A continuación, se incluyen las limitaciones y los requisitos previos de Cloud SQL para PostgreSQL:

  • Se admiten las siguientes versiones de Amazon:

    • Amazon RDS 9.6.10 y versiones posteriores, 10.5 y versiones posteriores, 11.1 y versiones posteriores, 12, 13 y 14
    • Amazon Aurora 10.11 y versiones posteriores, 11.6 y versiones posteriores, 12.4 y versiones posteriores, y 13.3 y versiones posteriores
  • El firewall del servidor externo debe configurarse para permitir el rango de IP interno que se asignó para el acceso a los servicios privados de la red de VPC. La base de datos de réplica de Cloud SQL para PostgreSQL usa la red de VPC como su red privada.

  • El firewall de la base de datos de origen se debe configurar para permitir todo el rango de IP interno que se asignó para la conexión de servicio privada de la red de VPC. La instancia de destino de Cloud SQL para PostgreSQL usa esta red de VPC en el campo privateNetwork de su configuración IpConfiguration.

  • Cuando instales la extensión pglogical en una instancia de Cloud SQL para PostgreSQL, asegúrate de haber configurado la marca enable_pglogical como on (por ejemplo, cloudsql.enable_pglogical=on).

  • Asegúrate de que el parámetro shared_preload_libraries incluya la extensión pglogical en tu instancia de origen (por ejemplo, shared_preload_libraries=pg_stat_statements,pglogical). Establece el parámetro rds.logical_replication en 1. Este parámetro de configuración habilita los registros de escritura anticipada a nivel lógico.

    Estos cambios requieren un reinicio de la instancia principal.

Para obtener más información sobre el uso de Cloud SQL para PostgreSQL con fines de replicación, consulta la lista de tareas del servidor externo en la sección de replicación para PostgreSQL y también Configura la replicación lógica y la decodificación para PostgreSQL en la documentación oficial de Cloud SQL.

AlloyDB para PostgreSQL admite la replicación a través de la extensión pglogical. Para habilitar la extensión pglogical para la replicación, puedes usar el comando CREATE EXTENSION. Antes de usar ese comando, primero debes configurar las marcas de la base de datos alloydb.enable_pglogical y alloydb.logical_decoding en on en la instancia de AlloyDB para PostgreSQL en la que deseas usar la extensión. Para configurar estas marcas, se debe reiniciar la instancia.

Otros enfoques para la migración de replicación continua

Puedes usar Datastream para replicar los cambios casi en tiempo real de tu instancia de PostgreSQL de origen. Datastream usa la captura de datos modificados (CDC) y la replicación para replicar y sincronizar datos. Luego, puedes usar Datastream para la replicación continua desde Amazon RDS y Amazon Aurora. Usa Datastream para replicar los cambios de tu instancia de PostgreSQL en BigQuery o Cloud Storage. Luego, esos datos replicados se pueden transferir a tu instancia de Cloud SQL para PostgreSQL y AlloyDB para PostgreSQL con Dataflow mediante una plantilla flexible de Dataflow o con Dataproc.

Para obtener más información sobre el uso de Datastream y Dataflow, consulta los siguientes recursos:

Herramientas de terceros para la migración de replicación continua

En algunos casos, podría ser mejor usar una herramienta de terceros para la mayoría de los motores de bases de datos. Estos casos pueden ser si prefieres usar un servicio de migración administrado y necesitas asegurarte de que la base de datos de destino siempre esté sincronizada en tiempo real con la fuente, o si necesitas realizar transformaciones más complejas, como limpieza, reestructuración y adaptación de datos durante el proceso de migración.

Si decides usar una herramienta de terceros, elige una de las siguientes recomendaciones, que puedes usar para la mayoría de los motores de bases de datos.

Striim es una plataforma de extremo a extremo en memoria para recopilar, filtrar, transformar, enriquecer, agregar, analizar y entregar datos en tiempo real:

  • Ventajas:

    • Controla grandes volúmenes de datos y migraciones complejas.
    • Captura de datos modificados integrada para SQL Server
    • Plantillas de conexión preconfiguradas y canalizaciones sin código
    • Puede controlar bases de datos grandes y esenciales que operan con una gran carga de transacciones.
    • Entrega exactamente una vez
  • Desventajas:

Para obtener más información sobre Striim, consulta Cómo ejecutar Striim en Google Cloud.

Debezium es una plataforma distribuida de código abierto para la CDC y puede transmitir cambios de datos a suscriptores externos:

  • Ventajas:

    • Es de código abierto.
    • Gran apoyo de la comunidad
    • Rentabilidad.
    • Control detallado de filas, tablas o bases de datos.
    • Se especializa en la captura de cambios en tiempo real a partir de los registros de transacciones de la base de datos.
  • Desventajas:

    • Requiere experiencia específica con Kafka y ZooKeeper.
    • Publicación de cambios de datos al menos una vez, lo que significa que necesitas controlar los duplicados.
    • Configuración de supervisión manual con Grafana y Prometheus
    • No se admite la replicación por lotes incremental.

Para obtener más información sobre las migraciones de Debezium, consulta Replicación de datos en tiempo casi real con Debezium.

Fivetran es una plataforma de movimiento de datos automatizados para transferir datos desde y entre plataformas de datos en la nube.

  • Ventajas:

    • Plantillas de conexión preconfiguradas y canalizaciones sin código
    • Propagará los cambios de esquema de la fuente a la base de datos de destino.
    • Entrega de tus cambios de datos exactamente una vez, lo que significa que no necesitas controlar duplicados.
  • Desventajas:

    • No es de código abierto.
    • La compatibilidad con la transformación de datos complejos es limitada.

Define el plan y el cronograma de migración

Para que la migración de la base de datos y la migración a producción sean exitosas, te recomendamos que prepares un plan de migración integral y bien definido. Para ayudar a reducir el impacto en tu empresa, te recomendamos que crees una lista de todos los elementos de trabajo necesarios.

Definir el alcance de la migración revela las tareas de trabajo que debes realizar antes, durante y después del proceso de migración de la base de datos. Por ejemplo, si decides no migrar ciertas tablas de una base de datos, es posible que necesites tareas previas o posteriores a la migración para implementar este filtrado. También te aseguras de que la migración de la base de datos no afecte tu acuerdo de nivel de servicio (ANS) ni tu plan de continuidad del negocio existentes.

Te recomendamos que la documentación de planificación de la migración incluya los siguientes documentos:

  • Documento de diseño técnico (TDD)
  • Matriz RACI
  • Cronograma (como un plan de T menos)

Las migraciones de bases de datos son un proceso iterativo, y las primeras migraciones suelen ser más lentas que las posteriores. Por lo general, las migraciones bien planificadas se ejecutan sin problemas, pero pueden surgir problemas imprevistos. Te recomendamos que siempre tengas un plan de rollback. Como práctica recomendada, sigue las instrucciones de Migra a Google Cloud: prácticas recomendadas para validar un plan de migración.

TDD

La TDD documenta todas las decisiones técnicas que se deben tomar para el proyecto. Incluye lo siguiente en la TDD:

  • Requisitos y criticidad del negocio
  • Objetivo de tiempo de recuperación (RTO)
  • Objetivo de punto de recuperación (RPO)
  • Detalles de la migración de bases de datos
  • Estimaciones del esfuerzo de migración
  • Recomendaciones para la validación de la migración

Matriz RACI

Algunos proyectos de migración requieren una matriz RACI, que es un documento común de administración de proyectos que define qué personas o grupos son responsables de las tareas y entregas dentro del proyecto de migración.

Cronograma

Prepara un cronograma para cada base de datos que se deba migrar. Incluye todas las tareas de trabajo que se deben realizar, así como las fechas de inicio y finalización estimadas.

Para cada entorno de migración, te recomendamos que crees un plan para el día de la migración. Un plan con fecha límite se estructura como un programa de cuenta regresiva y enumera todas las tareas necesarias para completar el proyecto de migración, junto con los grupos responsables y la duración estimada.

El cronograma debe tener en cuenta no solo la ejecución de las tareas de preparación previas a la migración, sino también las tareas de validación, auditoría o prueba que se realizan después de que se realiza la transferencia de datos.

La duración de las tareas de migración suele depender del tamaño de la base de datos, pero también hay otros aspectos que se deben tener en cuenta, como la complejidad de la lógica empresarial, el uso de la aplicación y la disponibilidad del equipo.

Un plan con T menos podría verse de la siguiente manera:

Fecha Fase Categoría Tasks Rol T menos Estado
1/11/2023 Antes de la migración Evaluación Crea un informe de evaluación Equipo de descubrimiento -21 Completado
7/11/2023 Antes de la migración Preparación del objetivo Diseña el entorno de destino como se describe en el documento de diseño Equipo de migración -14 Completado
15/11/2023 Antes de la migración Gobierno de la empresa Fecha de migración y aprobación de T-menos Directivos -6 Completado
18/11/2023 Migración Configura DMS Cómo compilar perfiles de conexión Ingeniero de migración a la nube -3 Completado
19/11/2023 Migración Configura DMS Compila y comienza trabajos de migración Ingeniero de migración a la nube -2 Sin iniciar
19/11/2023 Migración Supervisa DMS Supervisa los trabajos de DMS y los cambios de DDL en la instancia de origen Ingeniero de migración a la nube -2 Sin iniciar
21/11/2023 Migración DMS de migración Cómo ascender una réplica de DMS Ingeniero de migración a la nube 0 Sin iniciar
21/11/2023 Migración Validación de la migración Validación de la migración de bases de datos Equipo de migración 0 Sin iniciar
21/11/2023 Migración Prueba de la aplicación Ejecuta pruebas de rendimiento y funciones Equipo de migración 0 Sin iniciar
22/11/2023 Migración Gobierno de la empresa Aprobación o rechazo de la validación de la migración Equipo de migración 1 Sin iniciar
23/11/2023 Después de la migración Valida la supervisión Configura la supervisión Equipo de infraestructura 2 Sin iniciar
25/11/2023 Después de la migración Seguridad Cómo quitar la cuenta de usuario de DMS Equipo de seguridad 4 Sin iniciar

Múltiples migraciones de bases de datos

Si tienes varias bases de datos para migrar, tu plan de migración debe contener tareas para todas las migraciones.

Te recomendamos que comiences el proceso migrando una base de datos más pequeña, idealmente, que no sea fundamental. Este enfoque puede ayudarte a desarrollar tu conocimiento y confianza en el proceso y las herramientas de migración. También puedes detectar cualquier falla en el proceso en las primeras etapas del programa general de migración.

Si tienes varias bases de datos para migrar, los cronogramas se pueden paralelizar. Por ejemplo, para acelerar el proceso de migración, puedes elegir migrar un grupo de bases de datos pequeñas, estáticas o menos esenciales al mismo tiempo, como se muestra en el siguiente diagrama.

Tareas de migración de bases de datos en paralelo

En el ejemplo que se muestra en el diagrama, las bases de datos del 1 al 4 son un grupo de bases de datos pequeñas que se migran al mismo tiempo.

Define las tareas de preparación

Las tareas de preparación son todas las actividades que debes completar para cumplir con los requisitos previos de la migración. Sin las tareas de preparación, la migración no se puede realizar o la base de datos migrada se encuentra en un estado inutilizable.

Las tareas de preparación se pueden categorizar de la siguiente manera:

  • Preparación y requisitos previos para una instancia de Amazon RDS o Amazon Aurora
  • Preparación de la base de datos de origen y requisitos previos
  • Configuración de instancias de Cloud SQL para PostgreSQL y AlloyDB para PostgreSQL
  • Configuración específica de la migración

Preparación de instancias de Amazon RDS o Amazon Aurora y requisitos previos

Ten en cuenta las siguientes tareas comunes de configuración y requisitos previos:

  • Según tu ruta de migración, es posible que debas permitir conexiones remotas en tus instancias de RDS. Si tu instancia de RDS está configurada para ser privada en tu VPC, debe existir conectividad privada de RFC 1918 entre Amazon y Google Cloud.
  • Es posible que debas configurar un grupo de seguridad nuevo para permitir conexiones remotas en los puertos requeridos y aplicarlo a tu instancia de Amazon RDS o Amazon Aurora:

    • De forma predeterminada, en AWS, el acceso a la red está apagado para las instancias de bases de datos.
    • Puedes especificar reglas en un grupo de seguridad que permitan el acceso desde un rango de direcciones IP, un puerto o un grupo de seguridad. Las mismas reglas se aplican a todas las instancias de base de datos asociadas con ese grupo de seguridad.
  • Si migras desde Amazon RDS, asegúrate de tener suficiente disco libre para almacenar en búfer los registros de escritura anticipada durante la operación de carga completa en tu instancia de Amazon RDS.

  • Para la replicación continua (flujo de cambios a través de CDC), debes usar una instancia de RDS completa y no una réplica de lectura.

  • Si usas la replicación integrada, debes configurar tu instancia de Amazon RDS o Amazon Aurora para la replicación de PostgreSQL. La replicación integrada o las herramientas que usan la replicación integrada necesitan la replicación lógica para PostgreSQL.

  • Si usas herramientas de terceros, por lo general, se requiere una configuración inicial antes de usarlas. Consulta la documentación de la herramienta de terceros.

Para obtener más información sobre la preparación de instancias y los requisitos previos, consulta Cómo configurar el servidor externo para la replicación de PostgreSQL.

Preparación de la base de datos de origen y requisitos previos

  • Si decides usar Database Migration Service, configura tu base de datos de origen antes de conectarte a ella. Para obtener más información, consulta Cómo configurar tu fuente para PostgreSQL y Cómo configurar tu fuente de PostgreSQL para AlloyDB para PostgreSQL.

  • En el caso de las tablas que no tienen claves primarias, después de que Database Migration Service migre la copia de seguridad inicial, solo se migrarán las instrucciones INSERT a la base de datos de destino durante la fase de CDC. Las sentencias DELETE y UPDATE no se migran para esas tablas.

  • Ten en cuenta que Database Migration Service no puede replicar objetos grandes, ya que la función de decodificación lógica en PostgreSQL no admite cambios de decodificación en objetos grandes.

  • Si decides usar la replicación integrada, ten en cuenta que la replicación lógica tiene ciertas limitaciones con respecto a los comandos, las secuencias y los objetos grandes del lenguaje de definición de datos (DDL). Las claves primarias deben existir o agregarse a las tablas que se habilitarán para la CDC y que pasan por muchas actualizaciones.

  • Algunas herramientas de migración de terceros requieren que todas las columnas de objetos grandes sean anulables. Se debe quitar esa restricción de las columnas de objetos grandes que sean NOT NULL durante la migración.

  • Toma mediciones del modelo de referencia en tu entorno de origen en uso de producción. Ten en cuenta lo siguiente:

    • Mide el tamaño de tus datos, así como el rendimiento de tu carga de trabajo. ¿Cuánto tiempo tardan, en promedio, las consultas o transacciones importantes? ¿Cuánto tiempo durante las horas pico?
    • Documenta las mediciones del modelo de referencia para compararlas más adelante y ayudarte a decidir si la fidelidad de la migración de la base de datos es satisfactoria. Decide si puedes cambiar tus cargas de trabajo de producción y dar de baja tu entorno de origen, o si aún lo necesitas para fines de resguardo.

Configuración de instancias de Cloud SQL para PostgreSQL y AlloyDB para PostgreSQL

Para que tu instancia de destino alcance niveles de rendimiento similares a los de tu instancia de origen, elige el tamaño y las especificaciones de la instancia de base de datos de PostgreSQL de destino para que coincidan con los de la instancia de origen. Presta especial atención al tamaño y la capacidad de procesamiento del disco, las operaciones de entrada y salida por segundo (IOPS) y la cantidad de CPU virtuales (vCPU). El tamaño incorrecto puede generar tiempos de migración largos, problemas de rendimiento de la base de datos, errores de la base de datos y problemas de rendimiento de la aplicación. Cuando decidas usar la instancia de Cloud SQL para PostgreSQL o AlloyDB para PostgreSQL, ten en cuenta que el rendimiento del disco se basa en el tamaño del disco y la cantidad de CPU virtuales.

Debes confirmar las siguientes propiedades y requisitos antes de crear tus instancias de Cloud SQL para PostgreSQL y AlloyDB para PostgreSQL. Si deseas cambiar estas propiedades y requisitos más adelante, deberás volver a crear las instancias.

  • Elige el proyecto y la región de tus instancias de Cloud SQL para PostgreSQL y AlloyDB para PostgreSQL de destino con cuidado. Las instancias no se pueden migrar entre proyectos y regiones de Google Cloud sin transferencia de datos.

  • Migra a una versión principal coincidente en Cloud SQL para PostgreSQL y AlloyDB para PostgreSQL. Por ejemplo, si usas PostgreSQL 14.x en Amazon RDS o Amazon Aurora, debes migrar a Cloud SQL o AlloyDB para PostgreSQL para la versión 14.x de PostgreSQL.

  • Replica la información del usuario por separado si usas copias de seguridad del motor de base de datos integradas o Database Migration Service. Para obtener más información, consulta las limitaciones en la sección Respaldos específicos del motor de base de datos.

  • Revisa las marcas de configuración específicas del motor de base de datos y compara sus valores de instancia de origen y destino. Asegúrate de comprender su impacto y si deben ser iguales o no. Por ejemplo, cuando trabajas con PostgreSQL, te recomendamos comparar los valores de la tabla pg_settings de tu base de datos de origen con los de la instancia de Cloud SQL y AlloyDB para PostgreSQL. Actualiza la configuración de la marca según sea necesario en la instancia de la base de datos de destino para replicar la configuración de origen.

  • Según la naturaleza de tu carga de trabajo, es posible que debas habilitar extensiones específicas para admitir tu base de datos. Si tu carga de trabajo requiere estas extensiones, revisa las extensiones de PostgreSQL compatibles y cómo habilitarlas en Cloud SQL y AlloyDB para PostgreSQL.

Para obtener más información sobre la configuración de Cloud SQL para PostgreSQL, consulta Opciones de configuración de instancias, Marcas específicas del motor de base de datos y Extensiones compatibles.

Para obtener más información sobre la configuración de AlloyDB para PostgreSQL, consulta Marcas de base de datos compatibles y Extensiones compatibles.

Configuración específica de la migración

Si puedes permitirte el tiempo de inactividad, puedes importar archivos de volcado de SQL a Cloud SQL y AlloyDB para PostgreSQL. En esos casos, es posible que debas crear un bucket de Cloud Storage para almacenar el volcado de la base de datos.

Si usas la replicación, debes asegurarte de que la réplica de Cloud SQL y AlloyDB para PostgreSQL tenga acceso a tu base de datos principal (fuente). Puedes obtener este acceso con las opciones de conectividad documentadas.

Según tu caso de uso y la criticidad, es posible que debas implementar una situación de resguardo, que suele incluir revertir la dirección de la replicación. En este caso, es posible que necesites un mecanismo de replicación adicional desde tu Cloud SQL de destino y AlloyDB para PostgreSQL a tu instancia de Amazon de origen.

Puedes dar de baja los recursos que conectan tu entorno de Amazon y Google Cloud después de que se complete y valide la migración.

Si migras a AlloyDB para PostgreSQL, considera usar una instancia de Cloud SQL para PostgreSQL como destino potencial para tus situaciones de resguardo. Usa la extensión pglogical para configurar la replicación lógica en esa instancia de Cloud SQL.

Para obtener más información, consulta los siguientes recursos:

Define las tareas de ejecución

Las tareas de ejecución implementan el trabajo de migración. Las tareas dependen de la herramienta de migración que elijas, como se describe en las siguientes sub secciones.

Copias de seguridad del motor de base de datos integradas

Usa la utilidad pg_dump para crear una copia de seguridad. Para obtener más información sobre el uso de esta utilidad para importar y exportar datos, consulta los siguientes recursos:

Trabajos de migración de Database Migration Service

Define y configura trabajos de migración en Database Migration Service para migrar datos de una instancia fuente a la base de datos de destino. Las tareas de migración se conectan a la instancia de la base de datos de origen a través de perfiles de conexión definidos por el usuario.

Prueba todos los requisitos previos para asegurarte de que la tarea se pueda ejecutar correctamente. Elige un momento en el que tus cargas de trabajo puedan permitirse un pequeño tiempo de inactividad para la migración y la migración a producción.

En Database Migration Service, la migración comienza con el volcado y el restablecimiento iniciales del esquema sin índices ni restricciones, seguido de la operación de copia de datos. Una vez que se completa la copia de datos, se restablecen los índices y las restricciones. Por último, se inicia la replicación continua de los cambios de la fuente a la instancia de la base de datos de destino.

Database Migration Service usa la extensión pglogical para la replicación desde la fuente a la instancia de base de datos de destino. Al comienzo de la migración, esta extensión configura la replicación mediante el requisito de bloqueos exclusivos a corto plazo en todas las tablas de tu instancia de Amazon RDS o Amazon Aurora de origen. Por este motivo, te recomendamos que inicies la migración cuando la base de datos esté menos ocupada y evites las instrucciones en la fuente durante la fase de volcado y replicación, ya que las instrucciones DDL no se replican. Si debes realizar operaciones de DDL, usa las funciones "pglogical" para ejecutar instrucciones DDL en tu instancia de origen o ejecuta manualmente las mismas instrucciones DDL en la instancia de destino de la migración, pero solo después de que finalice la etapa de volcado inicial.

El proceso de migración con Database Migration Service finaliza con la operación de promoción. Cuando se promociona una instancia de base de datos, se desconecta la base de datos de destino del flujo de cambios que provienen de la base de datos de origen y, luego, la instancia de destino ahora independiente se promociona a una instancia principal. Este enfoque también se denomina cambio a producción.

Para obtener un proceso de configuración de migración completamente detallado, consulta las guías de inicio rápido de PostgreSQL y PostgreSQL a AlloyDB para PostgreSQL.

Replicación integrada del motor de base de datos

Cloud SQL admite dos tipos de replicación lógica: la replicación lógica integrada de PostgreSQL y la replicación lógica a través de la extensión pglogical. Para AlloyDB para PostgreSQL, te recomendamos que uses la extensión pglogical para la replicación. Cada tipo de replicación lógica tiene sus propias características y limitaciones.

La replicación lógica integrada tiene las siguientes características y limitaciones:

  • Está disponible en PostgreSQL 10 y versiones posteriores.
  • Se replican todos los cambios y las columnas. Las publicaciones se definen a nivel de la tabla.
  • Los datos solo se replican de tablas base a tablas base.
  • No realiza la replicación de secuencias.
  • Es el tipo de replicación recomendado cuando hay muchas tablas que no tienen una clave primaria. Configura la replicación lógica integrada de PostgreSQL. En el caso de las tablas sin una clave primaria, aplica el formulario REPLICA IDENTITY FULL para que la replicación integrada use toda la fila como identificador único en lugar de una clave primaria.

La replicación lógica de pglogical tiene las siguientes funciones y limitaciones:

  • Está disponible en todas las versiones de PostgreSQL y ofrece compatibilidad entre versiones.
  • El filtrado de filas está disponible en la fuente.
  • No replica las tablas UNLOGGED ni TEMPORARY.
  • Se requiere una clave primaria o única en las tablas para capturar los cambios de UPDATE y DELETE.
  • La replicación de secuencias está disponible.
  • Es posible que se retrase la replicación.
  • Proporciona detección de conflictos y resolución configurable si hay varios publicadores o conflictos entre los datos replicados y los cambios locales.

Para obtener instrucciones sobre cómo configurar la replicación lógica integrada de PostgreSQL desde un servidor externo, como Amazon RDS o Amazon Aurora para PostgreSQL, consulta los siguientes recursos:

Herramientas de terceros

Define las tareas de ejecución para la herramienta de terceros que elegiste.

En esta sección, se usa Striim como ejemplo. Striim usa aplicaciones que adquieren datos de varias fuentes, los procesan y, luego, los entregan a otras aplicaciones o destinos.

Usas uno o más flujos para organizar estos procesos de migración dentro de tus aplicaciones personalizadas. Para codificar tus aplicaciones personalizadas, puedes usar una herramienta de programación gráfica o el lenguaje de programación Tungsten Query Language (TQL).

Para obtener más información sobre cómo usar Striim, consulta los siguientes recursos:

Si decides usar Striim para migrar tus datos, consulta las siguientes guías sobre cómo usar Striim para migrar datos a Google Cloud:

Define situaciones de resguardo

Define elementos de acción de resguardo para cada tarea de ejecución de migración para protegerte contra problemas imprevistos que puedan ocurrir durante el proceso de migración. Las tareas de resguardo suelen depender de la estrategia de migración y las herramientas que se usan.

El resguardo puede requerir un esfuerzo significativo. Como práctica recomendada, no realices la migración a producción hasta que los resultados de las pruebas sean satisfactorios. Tanto la migración de la base de datos como la situación de resguardo deben probarse correctamente para evitar una interrupción grave.

Define los criterios de éxito y establece un tiempo límite para todas las tareas de ejecución de la migración. Hacer una prueba de migración ayuda a recopilar información sobre los tiempos esperados de cada tarea. Por ejemplo, en el caso de una migración de mantenimiento programada, puedes permitirte el tiempo de inactividad que representa la ventana de migración. Sin embargo, es importante planificar tu próxima acción en caso de que la tarea de migración única o el restablecimiento de la copia de seguridad falle a mitad de camino. Según cuánto tiempo haya transcurrido del tiempo de inactividad planificado, es posible que debas posponer la migración si la tarea de migración no finaliza en el tiempo esperado.

Por lo general, un plan de resguardo hace referencia a revertir la migración después de realizar la migración a producción, si aparecen problemas en la instancia de destino. Si implementas un plan de resguardo, recuerda que se debe tratar como una migración completa de la base de datos, incluidas la planificación y las pruebas.

Si decides no tener un plan de resguardo, asegúrate de comprender las posibles consecuencias. No tener un plan de resguardo puede agregar esfuerzo imprevisto y causar interrupciones evitables en tu proceso de migración.

Aunque un resguardo es un último recurso y la mayoría de las migraciones de bases de datos no terminan usándolo, te recomendamos que siempre tengas una estrategia de resguardo.

Resguardo simple

En esta estrategia de resguardo, vuelves a cambiar tus aplicaciones a la instancia de la base de datos de origen original. Adopta esta estrategia si puedes permitirte el tiempo de inactividad cuando uses el resguardo o si no necesitas que las transacciones se confirmen en el nuevo sistema de destino.

Si necesitas todos los datos escritos en la base de datos de destino y puedes permitirte un tiempo de inactividad, puedes considerar detener las operaciones de escritura en la instancia de la base de datos de destino, crear copias de seguridad integradas y restablecerlas en la instancia de origen, y, luego, volver a conectar tus aplicaciones a la instancia inicial de la base de datos de origen. Según la naturaleza de tu carga de trabajo y la cantidad de datos escritos en la instancia de la base de datos de destino, puedes transferirla a tu sistema de base de datos de origen inicial más adelante, en especial si tus cargas de trabajo no dependen de un tiempo específico de creación de registros ni de ninguna restricción de orden de tiempo.

Reversión de la replicación

En esta estrategia, replicarás las operaciones de escritura que se producen en tu nueva base de datos de destino después de la migración a producción a tu base de datos de origen inicial. De esta manera, mantienes la fuente original sincronizada con la nueva base de datos de destino y las operaciones de escritura se realizan en la nueva instancia de la base de datos de destino. Su principal desventaja es que no puedes probar el flujo de replicación hasta después de la migración a la instancia de base de datos de destino, por lo que no permite pruebas de extremo a extremo y tiene un pequeño período sin resguardo.

Elige este enfoque cuando aún puedas conservar tu instancia de origen durante algún tiempo y realices la migración con la migración de replicación continua.

Reenvío de replicación

Esta estrategia es una variación de la replicación inversa. Replicas las operaciones de escritura en tu nueva base de datos de destino en una tercera instancia de base de datos que elijas. Puedes dirigir tus aplicaciones a esta tercera base de datos, que se conecta al servidor y ejecuta consultas de solo lectura mientras el servidor no está disponible. Puedes usar cualquier mecanismo de replicación, según tus necesidades. La ventaja de este enfoque es que se puede probar de extremo a extremo.

Adopta este enfoque cuando quieras tener un resguardo en todo momento o cuando debas descartar tu base de datos de origen inicial poco después de la migración a producción.

Escrituras duplicadas

Si eliges una estrategia de migración de microservicios de acceso a los datos o Y (escritura y lectura), este plan de resguardo ya está configurado. Esta estrategia es más complicada, porque debes refactorizar aplicaciones o desarrollar herramientas que se conecten a tus instancias de bases de datos.

Tus aplicaciones escriben en las instancias iniciales de la base de datos de origen y de destino, lo que te permite realizar una migración gradual a producción hasta que solo uses las instancias de la base de datos de destino. Si hay algún problema, puedes volver a conectar tus aplicaciones a la fuente inicial sin tiempo de inactividad. Puedes descartar la fuente inicial y el mecanismo de escritura duplicado cuando consideres que la migración se realizó sin observar problemas.

Recomendamos este enfoque cuando es fundamental no tener tiempo de inactividad durante la migración, tener un resguardo confiable y cuando tienes tiempo y recursos para realizar la refactorización de la aplicación.

Realiza pruebas y validaciones

Los objetivos de este paso son probar y validar lo siguiente:

  • Migración correcta de los datos en la base de datos
  • Integración con aplicaciones existentes después de que se cambien para usar la nueva instancia de destino

Define los factores clave de éxito, que son subjetivos para tu migración. Los siguientes son ejemplos de factores subjetivos:

  • Qué datos migrar Para algunas cargas de trabajo, es posible que no sea necesario migrar todos los datos. Es posible que no quieras migrar datos que ya están agregados, superfluos, archivados o antiguos. Puedes archivar esos datos en un bucket de Cloud Storage como copia de seguridad.
  • Un porcentaje aceptable de pérdida de datos Esto se aplica en particular a los datos que se usan para las cargas de trabajo de análisis, en las que perder parte de los datos no afecta las tendencias generales ni el rendimiento de tus cargas de trabajo.
  • Criterios de calidad y cantidad de datos, que puedes aplicar a tu entorno fuente y comparar con el entorno de destino después de la migración.
  • Criterios de rendimiento Es posible que algunas transacciones comerciales sean más lentas en el entorno de destino, pero el tiempo de procesamiento sigue dentro de las expectativas definidas.

Es posible que las configuraciones de almacenamiento de tu entorno de origen no se asignen directamente a los objetivos del entorno deGoogle Cloud . Por ejemplo, configuraciones de los volúmenes de SSD de uso general (gp2 y gp3) con rendimiento de ráfaga de IOPS o SSD con IOPS aprovisionados. Para comparar y ajustar correctamente el tamaño de las instancias de destino, compara las instancias de origen en las fases de evaluación y validación.

En el proceso de comparativas, aplicas secuencias de operaciones similares a las de producción a las instancias de la base de datos. Durante este tiempo, capturas y procesas métricas para medir y comparar el rendimiento relativo de los sistemas de origen y destino.

Para las configuraciones convencionales basadas en servidores, usa las mediciones relevantes que se observaron durante las cargas máximas. En el caso de los modelos de capacidad de recursos flexibles, como Aurora sin servidores, considera consultar los datos de métricas históricos para observar tus necesidades de escalamiento.

Las siguientes herramientas se pueden usar para las pruebas, la validación y las comparativas de bases de datos:

  • HammerDB: Una herramienta de comparativas y pruebas de carga de bases de datos de código abierto. Admite cargas de trabajo analíticas y transaccionales complejas, basadas en estándares de la industria, en varios motores de bases de datos (TPROC-C y TPROC-H). HammerDB tiene una documentación detallada y una amplia comunidad de usuarios. Puedes compartir y comparar los resultados en varios motores de bases de datos y configuraciones de almacenamiento. Para obtener más información, consulta Prueba de carga de SQL Server con HammerDB y Cómo comparar el rendimiento de Amazon RDS SQL Server con HammerDB.
  • DBT2 Benchmark Tool: comparativa especializada para MySQL Un conjunto de kits de cargas de trabajo de bases de datos imita una aplicación para una empresa que posee almacenes y que implica una combinación de transacciones de lectura y escritura. Usa esta herramienta si quieres usar una prueba de carga de procesamiento de transacciones en línea (OLTP) prediseñada.
  • DbUnit: Una herramienta de prueba de unidades de código abierto que se usa para probar interacciones de base de datos relacional en Java. La configuración y el uso son sencillos, y admite varios motores de base de datos (MySQL, PostgreSQL, SQL Server y otros). Sin embargo, la ejecución de la prueba puede ser lenta en ocasiones, según el tamaño y la complejidad de la base de datos. Te recomendamos esta herramienta cuando la simplicidad es importante.
  • DbFit: un framework de pruebas de bases de datos de código abierto que admite el desarrollo de código orientado a pruebas y las pruebas automatizadas. Usa una sintaxis básica para crear casos de prueba y cuenta con pruebas basadas en datos, control de versión y generación de informes de resultados de pruebas. Sin embargo, la compatibilidad con consultas y transacciones complejas es limitada y no tiene una gran asistencia de la comunidad ni una documentación extensa, en comparación con otras herramientas. Te recomendamos esta herramienta si tus consultas no son complejas y deseas realizar pruebas automatizadas y, luego, integrarlas con tu proceso de integración y entrega continua.

Para ejecutar una prueba de extremo a extremo, incluida la prueba del plan de migración, siempre realiza un ejercicio de prueba de migración. Una prueba sin conexión realiza la migración de bases de datos de alcance completo sin cambiar ninguna carga de trabajo de producción y ofrece las siguientes ventajas:

  • Te permite asegurarte de que todos los objetos y parámetros de configuración se migren correctamente.
  • Te ayuda a definir y ejecutar tus casos de prueba de migración.
  • Ofrece estadísticas sobre el tiempo necesario para la migración real, de modo que puedas ajustar tu cronograma.
  • Representa una oportunidad para probar, validar y adaptar el plan de migración. A veces, no puedes planificar todo con anticipación, por lo que esto te ayuda a detectar cualquier brecha.

Las pruebas de datos se pueden realizar en un conjunto pequeño de las bases de datos que se migrarán o en todo el conjunto. Según la cantidad total de bases de datos y las herramientas que se usen para implementar su migración, puedes decidir adoptar un enfoque basado en riesgos. Con este enfoque, realizas la validación de datos en un subconjunto de bases de datos que se migraron con la misma herramienta, en especial si esta es un servicio de migración administrado.

Para realizar pruebas, debes tener acceso a las bases de datos de origen y destino, y realizar las siguientes tareas:

  • Compara los esquemas de origen y destino. Comprueba si existen todas las tablas y los ejecutables. Verifica los recuentos de filas y compara los datos a nivel de la base de datos.
  • Ejecuta secuencias de comandos de validación de datos personalizadas.
  • Prueba que los datos migrados también sean visibles en las aplicaciones que cambiaron para usar la base de datos de destino (los datos migrados se leen a través de la aplicación).
  • Realiza pruebas de integración entre las aplicaciones conmutadas y la base de datos de destino probando varios casos de uso. Estas pruebas incluyen la lectura y la escritura de datos en las bases de datos de destino a través de las aplicaciones para que las cargas de trabajo admitan por completo los datos migrados junto con los datos creados recientemente.
  • Prueba el rendimiento de las consultas de la base de datos más usadas para observar si hay alguna degradación debido a parámetros de configuración incorrectos o a un tamaño incorrecto.

Idealmente, todas estas situaciones de prueba de migración deben estar automatizadas y ser repetibles en cualquier sistema de origen. El paquete de casos de prueba automatizados se adapta para realizar pruebas en las aplicaciones conmutadas.

Si usas Database Migration Service como herramienta de migración, consulta la versión de "Cómo verificar una migración" para PostgreSQL o PostgreSQL a AlloyDB para PostgreSQL.

Herramienta de validación de datos

Para realizar la validación de datos, te recomendamos que uses la Herramienta de validación de datos (DVT). La DVT es una herramienta de CLI de Python de código abierto, respaldada por Google, que proporciona una solución automatizada y repetible para la validación en diferentes entornos.

La DVT puede ayudar a optimizar el proceso de validación de datos, ya que ofrece funciones de validación personalizadas y de varios niveles para comparar las tablas de origen y destino a nivel de la tabla, la columna y la fila. También puedes agregar reglas de validación.

La DVT abarca muchas fuentes de datos de Google Cloud , incluidas AlloyDB para PostgreSQL, BigQuery, Cloud SQL, Spanner, JSON y archivos CSV en Cloud Storage. También se puede integrar con Cloud Run Functions y Cloud Run para la activación y orquestación basadas en eventos.

La DVT admite los siguientes tipos de validaciones:

  • Comparaciones a nivel del esquema
  • Columna (incluidos "AVG", "COUNT", "SUM", "MIN", "MAX", "GROUP BY" y "STRING_AGG")
  • Fila (incluidos hash y concordancia exacta en las comparaciones de campos)
  • Comparación de resultados de búsquedas personalizadas

Para obtener más información sobre la DVT, consulta el repositorio de Git y Data validation made easy with Google Cloud's Data Validation Tool.

Realice la migración

Las tareas de migración incluyen las actividades para admitir la transferencia de un sistema a otro.

Ten en cuenta las siguientes prácticas recomendadas para la migración de datos:

  • Informa a los equipos involucrados cada vez que comience y termine un paso del plan.
  • Si alguno de los pasos tarda más de lo esperado, compara el tiempo transcurrido con la cantidad máxima de tiempo asignado para ese paso. Cuando esto suceda, envía actualizaciones intermedias periódicas a los equipos involucrados.
  • Si el período es mayor que la cantidad máxima de tiempo reservada para cada paso del plan, considera revertir el proceso.
  • Toma decisiones de "aprobación o rechazo" para cada paso de la migración y el plan de migración.
  • Considera acciones de reversión o situaciones alternativas para cada uno de los pasos.

Para realizar la migración, sigue las tareas de ejecución definidas y consulta la documentación de la herramienta de migración que seleccionaste.

Realiza la migración a producción

El proceso de cambio de producción de alto nivel puede diferir según la estrategia de migración que elijas. Si puedes tener tiempo de inactividad en tus cargas de trabajo, la conversión de la migración comienza deteniendo las operaciones de escritura en la base de datos de origen.

En el caso de las migraciones de replicación continua, por lo general, se realizan los siguientes pasos de alto nivel en el proceso de cambio:

  • Deja de escribir en la base de datos de origen.
  • Drena la fuente.
  • Detén el proceso de replicación.
  • Implementa las aplicaciones que apuntan a la nueva base de datos de destino.

Después de migrar los datos con la herramienta de migración elegida, debes validar los datos en la base de datos de destino. Confirmas que la base de datos de origen y las bases de datos de destino están sincronizadas, y que los datos de la instancia de destino cumplen con los estándares de éxito de migración que elegiste.

Una vez que la validación de datos cumpla con tus criterios, puedes realizar la migración a nivel de la aplicación. Implementa las cargas de trabajo que se refactorizaron para usar la nueva instancia de destino. Implementas las versiones de tus aplicaciones que apuntan a la nueva instancia de base de datos de destino. Las implementaciones se pueden realizar a través de actualizaciones progresivas, lanzamientos por etapas o con un patrón de implementación azul-verde. Es posible que se genere un tiempo de inactividad de la aplicación.

Sigue las prácticas recomendadas para la migración a producción:

  • Supervisa las aplicaciones que funcionan con la base de datos de destino después de la migración.
  • Define un período de supervisión para considerar si necesitas implementar tu plan de resguardo.
  • Ten en cuenta que es posible que tu instancia de Cloud SQL o AlloyDB para PostgreSQL necesite un reinicio si cambias algunas marcas de base de datos.
  • Ten en cuenta que el esfuerzo de revertir la migración podría ser mayor que el de corregir los problemas que aparecen en el entorno de destino.

Limpia el entorno de origen y configura la instancia de Cloud SQL o AlloyDB para PostgreSQL

Una vez que se complete la migración, podrás borrar las bases de datos de origen. Te recomendamos que realices las siguientes acciones importantes antes de limpiar tu instancia de origen:

  • Crea una copia de seguridad final de cada base de datos de origen. Estas copias de seguridad te proporcionan un estado final de las bases de datos de origen. En algunos casos, es posible que las copias de seguridad también sean necesarias para cumplir con algunas reglamentaciones de datos.

  • Recopila la configuración de parámetros de la base de datos de tu instancia de origen. Como alternativa, verifica que coincidan con los que recopilaste en la fase de compilación del inventario. Ajusta los parámetros de la instancia de destino para que coincidan con los de la instancia de origen.

  • Recopila estadísticas de la base de datos de la instancia de origen y compáralas con las de la instancia de destino. Si las estadísticas son dispares, es difícil comparar el rendimiento de la instancia de origen y la de destino.

En un caso de resguardo, te recomendamos que implementes la replicación de tus escrituras en la instancia de Cloud SQL a tu base de datos de origen original. La configuración se asemeja al proceso de migración, pero se ejecutaría a la inversa: la base de datos de origen inicial se convertiría en el nuevo destino.

Como práctica recomendada para mantener las instancias de origen actualizadas después de la migración, replica las operaciones de escritura realizadas en las instancias de Cloud SQL de destino en la base de datos de origen. Si necesitas revertir la actualización, puedes recurrir a tus instancias de origen anteriores con una pérdida mínima de datos.

Como alternativa, puedes usar otra instancia y replicar los cambios en esa instancia. Por ejemplo, cuando AlloyDB para PostgreSQL es un destino de migración, considera configurar la replicación en una instancia de Cloud SQL para PostgreSQL para situaciones de resguardo.

Además de la limpieza del entorno de origen, se deben realizar las siguientes configuraciones críticas para tus instancias de Cloud SQL para PostgreSQL:

  • Configura un período de mantenimiento para tu instancia principal para controlar cuándo pueden ocurrir actualizaciones disruptivas.
  • Configura el almacenamiento en la instancia para que tengas al menos un 20% de espacio disponible para admitir cualquier operación de mantenimiento de bases de datos fundamental que pueda realizar Cloud SQL. Para recibir una alerta si el espacio en el disco disponible es inferior al 20%, crea una política de alertas basada en métricas para la métrica de uso del disco.

No inicies una operación administrativa antes de que se complete la operación anterior.

Para obtener más información sobre el mantenimiento y las prácticas recomendadas en las instancias de Cloud SQL para PostgreSQL y AlloyDB para PostgreSQL, consulta los siguientes recursos:

Para obtener más información sobre el mantenimiento y las prácticas recomendadas, consulta Acerca del mantenimiento en instancias de Cloud SQL.

Optimiza tu entorno después de la migración

La optimización es la última fase de la migración. En esta fase, iteras en tareas de optimización hasta que tu entorno de destino cumpla con tus requisitos de optimización. Los pasos de cada iteración son los siguientes:

  1. Evalúa tu entorno actual, los equipos y el ciclo de optimización.
  2. Establece tus requisitos y objetivos de optimización.
  3. Optimiza el entorno y los equipos.
  4. Ajustar el bucle de optimización

Repite esta secuencia hasta que hayas alcanzado tus objetivos de optimización.

Para obtener más información sobre cómo optimizar tu entorno de Google Cloud , consulta Migra a Google Cloud: Optimiza tu entorno y Google Cloud Architecture Framework: Optimización del rendimiento.

Establece tus requisitos de optimización

Revisa los siguientes requisitos de optimización para tu entorno de Google Cloud y elige los que mejor se adapten a tus cargas de trabajo:

Aumenta la confiabilidad y la disponibilidad de tu base de datos

Con Cloud SQL, puedes implementar una estrategia de alta disponibilidad y recuperación ante desastres que se alinee con tu objetivo de tiempo de recuperación (RTO) y objetivo de punto de recuperación (RPO). Para aumentar la confiabilidad y la disponibilidad, ten en cuenta lo siguiente:

Aumenta la rentabilidad de tu infraestructura de bases de datos

Para tener un impacto económico positivo, tus cargas de trabajo deben usar los recursos y servicios disponibles de manera eficiente. Considera las siguientes opciones:

Aumenta el rendimiento de tu infraestructura de base de datos

Los problemas de rendimiento menores relacionados con la base de datos suelen tener el potencial de afectar a toda la operación. Para mantener y aumentar el rendimiento de tu instancia de Cloud SQL, ten en cuenta los siguientes lineamientos:

  • Si tienes una gran cantidad de tablas de base de datos, estas pueden afectar el rendimiento y la disponibilidad de la instancia, y hacer que pierda la cobertura del ANS.
  • Asegúrate de que tu instancia no tenga limitaciones de memoria ni CPU.

    • Para cargas de trabajo con un alto rendimiento, asegúrate de que tu instancia tenga al menos 60 GB de memoria.
    • Si las inserciones, actualizaciones o eliminaciones de la base de datos son lentas, verifica las ubicaciones del escritor y la base de datos. El envío de datos a grandes distancias introduce latencia.
  • Mejora el rendimiento de las consultas con el panel predefinido de Estadísticas de consultas en Cloud Monitoring (o funciones integradas similares del motor de base de datos). Identifica los comandos más costosos y trata de optimizarlos.

  • Evita que los archivos de la base de datos se vuelvan demasiado grandes. Establece autogrow en MB en lugar de un porcentaje, con incrementos adecuados al requisito.

  • Verifica la ubicación del lector y de la base de datos. La latencia afecta el rendimiento de la lectura más que el de la escritura.

Cuando migres de Amazon RDS y Aurora para PostgreSQL a Cloud SQL para PostgreSQL, ten en cuenta los siguientes lineamientos:

  • Usa la caché para mejorar el rendimiento de lectura. Inspecciona las diversas estadísticas de la vista pg_stat_database. Por ejemplo, la proporción de blks_hit / (blks_hit + blks_read) debe ser superior al 99%. Si esta proporción no es superior al 99%, considera aumentar el tamaño de la RAM de tu instancia. Para obtener más información, consulta Colector de estadísticas de PostgreSQL.
  • Recupera espacio y evita un rendimiento deficiente del índice. Según la frecuencia con la que cambian tus datos, establece un programa para ejecutar el comando VACUUM en tu Cloud SQL para PostgreSQL.
  • Usa la edición de Cloud SQL Enterprise Plus para aumentar los límites de configuración de la máquina y la caché de datos. Para obtener más información sobre Cloud SQL Enterprise Plus, consulta Introducción a las ediciones de Cloud SQL.
  • Cambia a AlloyDB para PostgreSQL. Si cambias, puedes tener compatibilidad total con PostgreSQL, un mejor procesamiento transaccional y cargas de trabajo de análisis transaccional rápidas compatibles con tu base de datos de procesamiento. También recibirás una recomendación para índices nuevos a través de la función del asesor de índices.

Para obtener más información sobre cómo aumentar el rendimiento de la infraestructura de tu base de datos de Cloud SQL para PostgreSQL, consulta la documentación de mejora del rendimiento de Cloud SQL para PostgreSQL.

Cuando migres de Amazon RDS y Aurora para PostgreSQL a AlloyDB para PostgreSQL, ten en cuenta los siguientes lineamientos para mejorar el rendimiento de tu instancia de base de datos de AlloyDB para PostgreSQL:

Aumenta las capacidades de observabilidad de la base de datos

Diagnosticar y solucionar problemas en aplicaciones que se conectan a instancias de bases de datos puede ser un desafío y llevar mucho tiempo. Por este motivo, es fundamental contar con un lugar centralizado en el que todos los miembros del equipo puedan ver lo que sucede a nivel de la base de datos y la instancia. Puedes supervisar instancias de Cloud SQL de las siguientes maneras:

  • Cloud SQL usa agentes personalizados de memoria integrados para recopilar la telemetría de las consultas.

    • Usa Cloud Monitoring para recopilar mediciones de tu servicio y los recursos de Google Cloud que usas. Cloud Monitoring incluye paneles predefinidos para varios productos de Google Cloud , incluido un panel de supervisión de Cloud SQL.
    • Puedes crear paneles personalizados que te ayuden a supervisar las métricas y configurar políticas de alertas para que puedas recibir notificaciones oportunas.
    • Como alternativa, puedes considerar usar soluciones de supervisión de terceros que están integradas en Google Cloud, como Datadog y Splunk.
  • Cloud Logging recopila datos de registro de componentes comunes de la aplicación.

  • Cloud Trace recopila datos de latencia y ejecuta planes de consulta de las aplicaciones para ayudarte a hacer un seguimiento de cómo se propagan las solicitudes en tu aplicación.

  • Database Center proporciona una descripción general centralizada y asistida por IA de la flota de bases de datos. Puedes supervisar el estado de tus bases de datos, la configuración de disponibilidad, la protección de datos, la seguridad y el cumplimiento de la industria.

Para obtener más información sobre cómo aumentar la visibilidad de la infraestructura de tu base de datos, consulta las siguientes secciones de la documentación:

Prácticas recomendadas y lineamientos operativos generales de Cloud SQL y AlloyDB para PostgreSQL

Aplica las prácticas recomendadas de Cloud SQL para configurar y ajustar la base de datos.

Estas son algunas recomendaciones generales importantes de Cloud SQL:

  • Si tienes instancias grandes, te recomendamos que las dividas en instancias más pequeñas cuando sea posible.
  • Configura el almacenamiento para adaptar el mantenimiento fundamental de la base de datos. Asegúrate de tener al menos un 20% de espacio disponible para admitir cualquier operación de mantenimiento de bases de datos crítica que pueda realizar Cloud SQL.
  • Tener demasiadas tablas de base de datos puede afectar el tiempo de actualización de la base de datos. Lo ideal es tener menos de 10,000 tablas por instancia.
  • Elige el tamaño adecuado para tus instancias para tener en cuenta la retención de registros de transacciones (binarios), en especial para las instancias con alta actividad de escritura.

Para poder controlar de manera eficiente cualquier problema de rendimiento de la base de datos que puedas encontrar, usa los siguientes lineamientos hasta que se resuelva el problema:

Aumentar la escala de la infraestructura: Aumenta los recursos (como la capacidad de procesamiento del disco, la CPU virtual y la RAM). Según la urgencia y la disponibilidad y experiencia de tu equipo, escalar verticalmente tu instancia puede resolver la mayoría de los problemas de rendimiento. Más adelante, podrás investigar en detalle la causa raíz del problema en un entorno de prueba y considerar opciones para eliminarlo.

Realiza y programa operaciones de mantenimiento de la base de datos: Desfragmentación de índices, actualizaciones de estadísticas, análisis de limpieza y reindexación de tablas muy actualizadas. Verifica si se realizaron estas operaciones de mantenimiento por última vez y cuándo, sobre todo en los objetos afectados (tablas, índices). Descubre si hubo un cambio en las actividades normales de la base de datos. Por ejemplo, agregar una columna nueva recientemente o tener muchas actualizaciones en una tabla.

Realiza la optimización y el ajuste de la base de datos: ¿Las tablas de tu base de datos están estructuradas correctamente? ¿Las columnas tienen los tipos de datos correctos? ¿Tu modelo de datos es adecuado para el tipo de carga de trabajo? Investiga tus consultas lentas y sus planes de ejecución. ¿Están usando los índices disponibles? Verifica si hay análisis de índices, bloqueos y esperas en otros recursos. Considera agregar índices para admitir tus consultas fundamentales. Elimina los índices y las claves externas no esenciales. Considera reescribir las consultas y las uniones complejas. El tiempo que se demora en resolver el problema depende de la experiencia y disponibilidad de tu equipo, y puede variar de horas a días.

Escala tus operaciones de lectura: Considera tener réplicas de lectura. Cuando el escalamiento vertical no es suficiente para tus necesidades y las medidas de optimización y ajuste de la base de datos no ayudan, considera el escalamiento horizontal. Enrutar las consultas de lectura de tus aplicaciones a una réplica de lectura mejora el rendimiento general de tu carga de trabajo de la base de datos. Sin embargo, es posible que debas realizar un esfuerzo adicional para cambiar tus aplicaciones para que se conecten a la réplica de lectura.

Reacondicionamiento de la arquitectura de la base de datos: Considera particionar y indexar la base de datos. Esta operación requiere mucho más esfuerzo que el ajuste y la optimización de la base de datos, y podría implicar una migración de datos, pero puede ser una solución a largo plazo. A veces, un diseño deficiente del modelo de datos puede generar problemas de rendimiento, que se pueden compensar parcialmente con la escala vertical. Sin embargo, un modelo de datos adecuado es una solución a largo plazo. Considera particionar tus tablas. Si es posible, archiva los datos que ya no sean necesarios. Normaliza la estructura de tu base de datos, pero recuerda que la desnormalización también puede mejorar el rendimiento.

Fragmentación de la base de datos: Puedes escalar tus operaciones de escritura fragmentando la base de datos. El particionamiento es una operación complicada que implica volver a diseñar tu base de datos y tus aplicaciones de una manera específica, y realizar la migración de datos. Para dividir tu instancia de base de datos en varias instancias más pequeñas, usa criterios de partición específicos. Los criterios pueden basarse en el cliente o en el tema. Esta opción te permite escalar horizontalmente las operaciones de lectura y escritura. Sin embargo, aumenta la complejidad de las cargas de trabajo de tu base de datos y aplicación. También podría generar fragmentos desequilibrados llamados hotspots, que superarán el beneficio del fragmentación.

Para Cloud SQL para PostgreSQL y AlloyDB para PostgreSQL, ten en cuenta las siguientes prácticas recomendadas:

  • Para descargar el tráfico de la instancia principal, agrega réplicas de lectura. También puedes usar un balanceador de cargas, como HAProxy, para administrar el tráfico a las réplicas. Sin embargo, evita tener demasiadas réplicas, ya que esto dificulta la operación de VACUUM. Para obtener más información sobre el uso de HAProxy, consulta el sitio web oficial de HAProxy.
  • Optimiza la operación VACUUM aumentando la memoria del sistema y el parámetro maintenance_work_mem. Aumentar la memoria del sistema significa que se pueden agrupar más tuplas en cada iteración.
  • Debido a que los índices más grandes consumen una cantidad significativa de tiempo para el análisis de índices, establece el parámetro INDEX_CLEANUP en OFF para limpiar y suspender rápidamente los datos de la tabla.
  • Cuando uses AlloyDB para PostgreSQL, usa el panel de estadísticas del sistema y los registros de auditoría de AlloyDB para PostgreSQL. El panel de estadísticas del sistema de AlloyDB para PostgreSQL muestra las métricas de los recursos que usas y te permite supervisarlos. Para obtener más detalles, consulta los lineamientos del tema Cómo supervisar instancias en la documentación de AlloyDB para PostgreSQL.

Obtén más información en los vínculos siguientes:

¿Qué sigue?

Colaboradores

Autores:

Otro colaborador: Somdyuti Paul | Especialista en administración de datos