La ráfaga en la nube es una configuración de cloud computing en la que una aplicación se ejecuta en una nube privada o en un centro de datos on-premise y "se desborda" en una nube pública cuando la demanda de capacidad de computación aumenta de forma repentina. Esto actúa como una válvula de alivio, de forma que, cuando la infraestructura privada alcanza su límite, el tráfico se dirige automáticamente a los servicios de nube pública para que no se interrumpa el servicio. Es como una tienda que abre más cajas solo cuando las colas son demasiado largas. La configuración de ráfaga en la nube es un tipo específico de despliegue de nube híbrida.
En un modelo de escalado en la nube estándar, una empresa podría intentar gestionar todo en un solo entorno. Sin embargo, tener suficientes servidores físicos para gestionar el día más ajetreado del año significa que esos servidores estarán vacíos y sin usar los otros 364 días. La ráfaga en la nube puede ayudar a resolver este problema, ya que permite a las empresas pagar por una capacidad básica en su propio centro de datos y solo pagar por los recursos adicionales de la nube pública cuando realmente los necesiten. Este enfoque puede ayudar a las empresas a gestionar picos de tráfico repentinos sin tener que comprar hardware caro que no necesitan todo el tiempo.
Para entender cómo funciona una ráfaga en la nube, imagina que tu nube privada es un depósito de agua. En condiciones normales, el agua (tráfico de datos) se mantiene dentro de la capacidad del depósito. Sin embargo, cuando llega una tormenta repentina (un pico de tráfico), el depósito corre el riesgo de desbordarse.
En una configuración de ráfaga en la nube, los equipos de TI configuran un "activador" o umbral, normalmente cuando el uso de recursos alcanza aproximadamente el 70-80%. Una vez que se supera este umbral, el sistema abre automáticamente una válvula a un tanque secundario: la nube pública. La aplicación sigue ejecutándose sin problemas, ya que el tráfico adicional se redirige a los recursos de la nube pública. Una vez que pasa la tormenta y los niveles de tráfico vuelven a bajar, el sistema cierra la válvula y desactiva los recursos de la nube pública, de forma que las operaciones vuelven a realizarse únicamente en la nube privada.
Hay diferentes formas de configurar estas ráfagas en función del nivel de control o automatización que necesite un equipo.
La ráfaga en la nube no siempre es la solución adecuada para todas las aplicaciones, especialmente para aquellas que dependen de datos complejos y sensibles que no pueden salir de una red privada. Suele ser la mejor opción para cargas de trabajo con patrones de demanda fluctuantes, estacionales o impredecibles en las que la velocidad y el tiempo de actividad son fundamentales, como en las siguientes situaciones:
Los comercios suelen enfrentarse a picos de tráfico masivos durante eventos de compras populares como el Black Friday o el Cyber Monday. La ráfaga en la nube permite a estas empresas gestionar millones de compradores durante unos días usando la nube pública y, después, volver a su infraestructura privada cuando la demanda disminuye.
Los científicos e ingenieros de datos suelen ejecutar tareas de computación de alto rendimiento (HPC), como simulaciones complejas, entrenamiento de modelos de IA u otras tareas de computación pesada, como el renderizado en 3D. Estos trabajos pueden necesitar miles de servidores durante solo unas horas. La función de ráfaga permite a los equipos alquilar esta enorme potencia de forma temporal en lugar de esperar en una larga cola de supercomputación o construir un superordenador que se utilizará poco.
Los desarrolladores de software suelen necesitar crear entornos temporales para probar código nuevo o actualizaciones. En lugar de ocupar espacio en los servidores privados principales, pueden trasladar estos entornos de prueba a la nube pública. Esto ayuda a mantener el entorno de producción seguro y estable.
Si un centro de datos local se desconecta debido a un corte de luz o a un desastre natural, la ráfaga en la nube puede actuar como mecanismo de conmutación por error para la recuperación ante desastres. El sistema puede redirigir el tráfico a la nube pública para que la aplicación siga funcionando hasta que se solucione el problema del sitio principal.
Para implementar la ráfaga en la nube, no basta con tener dos entornos de computación, sino que se necesita una estrategia para gestionar la complejidad de mover datos y aplicaciones entre ellos. Para hacerlo de forma eficaz, las organizaciones necesitan funciones que garanticen una conectividad fluida y una gestión coherente.
Una de las formas más eficaces de implementar un activador de la ráfaga en la nube es usar Google Kubernetes Engine (GKE) y Horizontal Pod Autoscaler (HPA) con métricas externas. En este caso, tu aplicación on-premise envía una señal (una métrica) a Google Cloud Monitoring. Cuando esa señal supera un umbral, GKE crea automáticamente nuevos pods en la nube para gestionar la carga.
A continuación, te explicamos cómo configurar un activador basado en la profundidad de una cola de Pub/Sub (un indicador habitual de que tus trabajadores on-premise están sobrecargados):
1. Habilita la API de métricas personalizadas: primero, debes permitir que tu clúster de GKE lea métricas de Cloud Monitoring. Para ello, debes implementar el adaptador de métricas personalizadas de Stackdriver en tu clúster. Este adaptador actúa como puente, traduciendo las métricas de Google Cloud a un formato que Kubernetes pueda entender.
2. Define la configuración de HPA: crea un archivo YAML de HorizontalPodAutoscaler. A diferencia de un escalador automático estándar que analiza el uso de la CPU, este examinará una métrica externa, concretamente, el número de mensajes no entregados en una suscripción de Pub/Sub (num_undelivered_messages).
3. Aplicar y monitorizar: aplica esta configuración con kubectl apply -f hpa.yaml. Ahora, GKE "vigila" tu cola. Si tu sistema on-premise se ralentiza y la cola supera el objetivo (50 mensajes), el HPA activará automáticamente la creación de nuevos pods en la nube para procesar el trabajo pendiente. Cuando la cola esté vacía, GKE reducirá el número de pods a cero.
Lo que no se puede ver, no se puede gestionar. Para que la ráfaga en la nube funcione, los equipos de TI deben tener una visión clara de sus recursos tanto en su centro de datos privado como en la nube pública. Google Cloud ofrece herramientas que proporcionan una visibilidad granular sobre cómo usan las aplicaciones la CPU y la memoria.
Al saber exactamente cuánto "combustible" consume una aplicación, los equipos pueden establecer umbrales precisos para saber cuándo es necesario aumentar la capacidad. Si el umbral es demasiado bajo, podrías gastar dinero en la nube pública cuando no es necesario. Si es demasiado alto, la aplicación podría fallar antes de que lleguen los nuevos recursos. La monitorización unificada ayuda a las empresas a ajustar estos parámetros para equilibrar el rendimiento y el coste.
El balanceo de carga manual funciona bien para proyectos pequeños y poco frecuentes, pero puede que no se adapte bien a las aplicaciones empresariales. Para ser más eficientes, las empresas pueden implementar software y herramientas que orquesten automáticamente los recursos de computación en la nube. Las herramientas de automatización, como Terraform o Deployment Manager de Google Cloud, pueden ayudarte a definir la infraestructura como código (IaC).
Esto significa que el sistema puede aprovisionar, configurar y gestionar servidores automáticamente en función de la demanda en tiempo real. Cuando el pico de tráfico disminuye, las herramientas de automatización también se encargan de "desaprovisionar" o cerrar esos recursos. De esta forma, la empresa deja de pagar por la nube pública en el momento en que ya no la necesita.
Mantener el control durante un pico de uso es vital para la seguridad y la gestión del presupuesto. Las empresas necesitan una función de monitorización sólida para hacer un seguimiento de los recursos y asegurarse de que se aprovisionan correctamente sin que se interrumpa el servicio.
Las herramientas de informes ayudan a hacer un seguimiento de cuánto cuestan los picos de uso a lo largo del tiempo. Estos datos son esenciales para predecir los presupuestos futuros. Además, se deben aplicar políticas de seguridad coherentes a los recursos de la función de ráfaga. Las herramientas que implementan la monitorización y la elaboración de informes pueden ayudar a reducir los costes y aumentar la eficiencia con el tiempo, ya que identifican tendencias y anomalías en el uso.
Adoptar una estrategia de ráfaga en la nube puede ofrecer varias ventajas a las empresas que buscan equilibrar el rendimiento y el presupuesto.
Ahorro de costes
Las empresas solo pagan por los recursos adicionales de la nube pública cuando los usan, lo que puede ayudar a evitar el gasto de capital que supone comprar hardware que permanece inactivo durante los periodos de menor actividad.
Flexibilidad y escalabilidad
Puede dar a los equipos la libertad de probar nuevos proyectos o gestionar picos masivos de tráfico sin estar limitados por el espacio físico o la energía disponible en su propio centro de datos.
Continuidad y resiliencia de la actividad empresarial
Si el centro de datos privado tiene un problema o se satura, la aplicación sigue online transfiriendo la carga a la nube pública, lo que ayuda a evitar fallos y periodos de inactividad.
Optimización de recursos
Los equipos de TI pueden mantener su nube privada funcionando a un nivel constante y eficiente para las tareas críticas, mientras que descargan el tráfico variable e impredecible en la nube pública flexible.
Aunque el concepto de ráfaga en la nube es universal, la infraestructura que lo admite varía significativamente entre los proveedores. Google Cloud ofrece ventajas específicas que hacen que la función de ráfaga híbrida sea más rápida, fiable y fácil de gestionar.
Empieza a crear en Google Cloud con 300 USD en crédito sin coste y más de 20 productos Always Free.