¿Qué es la ráfaga en la nube?

La ráfaga en la nube es una configuración de cloud computing en la que una aplicación se ejecuta en una nube privada o en un centro de datos on-premise y "se desborda" en una nube pública cuando la demanda de capacidad de computación aumenta de forma repentina. Esto actúa como una válvula de alivio, de forma que, cuando la infraestructura privada alcanza su límite, el tráfico se dirige automáticamente a los servicios de nube pública para que no se interrumpa el servicio. Es como una tienda que abre más cajas solo cuando las colas son demasiado largas. La configuración de ráfaga en la nube es un tipo específico de despliegue de nube híbrida.

En un modelo de escalado en la nube estándar, una empresa podría intentar gestionar todo en un solo entorno. Sin embargo, tener suficientes servidores físicos para gestionar el día más ajetreado del año significa que esos servidores estarán vacíos y sin usar los otros 364 días. La ráfaga en la nube puede ayudar a resolver este problema, ya que permite a las empresas pagar por una capacidad básica en su propio centro de datos y solo pagar por los recursos adicionales de la nube pública cuando realmente los necesiten. Este enfoque puede ayudar a las empresas a gestionar picos de tráfico repentinos sin tener que comprar hardware caro que no necesitan todo el tiempo.

Cómo funciona ráfaga en la nube

Para entender cómo funciona una ráfaga en la nube, imagina que tu nube privada es un depósito de agua. En condiciones normales, el agua (tráfico de datos) se mantiene dentro de la capacidad del depósito. Sin embargo, cuando llega una tormenta repentina (un pico de tráfico), el depósito corre el riesgo de desbordarse.

En una configuración de ráfaga en la nube, los equipos de TI configuran un "activador" o umbral, normalmente cuando el uso de recursos alcanza aproximadamente el 70-80%. Una vez que se supera este umbral, el sistema abre automáticamente una válvula a un tanque secundario: la nube pública. La aplicación sigue ejecutándose sin problemas, ya que el tráfico adicional se redirige a los recursos de la nube pública. Una vez que pasa la tormenta y los niveles de tráfico vuelven a bajar, el sistema cierra la válvula y desactiva los recursos de la nube pública, de forma que las operaciones vuelven a realizarse únicamente en la nube privada.

Tipos de ráfaga en la nube

Hay diferentes formas de configurar estas ráfagas en función del nivel de control o automatización que necesite un equipo.

  • Ráfaga manual: Esto ocurre cuando un administrador añade manualmente recursos de la nube pública. Esto puede ser útil para eventos predecibles, como el lanzamiento de un software planificado, en los que una persona puede decidir exactamente cuándo iniciar y detener la capacidad adicional.
  • Ráfaga automática: Este método utiliza políticas de software para activar la ráfaga. Cuando el sistema detecta que el uso de recursos ha alcanzado un límite específico, puede activar automáticamente recursos adicionales en la nube pública sin intervención humana.
  • Equilibrio de carga distribuido: este enfoque distribuye el tráfico entre las nubes privadas y públicas de forma simultánea. Dirige las solicitudes de los usuarios a la ubicación más cercana o a la que tenga más capacidad disponible en ese momento.

Cuándo usar la ráfaga en la nube

La ráfaga en la nube no siempre es la solución adecuada para todas las aplicaciones, especialmente para aquellas que dependen de datos complejos y sensibles que no pueden salir de una red privada. Suele ser la mejor opción para cargas de trabajo con patrones de demanda fluctuantes, estacionales o impredecibles en las que la velocidad y el tiempo de actividad son fundamentales, como en las siguientes situaciones:

Los comercios suelen enfrentarse a picos de tráfico masivos durante eventos de compras populares como el Black Friday o el Cyber Monday. La ráfaga en la nube permite a estas empresas gestionar millones de compradores durante unos días usando la nube pública y, después, volver a su infraestructura privada cuando la demanda disminuye.

Los científicos e ingenieros de datos suelen ejecutar tareas de computación de alto rendimiento (HPC), como simulaciones complejas, entrenamiento de modelos de IA u otras tareas de computación pesada, como el renderizado en 3D. Estos trabajos pueden necesitar miles de servidores durante solo unas horas. La función de ráfaga permite a los equipos alquilar esta enorme potencia de forma temporal en lugar de esperar en una larga cola de supercomputación o construir un superordenador que se utilizará poco.

Los desarrolladores de software suelen necesitar crear entornos temporales para probar código nuevo o actualizaciones. En lugar de ocupar espacio en los servidores privados principales, pueden trasladar estos entornos de prueba a la nube pública. Esto ayuda a mantener el entorno de producción seguro y estable.

Si un centro de datos local se desconecta debido a un corte de luz o a un desastre natural, la ráfaga en la nube puede actuar como mecanismo de conmutación por error para la recuperación ante desastres. El sistema puede redirigir el tráfico a la nube pública para que la aplicación siga funcionando hasta que se solucione el problema del sitio principal.

¿Cómo pueden las empresas implementar la ráfaga en la nube?

Para implementar la ráfaga en la nube, no basta con tener dos entornos de computación, sino que se necesita una estrategia para gestionar la complejidad de mover datos y aplicaciones entre ellos. Para hacerlo de forma eficaz, las organizaciones necesitan funciones que garanticen una conectividad fluida y una gestión coherente.

Configurar un activador de ráfaga con GKE

Una de las formas más eficaces de implementar un activador de la ráfaga en la nube es usar Google Kubernetes Engine (GKE) y Horizontal Pod Autoscaler (HPA) con métricas externas. En este caso, tu aplicación on-premise envía una señal (una métrica) a Google Cloud Monitoring. Cuando esa señal supera un umbral, GKE crea automáticamente nuevos pods en la nube para gestionar la carga.

A continuación, te explicamos cómo configurar un activador basado en la profundidad de una cola de Pub/Sub (un indicador habitual de que tus trabajadores on-premise están sobrecargados):

1. Habilita la API de métricas personalizadas: primero, debes permitir que tu clúster de GKE lea métricas de Cloud Monitoring. Para ello, debes implementar el adaptador de métricas personalizadas de Stackdriver en tu clúster. Este adaptador actúa como puente, traduciendo las métricas de Google Cloud a un formato que Kubernetes pueda entender.

  • Bash
Cargando...

2. Define la configuración de HPA: crea un archivo YAML de HorizontalPodAutoscaler. A diferencia de un escalador automático estándar que analiza el uso de la CPU, este examinará una métrica externa, concretamente, el número de mensajes no entregados en una suscripción de Pub/Sub (num_undelivered_messages).

  • YAML
Cargando...

3. Aplicar y monitorizar: aplica esta configuración con kubectl apply -f hpa.yaml. Ahora, GKE "vigila" tu cola. Si tu sistema on-premise se ralentiza y la cola supera el objetivo (50 mensajes), el HPA activará automáticamente la creación de nuevos pods en la nube para procesar el trabajo pendiente. Cuando la cola esté vacía, GKE reducirá el número de pods a cero.

Afinar mediante la monitorización

Lo que no se puede ver, no se puede gestionar. Para que la ráfaga en la nube funcione, los equipos de TI deben tener una visión clara de sus recursos tanto en su centro de datos privado como en la nube pública. Google Cloud ofrece herramientas que proporcionan una visibilidad granular sobre cómo usan las aplicaciones la CPU y la memoria.

Al saber exactamente cuánto "combustible" consume una aplicación, los equipos pueden establecer umbrales precisos para saber cuándo es necesario aumentar la capacidad. Si el umbral es demasiado bajo, podrías gastar dinero en la nube pública cuando no es necesario. Si es demasiado alto, la aplicación podría fallar antes de que lleguen los nuevos recursos. La monitorización unificada ayuda a las empresas a ajustar estos parámetros para equilibrar el rendimiento y el coste.

El papel de la automatización

El balanceo de carga manual funciona bien para proyectos pequeños y poco frecuentes, pero puede que no se adapte bien a las aplicaciones empresariales. Para ser más eficientes, las empresas pueden implementar software y herramientas que orquesten automáticamente los recursos de computación en la nube. Las herramientas de automatización, como Terraform o Deployment Manager de Google Cloud, pueden ayudarte a definir la infraestructura como código (IaC).

Esto significa que el sistema puede aprovisionar, configurar y gestionar servidores automáticamente en función de la demanda en tiempo real. Cuando el pico de tráfico disminuye, las herramientas de automatización también se encargan de "desaprovisionar" o cerrar esos recursos. De esta forma, la empresa deja de pagar por la nube pública en el momento en que ya no la necesita.

Controles (monitorización y elaboración de informes)

Mantener el control durante un pico de uso es vital para la seguridad y la gestión del presupuesto. Las empresas necesitan una función de monitorización sólida para hacer un seguimiento de los recursos y asegurarse de que se aprovisionan correctamente sin que se interrumpa el servicio.

Las herramientas de informes ayudan a hacer un seguimiento de cuánto cuestan los picos de uso a lo largo del tiempo. Estos datos son esenciales para predecir los presupuestos futuros. Además, se deben aplicar políticas de seguridad coherentes a los recursos de la función de ráfaga. Las herramientas que implementan la monitorización y la elaboración de informes pueden ayudar a reducir los costes y aumentar la eficiencia con el tiempo, ya que identifican tendencias y anomalías en el uso.

Ventajas de la ráfaga en la nube

Adoptar una estrategia de ráfaga en la nube puede ofrecer varias ventajas a las empresas que buscan equilibrar el rendimiento y el presupuesto.

Ahorro de costes

Las empresas solo pagan por los recursos adicionales de la nube pública cuando los usan, lo que puede ayudar a evitar el gasto de capital que supone comprar hardware que permanece inactivo durante los periodos de menor actividad.

Flexibilidad y escalabilidad

Puede dar a los equipos la libertad de probar nuevos proyectos o gestionar picos masivos de tráfico sin estar limitados por el espacio físico o la energía disponible en su propio centro de datos.

Continuidad y resiliencia de la actividad empresarial

Si el centro de datos privado tiene un problema o se satura, la aplicación sigue online transfiriendo la carga a la nube pública, lo que ayuda a evitar fallos y periodos de inactividad.

Optimización de recursos

Los equipos de TI pueden mantener su nube privada funcionando a un nivel constante y eficiente para las tareas críticas, mientras que descargan el tráfico variable e impredecible en la nube pública flexible.

Soluciona los retos empresariales que se te presenten con Google Cloud

Los nuevos clientes reciben 300 USD en crédito sin coste para invertirlos en Google Cloud.

Ventajas de Google Cloud para la ráfaga y la escalabilidad

Aunque el concepto de ráfaga en la nube es universal, la infraestructura que lo admite varía significativamente entre los proveedores. Google Cloud ofrece ventajas específicas que hacen que la función de ráfaga híbrida sea más rápida, fiable y fácil de gestionar.

  • Plataforma coherente con GKE Enterprise: muchas soluciones híbridas requieren que los equipos gestionen dos entornos diferentes (uno on-premise y otro en la nube), lo que puede generar problemas de compatibilidad durante un pico de demanda. GKE Enterprise de Google Cloud proporciona un tiempo de ejecución de Kubernetes coherente en ambos entornos. Esto significa que una aplicación creada para tu centro de datos privado puede pasar a Google Cloud de forma instantánea sin necesidad de cambiar el código ni de realizar una replataformación compleja.
  • Rendimiento de red mejorado: cuando una aplicación experimenta un pico de uso, los datos deben viajar entre el centro de datos privado y la nube pública. Google gestiona una de las redes privadas de fibra óptica más grandes del mundo. Al mantener el tráfico en esta red troncal privada en lugar de en Internet público, Google Cloud puede reducir la latencia y mejorar la seguridad durante los eventos críticos de alto tráfico.
  • Balanceo de carga global avanzado: Google Cloud Load Balancing no solo enruta el tráfico, sino que también puede responder a los picos de tráfico en cuestión de segundos (no de minutos) y distribuir las cargas entre regiones de todo el mundo. Si una ráfaga local no es suficiente, la red puede redirigir automáticamente a los usuarios a la región más cercana con capacidad disponible, lo que ofrece un nivel de resiliencia difícil de conseguir con las herramientas de redes estándar.
  • Flexibilidad del software libre: como Google Cloud se basa en estándares abiertos como Kubernetes y TensorFlow, las empresas evitan la dependencia de un proveedor. Puedes crear una estrategia de ráfaga que funcione hoy y que conserve la flexibilidad necesaria para adaptar tu infraestructura en el futuro.

Recursos adicionales

Ve un paso más allá

Empieza a crear en Google Cloud con 300 USD en crédito sin coste y más de 20 productos Always Free.

Google Cloud