Ruta de aprendizaje: Escala aplicaciones: Consideraciones de producción
En este conjunto de instructivos, se simplifican algunas de las consideraciones de planificación para que puedas enfocarte en aprender las funciones y los servicios clave de Google Kubernetes Engine (GKE) Enterprise. Antes de comenzar a crear tu propio entorno de edición empresarial de Google Kubernetes Engine (GKE) similar al que se describe en este conjunto de instructivos, hay algunas consideraciones de planificación adicionales que debes tener en cuenta. Estas consideraciones incluyen el nivel de administración del clúster, las herramientas de redes y los tipos de disponibilidad.
Herramientas de redes
Los clústeres de GKE requieren una planificación cuidadosa de direcciones IP. Las opciones de herramientas de redes que elijas afectan la arquitectura de tus clústeres de GKE. Algunas de estas opciones no se pueden cambiar después de que se configuran sin volver a crear el clúster.
En este conjunto de instructivos, usarás clústeres de modo Autopilot que siempre usan herramientas de redes de modo nativo de la VPC. Los clústeres nativos de la VPC usan rangos de alias de direcciones IP en los nodos de GKE y son necesarios para crear clústeres en VPC compartidas. Los clústeres nativos de la VPC escalan con mayor facilidad que los clústeres basados en rutas sin consumir rutas de Google Cloud y, por lo tanto, son menos susceptibles de los límites de enrutamiento.
Antes de crear tu propio entorno de GKE Enterprise e implementar cargas de trabajo, revisa la siguiente guía de herramientas de redes:
- Descripción general de la red de GKE
- Prácticas recomendadas para las herramientas de redes de GKE
- Planifica las direcciones IP para GKE
Modos de clúster
En este conjunto de instructivos, crearás un clúster de GKE Enterprise regional que usa el modo Autopilot. Los clústeres de Autopilot están preconfigurados con una configuración de clúster optimizada que está lista para las cargas de trabajo de producción. Como alternativa, puedes usar clústeres de modo Standard para obtener una flexibilidad de configuración más avanzada sobre la infraestructura subyacente.
Para obtener una descripción general más completa, revisa los documentos de planificación que comienzan con las opciones de configuración del clúster.
Espacios de nombres
Los espacios de nombres te permiten organizar tus aplicaciones y aislarlas. Cada espacio de nombres tiene su propio conjunto de recursos, como Pods, implementaciones y servicios. Por ejemplo, puedes crear un espacio de nombres para todos tus servicios de frontend y un espacio de nombres para tus servicios de backend. Esta agrupación facilita administrar tus servicios y controlar el acceso a ellos.
En este conjunto de instructivos, implementarás los Pods y los servicios para la aplicación de ejemplo de Cymbal Bank en un solo espacio de nombres. Este enfoque reduce la complejidad de la implementación, pero no te permite usar espacios de nombres para asignar recursos a diferentes equipos y usuarios, como lo harías en un entorno de producción. Tampoco te permite aprovechar las funciones de administración de equipos de GKE Enterprise, que te ayudan a estructurar las flotas, los espacios de nombres y los permisos para permitir que los equipos actúen de forma independiente como “usuarios” independientes en tu flota con sus propios recursos. Para ver un ejemplo más seguro y listo para la producción de la aplicación de ejemplo de Cymbal Bank que usa varios espacios de nombres, consulta Arquitectura de la aplicación de Cymbal Bank.
Presupuestos de interrupción de Pods
Las políticas de presupuesto de interrupción de Pods (PDB) ayudan a garantizar el rendimiento de la app, ya que evitan que los Pods se interrumpan al mismo tiempo que realizas un cambio en el sistema y limitan la cantidad de Pods que no están disponibles de forma simultánea en una aplicación replicada.
En este conjunto de instructivos, no configuras ni usas PDB. Cuando completes el instructivo para simular fallas, todos los objetos des servicio y nodos deben responder como se espera. Cuando implementas tus propias cargas de trabajo, los PDB en los nodos pueden bloquear el vaciado de nodos.
Si usas PDB, revisa la configuración antes de intentar acordonar y desviar los nodos. Si los nodos no se pueden desviar de forma correcta, es posible que tengas problemas con los eventos de mantenimiento programados.
¿Qué sigue?
Para comenzar, completa el primer instructivo para implementar un solo clúster de GKE que ejecute una aplicación basada en microservicios.