Define el futuro de la entrega de software y hazte escuchar. Responde la encuesta sobre el estado de DevOps de 2022 hoy.

Ir a

Google Kubernetes Engine

Una forma sencilla de implementar, escalar y administrar automáticamente Kubernetes.

Los clientes nuevos pueden usar $300 en créditos gratuitos para probar GKE. 

  • Ejecuta tus apps en la plataforma administrada más automatizada y escalable de Kubernetes.

  • Comienza rápido con clústeres que se implementan con un solo clic y escala verticalmente a 15,000 nodos.

  • Aprovecha un plano de control de alta disponibilidad que incluye clústeres regionales y de varias zonas.

  • Elimina la sobrecarga operativa con el ajuste de escala automático en cuatro direcciones enfocado en la industria. 

  • Es seguro de forma predeterminada, ya que incluye el análisis de vulnerabilidades para las imágenes de contenedor y la encriptación de datos.

Beneficios

Acelera el proceso de desarrollo de las apps sin sacrificar la seguridad

Desarrolla una gran variedad de apps compatibles con aceleradores de aplicaciones con estado y sin servidores. Usa herramientas de CI/CD nativas de Kubernetes para proteger y acelerar cada etapa del ciclo de vida de creación y de implementación.

Optimiza las operaciones con canales de versiones

Elige un canal que se adapte a las necesidades de tu empresa. Los canales de versiones disponibles (rápido, regular y estable) tienen distintos ritmos de actualización de nodos y brindan niveles de asistencia alineados con la naturaleza del canal.

Reduce las operaciones del segundo día con la ayuda de los SRE de Google

Recupera el tiempo para enfocarte en las aplicaciones con la ayuda de los ingenieros de confiabilidad de sitios (SRE) de Google. Nuestros SRE supervisan los clústeres y sus recursos de procesamiento, redes y almacenamiento con mucha frecuencia.

Funciones clave

Funciones clave

Dos modos de operación, un GKE

GKE ahora ofrece dos modos de operación: Standard y Autopilot. El modo Standard corresponde a la experiencia que desarrollamos desde el lanzamiento de GKE, que te brinda control total de los nodos y la opción de ajustar y ejecutar cargas de trabajo administrativas personalizadas. El modo Autopilot es una solución automática completamente nueva y administrada que te permite controlar toda la infraestructura del clúster sin tener que preocuparte de la configuración ni la supervisión. Además, gracias a la facturación por Pod, Autopilot garantiza que solo pagues por los Pods en ejecución y no por los componentes del sistema, la sobrecarga del sistema operativo ni la capacidad sin asignar.

Ajuste de escala automático de Pods y clústeres

GKE es el primer servicio de Kubernetes completamente administrado de la industria que implementa la API completa de Kubernetes, el ajuste de escala automático en 4 direcciones, los canales de versiones y la compatibilidad con múltiples clústeres. El ajuste de escala automático horizontal de Pods puede basarse en el uso de CPU o en métricas personalizadas. El ajuste de escala automático de clústeres funciona por grupo de nodos, mientras que el ajuste de escala automático vertical de Pods analiza de forma continua el uso de la CPU y la memoria de los Pods y ajusta automáticamente las solicitudes de CPU y de memoria.

Aplicaciones y plantillas predefinidas de Kubernetes

Obtén acceso a soluciones alojadas en contenedores preparadas para las empresas con plantillas de implementación predefinidas que ofrecen portabilidad, licencias simplificadas y facturación consolidada. No son solo imágenes de contenedor, sino aplicaciones comerciales de código abierto y desarrolladas por Google que aumentan la productividad de los desarrolladores. Solo tienes que hacer clic para implementar de forma local o en nubes de terceros desde Google Cloud Marketplace.

Seguridad y redes nativas de contenedores

GKE Sandbox proporciona una segunda capa de defensa entre las cargas de trabajo alojadas en contenedores de GKE para mejorar la seguridad de las cargas de trabajo. Los clústeres de GKE son compatibles de manera nativa con la política de red de Kubernetes para restringir el tráfico con reglas de firewall a nivel de los Pods. Se pueden restringir los clústeres privados de GKE a un extremo privado o a uno público al que solo pueden acceder algunos rangos de direcciones.

Migra cargas de trabajo tradicionales a contenedores de GKE con facilidad

Migrate for Anthos and GKE facilita y acelera la modernización de aplicaciones tradicionales desde máquinas virtuales hacia contenedores nativos. Con nuestro enfoque automatizado y único, se extraen los elementos fundamentales de las aplicaciones desde las VMs para que puedas insertarlos con facilidad en contenedores en Google Kubernetes Engine o en clústeres de Anthos, sin las capas de VM (como el SO invitado) que ya no se necesitan con los contenedores. Este producto también funciona con Autopilot de GKE.

Ver todas las funciones

Novedades

Novedades

Regístrate para recibir los boletines informativos de Google Cloud con información sobre actualizaciones de productos, eventos, ofertas especiales y mucho más.

Documentación

Documentación

Práctica recomendada
Prácticas recomendadas para trabajar con contenedores

Conoce las prácticas recomendadas para trabajar con contenedores en GKE.

Instructivo
Instructivo de GKE: Implementa una app web alojada en contenedores

Crea una aplicación sencilla, empaquétala en un contenedor y, luego, implementa la imagen del contenedor en GKE, todo directamente desde el editor de Cloud Shell. 

Práctica recomendada
Prepara un entorno de GKE para la producción

Sigue la orientación y la metodología para integrar las cargas de trabajo a GKE de manera más segura, confiable y rentable.

Instructivo
Endurece los clústeres de GKE

Aprende a endurecer los clústeres de GKE.

Instructivo
Recursos de GKE

Encuentra más información sobre las funciones, las actualizaciones, los precios y mucho más.

Instructivo
Descubre todo lo que puedes crear en Google Cloud

Descubre las guías de recursos técnicos de Google Cloud para liberar el potencial de GKE.

Casos de uso

Casos de uso

Caso de uso
Canalización de entrega continua

Permite el desarrollo y la iteración de aplicaciones a gran velocidad: facilita implementar, actualizar y administrar aplicaciones y servicios. Configura GKE, Cloud Source Repositories, Cloud Build y Spinnaker para servicios de Google Cloud a fin de crear, probar e implementar una app de manera automática. Cuando se modifica el código de la aplicación, los cambios activan la canalización de entrega continua para que esta vuelva a crear, probar e implementar la versión nueva de forma automática.

Diagrama que muestra cómo los desarrolladores pueden crear una canalización de entrega continua
Caso de uso
Migra una aplicación de dos niveles a GKE

Usa Migrate for Anthos para trasladar cargas de trabajo y convertirlas en contenedores de GKE de manera directa. Migra una aplicación de pila LAMP de dos niveles, que cuenta con VMs de aplicación y base de datos, de VMware a GKE. Para mejorar la seguridad, haz que solo se pueda acceder a la base de datos desde el contenedor de la aplicación y no desde el exterior del clúster. Reemplaza el acceso SSH por el acceso de shell autenticado mediante kubectl. Consulta los registros del sistema de contenedores mediante la integración automática de Cloud Logging.

Diagrama que muestra cómo convertir cargas de trabajo y trasladarlas a GKE

Todas las funciones

Todas las funciones

Copia de seguridad para GKE La Copia de seguridad para GKE es una manera sencilla y nativa de la nube para los clientes que ejecutan cargas de trabajo con estado en GKE a fin de proteger, administrar y restablecer sus datos y aplicaciones alojadas en contenedores.
Administración de identidades y accesos Controla el acceso al clúster con tus Cuentas de Google y permisos de roles.
Redes híbridas Reserva un rango de direcciones IP para el clúster a fin de que las IP puedan coexistir con las de la red privada mediante Cloud VPN de Google.
Seguridad y cumplimiento GKE cuenta con el respaldo del equipo de seguridad de Google, que tiene más de 750 expertos, y cumple con los estándares HIPAA y PCI DSS.
Supervisión y registros integrados Habilita Cloud Logging y Cloud Monitoring mediante la configuración simple de casillas de verificación. Así podrás obtener información sobre el funcionamiento de tu aplicación con facilidad.
Opciones de clústeres Elige clústeres que se adapten a la disponibilidad, la estabilidad de la versión, el aislamiento y los requisitos de tráfico de Pods de tus cargas de trabajo.
Ajuste de escala automático Aumenta y reduce de forma automática la escala vertical de la implementación de tus aplicaciones según el uso de recursos (CPU y memoria).
Actualización automática Mantén actualizados los clústeres de manera automática con la versión de actualización más reciente de Kubernetes. Las actualizaciones de versiones de Kubernetes están disponibles en GKE con rapidez.
Reparación automática Cuando está habilitada la reparación automática, GKE inicia un proceso de reparación en un nodo si falla la verificación de estado.
Límites de recursos Kubernetes te permite especificar la cantidad de memoria (RAM) y CPU que necesita cada contenedor, lo que sirve para organizar mejor las cargas de trabajo del clúster.
Aislamiento del contenedor Usa GKE Sandbox para agregar una segunda capa de defensa entre las cargas de trabajo en contenedores de GKE a fin de mejorar la seguridad de las cargas de trabajo.
Compatibilidad con aplicaciones con estado GKE no solo funciona con apps de 12 factores. Puedes conectar almacenamiento persistente a los contenedores y hasta alojar bases de datos completas.
Compatibilidad con imágenes de Docker GKE es compatible con el formato de contenedor común de Docker.
Administración completa Los ingenieros de confiabilidad de sitios (SRE) de Google administran los clústeres de GKE en su totalidad, lo que garantiza que estén disponibles y actualizados.
SO diseñado para contenedores GKE se ejecuta en Container‑Optimized OS, un SO endurecido que desarrolla y administra Google.
Container Registry privado La integración a Google Container Registry facilita el almacenamiento de tus imágenes privadas de Docker y el acceso a ellas.
Desarrollos coherentes y rápidos Usa Cloud Build para implementar tus contenedores de manera confiable en GKE sin necesidad de configurar la autenticación.
Portabilidad de las cargas de trabajo locales y en la nube GKE ejecuta Certified Kubernetes, lo que permite la portabilidad de las cargas de trabajo a otras plataformas de Kubernetes entre distintos servicios locales y en la nube.
Compatibilidad con GPU y TPU GKE es compatible con GPU y TPU, lo que simplifica la ejecución de cargas de trabajo de AA, GPGPU y HPC, así como de otras que se benefician del uso de aceleradores de hardware especializados.
Panel integrado La consola de Cloud ofrece paneles útiles para los clústeres de tu proyecto y sus recursos. Puedes usar estos paneles para ver, inspeccionar, administrar y borrar los recursos de tus clústeres.
VMs Spot Instancias de procesamiento asequibles adecuadas para trabajos por lotes y cargas de trabajo tolerantes a errores. Las VMs Spot permiten ahorrar hasta un 91% con el mismo rendimiento y las mismas capacidades que tienen las VMs comunes.
Compatibilidad con discos persistentes Almacenamiento en bloque duradero y de alto rendimiento para instancias de contenedores. Los datos se almacenan de manera redundante a fin de mantener la integridad, la flexibilidad para cambiar el tamaño del almacenamiento sin interrupciones y la encriptación automática. Puedes crear discos persistentes en formato HDD o SSD. Además, puedes tomar instantáneas de los discos persistentes y crear discos nuevos a partir de ellas.
Compatibilidad con SSD locales GKE ofrece almacenamiento en bloque en unidades de estado sólido (SSD) locales con encriptación permanente. Las SSD locales están conectadas a nivel físico al servidor que aloja la instancia de máquina virtual, por lo que admiten una gran cantidad de operaciones de entrada y salida por segundo (IOPS) y tienen una latencia muy baja en comparación con los discos persistentes.
Balanceo de cargas global La tecnología global de balanceo de cargas te ayuda a distribuir las solicitudes entrantes entre varios grupos de instancias ubicados en distintas regiones, de manera que puedas alcanzar máximos niveles de rendimiento, capacidad de procesamiento y disponibilidad a bajo costo.
Compatibilidad con Linux y Windows GKE puede ejecutar nodos de Windows Server y Linux, y es completamente compatible con las cargas de trabajo de ambos sistemas.
Compatibilidad con nubes híbridas y múltiples Aprovecha Kubernetes y la tecnología de nube en tu propio centro de datos. Obtén la experiencia de GKE con instalaciones administradas, rápidas y sencillas, además de actualizaciones que Google valida mediante Anthos.
Contenedores sin servidores Ejecuta contenedores sin estado y sin servidores que permitan abstraer toda la administración de infraestructuras y escálalos de forma automática con Cloud Run.
Medición de uso Obtén una visibilidad detallada de los clústeres de Kubernetes. Consulta el uso de los recursos de tus clústeres de GKE desglosado por espacios de nombres y etiquetas, y atribuye el uso a entidades significativas.
Canales de versiones Los canales de versiones proporcionan más control sobre las actualizaciones automáticas que recibe un clúster determinado en función de los requisitos de estabilidad del clúster y sus cargas de trabajo. Puedes seleccionar entre rápido, regular o estable. Cada uno tiene un ritmo de actualización diferente y se orienta a distintos tipos de cargas de trabajo.
Seguridad de la cadena de suministro del software Verifica, aplica y mejora la seguridad de los paquetes y componentes de infraestructura usados para imágenes de contenedor con Container Analysis.
Facturación por segundo Google factura por segundo. Solo pagas el tiempo de procesamiento que usas.

Precios

Precios

Habrá un clúster de Autopilot o clúster zonal gratuito por cuenta de facturación.

Se aplica una tarifa por administración de clústeres de $0.10 por clúster y por hora, excepto para los clústeres de Anthos. Los Pods de usuario en los clústeres de Autopilot se facturan por segundo para los núcleos de CPU, la memoria y el almacenamiento efímero hasta que se borra un Pod. Los nodos trabajadores en clústeres estándar aplican costos de procesamiento hasta que se borra un clúster.

Socios

Acelera el desarrollo de tu app con socios

Encuentra al socio adecuado para que te ayude a desarrollar tu app con herramientas de CI/CD nativas de Kubernetes o diseña tu propia app con una solución creada por un socio lista para usar.