En esta página se ofrece una descripción general conceptual de Google Kubernetes Engine (GKE) para cargas de trabajo de IA y aprendizaje automático. GKE es una implementación gestionada por Google de la plataforma de orquestación de contenedores de código abierto Kubernetes.
Google Kubernetes Engine ofrece una plataforma escalable, flexible y rentable para ejecutar todas tus cargas de trabajo en contenedores, incluidas las aplicaciones de inteligencia artificial y aprendizaje automático (IA/AA). Tanto si entrenas modelos fundacionales de gran tamaño como si sirves solicitudes de inferencia a gran escala o creas una plataforma de IA completa, GKE te ofrece el control y el rendimiento que necesitas.
Esta página está dirigida a especialistas en datos e IA, arquitectos de Cloud, operadores y desarrolladores que buscan una solución de Kubernetes escalable, automatizada y gestionada para ejecutar cargas de trabajo de IA y aprendizaje automático. Para obtener más información sobre los roles habituales, consulta Roles y tareas de usuario habituales de GKE.
Empezar a usar cargas de trabajo de IA y aprendizaje automático en GKE
Puedes empezar a explorar GKE en cuestión de minutos usando el nivel gratuito de GKE, que te permite empezar a usar Kubernetes sin incurrir en costes de gestión de clústeres.
- Prueba estas guías de inicio rápido:
- Inferencia en GKE: despliega un modelo de lenguaje extenso (LLM) de IA en GKE para la inferencia mediante una arquitectura predefinida.
- Entrenamiento en GKE: despliega un modelo de entrenamiento de IA en GKE y almacena las predicciones en Cloud Storage.
- Consulta el artículo Acerca de las opciones de consumo de aceleradores para cargas de trabajo de IA y aprendizaje automático, que incluye directrices y recursos para planificar y obtener aceleradores (GPUs y TPUs) para tu plataforma.
Casos prácticos habituales
GKE proporciona una plataforma unificada que puede admitir todas tus cargas de trabajo de IA.
- Crear una plataforma de IA: para los equipos de plataformas empresariales, GKE ofrece la flexibilidad necesaria para crear una plataforma estandarizada y multicliente que satisfaga diversas necesidades.
- Servicio online de baja latencia: para los desarrolladores que crean aplicaciones de IA generativa, GKE con Inference Gateway proporciona el enrutamiento optimizado y el escalado automático necesarios para ofrecer una experiencia de usuario con capacidad de respuesta y, al mismo tiempo, controlar los costes.
Elegir la plataforma adecuada para tu carga de trabajo de IA o aprendizaje automático
Google Cloud ofrece un espectro de productos de infraestructura de IA para respaldar tu recorrido de aprendizaje automático, desde soluciones totalmente gestionadas hasta totalmente configurables. Elegir la plataforma adecuada depende de tus necesidades específicas de control, flexibilidad y nivel de gestión.
Elige GKE si necesitas un control exhaustivo, portabilidad y la capacidad de crear una plataforma de IA personalizada y de alto rendimiento.
- Control y flexibilidad de la infraestructura: necesitas un alto grado de control sobre tu infraestructura, usar flujos de trabajo personalizados o realizar personalizaciones a nivel de kernel.
- Entrenamiento e inferencia a gran escala: quieres entrenar modelos muy grandes o servir modelos con una latencia mínima mediante la escalabilidad y el alto rendimiento de GKE.
- Rentabilidad a gran escala: quieres priorizar la optimización de costes mediante la integración de GKE con las VMs de acceso puntual y las VMs de inicio flexible para gestionar los costes de forma eficaz.
- Portabilidad y estándares abiertos: quieres evitar depender de un proveedor y ejecutar tus cargas de trabajo en cualquier lugar con Kubernetes, y ya tienes experiencia con Kubernetes o una estrategia multinube.
También puedes considerar estas alternativas:
ServicioGoogle Cloud | Usos recomendados |
---|---|
Vertex AI | Una plataforma integral y totalmente gestionada para acelerar el desarrollo y descargar la gestión de la infraestructura. Es una opción adecuada para los equipos centrados en MLOps y en reducir el tiempo de amortización. Para obtener más información, consulta el vídeo Choosing between self-hosted GKE and managed Vertex AI to host AI models (Elegir entre GKE autogestionado y Vertex AI gestionado para alojar modelos de IA). |
Cloud Run | Una plataforma sin servidor para cargas de trabajo de inferencia en contenedores que se puede escalar a cero. Funciona bien en aplicaciones basadas en eventos y en el servicio de modelos más pequeños de forma rentable. Para obtener una comparación detallada, consulta GKE y Cloud Run. |
Cómo impulsa GKE las cargas de trabajo de IA y aprendizaje automático
GKE ofrece un conjunto de componentes especializados que simplifican y aceleran cada fase del ciclo de vida de la IA y el aprendizaje automático, desde el entrenamiento a gran escala hasta la inferencia de baja latencia.
En la siguiente tabla se resumen las funciones de GKE que admiten tus cargas de trabajo de IA o aprendizaje automático, así como tus objetivos operativos.
Carga de trabajo u operación de IA o aprendizaje automático | Cómo te ayuda GKE | Características principales |
---|---|---|
Inferencia y publicación | Optimizado para servir modelos de IA de forma elástica, con baja latencia, alto rendimiento y rentabilidad. |
|
Entrenamiento y ajuste | Proporciona las funciones de escalado y orquestación necesarias para entrenar de forma eficiente modelos muy grandes y, al mismo tiempo, minimizar los costes. |
|
Desarrollo unificado de IA y aprendizaje automático | Asistencia gestionada para Ray, un framework de código abierto para escalar aplicaciones Python distribuidas. |
|
Siguientes pasos
- Para consultar nuestras amplias colecciones de guías oficiales, tutoriales y otros recursos para ejecutar cargas de trabajo de IA y aprendizaje automático en GKE, visita el portal de orquestación de IA y aprendizaje automático en GKE.
- Consulta técnicas para obtener aceleradores de computación, como GPUs o TPUs, para tus cargas de trabajo de IA o aprendizaje automático en GKE.
- Consulta información sobre la inferencia de modelos de IA y aprendizaje automático en GKE.
- Consulta información sobre Ray en GKE.
- Consulta ejemplos experimentales para aprovechar GKE y acelerar tus iniciativas de IA y aprendizaje automático en GKE AI Labs.