Documentazione sull'orchestrazione di AI/ML su GKE
Esegui carichi di lavoro di AI/ML ottimizzati con le funzionalità di orchestrazione della piattaforma Google Kubernetes Engine (GKE). Con Google Kubernetes Engine (GKE), puoi implementare una piattaforma di AI/ML affidabile e pronta per la produzione con tutti i vantaggi di Kubernetes gestito e le seguenti funzionalità:
- Orchestrazione dell'infrastruttura che supporta GPU e TPU per workload di addestramento ed erogazione su larga scala.
- Integrazione flessibile con framework di calcolo distribuito ed elaborazione dei dati.
- Supporto di più team sulla stessa infrastruttura per massimizzare l'utilizzo delle risorse
Avvia il tuo prossimo progetto con 300 $di credito gratuito
Crea e testa una proof of concept con i crediti della prova gratuita e l'utilizzo mensile gratuito di oltre 20 prodotti.
Risorse di documentazione
Pubblica modelli aperti su GKE
-
NOVITÀ!
Pubblica LLM come Deepseek-R1 671B o Llama 3.1 405B su GKE
-
NOVITÀ!
Gestisci un LLM utilizzando TPU su GKE con KubeRay
-
Tutorial
Gestisci un LLM utilizzando TPU Trillium su GKE con vLLM
-
Tutorial
Guida rapida: gestisci un LLM utilizzando una singola GPU su GKE
-
Tutorial
Gestisci Gemma utilizzando GPU su GKE con TGI di Hugging Face
-
Tutorial
Gestisci Gemma utilizzando GPU su GKE con vLLM
Orchestrare TPU e GPU su larga scala
-
NOVITÀ!
Ottimizza l'utilizzo delle risorse GKE per i carichi di lavoro di addestramento e inferenza misti di AI/ML
-
Video
Introduzione alle Cloud TPU per il machine learning.
-
Video
Creare modelli di machine learning su larga scala su Cloud TPU con GKE
-
Video
Erogazione di modelli linguistici di grandi dimensioni con KubeRay su TPU
-
Blog
Machine learning con JAX su Kubernetes con GPU NVIDIA
Ottimizzazione dei costi e orchestrazione dei job
-
NOVITÀ!
Architettura di riferimento per una piattaforma di elaborazione batch su GKE
-
Blog
Archiviazione AI/ML ad alte prestazioni tramite il supporto di SSD locali su GKE
-
Blog
Semplificare le operazioni MLOps con Weights & Biases con Google Kubernetes Engine
-
Best practice
Best practice per l'esecuzione di carichi di lavoro batch su GKE
-
Best practice
Esegui applicazioni Kubernetes con ottimizzazione dei costi su GKE
-
Best practice
Miglioramento del tempo di lancio di Stable Diffusion su GKE di quattro volte
Risorse correlate
Video correlati
Why GKE is perfect for running batch workloads
Kubernetes is the top container orchestration platform for batch workloads like data processing, machine learning, and scientific simulations. In this video, Mofi Rahman, Cloud Advocate at Google, discusses why Google Kubernetes Engine (GKE) is the
Designing Google Kubernetes clusters for massive scale and performance
Being an industry leader in running massive scale container workloads is what Google is known for. Learn from us and our customers the key best practices for designing clusters and workloads for large scale and performance on GKE. This session will