Documentazione sull'orchestrazione di AI/ML su GKE
Esegui carichi di lavoro di AI/ML ottimizzati con le funzionalità di orchestrazione della piattaforma Google Kubernetes Engine (GKE). Con Google Kubernetes Engine (GKE), puoi implementare una piattaforma di AI/ML affidabile e pronta per la produzione con tutti i vantaggi di Kubernetes gestito e le seguenti funzionalità:
- Orchestrazione dell'infrastruttura che supporta GPU e TPU per workload di addestramento ed erogazione su larga scala.
- Integrazione flessibile con framework di calcolo distribuito ed elaborazione dei dati.
- Supporto di più team sulla stessa infrastruttura per massimizzare l'utilizzo delle risorse
Avvia il tuo prossimo progetto con 300 $di credito gratuito
Crea e testa una proof of concept con i crediti della prova gratuita e l'utilizzo mensile gratuito di oltre 20 prodotti.
Continua a esplorare con oltre 20 prodotti Always Free
Accedi a oltre 20 prodotti gratuiti per casi d'uso comuni, tra cui API AI, VM, data warehouse e altro ancora.
Risorse di documentazione
Pubblica modelli aperti su GKE
-
NOVITÀ!
Gestisci un LLM utilizzando TPU Trillium (v6e) su GKE con vLLM
-
Tutorial
Guida rapida: gestisci un LLM utilizzando una singola GPU su GKE
-
Tutorial
Gestisci Gemma utilizzando le GPU su GKE con TGI di Hugging Face
-
Tutorial
Gestisci Gemma utilizzando GPU su GKE con vLLM
-
Tutorial
Gestisci Gemma utilizzando GPU su GKE con NVIDIA Triton e TensorRT-LLM
-
Tutorial
Gestisci Gemma utilizzando le TPU su GKE con JetStream
Orchestrare TPU e GPU su larga scala
-
Video
Introduzione alle Cloud TPU per il machine learning.
-
Video
Creare modelli di machine learning su larga scala su Cloud TPU con GKE
-
Video
Erogazione di modelli linguistici di grandi dimensioni con KubeRay su TPU
-
Blog
Machine learning con JAX su Kubernetes con GPU NVIDIA
-
Blog
Crea una piattaforma di machine learning (ML) con Kubeflow e Ray su GKE
Ottimizzazione dei costi e orchestrazione dei job
-
NOVITÀ!
Architettura di riferimento per una piattaforma di elaborazione batch su GKE
-
Blog
Archiviazione AI/ML ad alte prestazioni tramite il supporto di SSD locali su GKE
-
Blog
Semplificare le operazioni MLOps con Weights & Biases con Google Kubernetes Engine
-
Best practice
Best practice per l'esecuzione di carichi di lavoro batch su GKE
-
Best practice
Esegui applicazioni Kubernetes con ottimizzazione dei costi su GKE
-
Best practice
Miglioramento del tempo di lancio di Stable Diffusion su GKE di quattro volte