Dokumentation zur KI/ML-Orchestrierung in GKE
Optimierte KI-/ML-Arbeitslasten mit den Funktionen der Google Kubernetes Engine (GKE)-Plattformorchestrierung ausführen. Mit der Google Kubernetes Engine (GKE) können Sie eine robuste, produktionsreife KI‑/ML-Plattform mit allen Vorteilen von verwaltetem Kubernetes und den folgenden Funktionen implementieren:
- Infrastrukturorchestrierung, die GPUs und TPUs zum Trainieren und Bereitstellen einer großen Anzahl von Arbeitslasten unterstützt
- Flexible Einbindung in verteiltes Computing und Datenverarbeitungs-Frameworks
- Unterstützung mehrerer Teams in derselben Infrastruktur zur Maximierung der Auslastung von Ressourcen
Starten Sie Ihr nächstes Projekt mit einem Guthaben in Höhe von 300 $
Mit dem Guthaben für die kostenlose Testversion und der kostenlosen monatlichen Nutzung von mehr als 20 Produkten können Sie einen Proof of Concept erstellen und testen.
Dokumentationsressourcen
Offene Modelle in GKE bereitstellen
-
NEU!
LLMs wie Deepseek-R1 671B oder Llama 3.1 405B in GKE bereitstellen
-
NEU!
LLM mithilfe von TPU Trillium in GKE mit vLLM bereitstellen
-
Tutorial
Kurzanleitung: LLM mit einer einzelnen GPU in GKE bereitstellen
-
Tutorial
Gemma mit GPUs in GKE mit Hugging Face TGI bereitstellen
-
Tutorial
Gemma mit GPUs in GKE mit vLLM bereitstellen
-
Tutorial
Gemma mit GPUs in GKE mit NVIDIA Triton und TensorRT-LLM bereitstellen
TPUs und GPUs in großem Umfang orchestrieren
-
NEU!
GKE-Ressourcennutzung für gemischte KI/ML-Trainings- und Inferenzarbeitslasten optimieren
-
Video
Einführung in Cloud TPUs für maschinelles Lernen
-
Video
Umfangreiches maschinelles Lernen auf Cloud TPUs mit GKE erstellen
-
Video
Large Language Models mit KubeRay auf TPUs bereitstellen
-
Blog
Maschinelles Lernen mit JAX in Kubernetes mit NVIDIA-GPUs
Kostenoptimierung und Joborchestrierung
-
NEU!
Referenzarchitektur für eine Batchverarbeitungsplattform in GKE
-
Blog
Leistungsstarker KI/ML-Speicher über lokale SSD-Unterstützung in GKE
-
Blog
Vereinfachte MLOps mithilfe von Weights und Biases mit der Google Kubernetes Engine
-
Best practice
Best Practices zum Ausführen von Batch-Arbeitslasten in GKE
-
Best practice
Kostenoptimierte Kubernetes-Anwendungen in GKE ausführen
-
Best practice
Verbesserung der Startzeit der stabilen Diffusion in GKE um das Vierfache
Weitere Informationen
Ähnliche Videos
Why GKE is perfect for running batch workloads
Kubernetes is the top container orchestration platform for batch workloads like data processing, machine learning, and scientific simulations. In this video, Mofi Rahman, Cloud Advocate at Google, discusses why Google Kubernetes Engine (GKE) is the
Designing Google Kubernetes clusters for massive scale and performance
Being an industry leader in running massive scale container workloads is what Google is known for. Learn from us and our customers the key best practices for designing clusters and workloads for large scale and performance on GKE. This session will