Skalierbare, leistungsstarke und kostengünstige Infrastruktur für beliebige KI-Arbeitslasten.
KI-Beschleuniger für jeden Anwendungsfall – von Hochleistungstraining bis hin zu kostengünstiger Inferenz
Mit GPUs und TPUs in Google Kubernetes Engine oder Google Compute Engine schneller skalieren
Bereitstellbare Lösungen für Vertex AI, Google Kubernetes Engine und das Cloud-HPC-Toolkit
Um unsere KI-Infrastruktur optimal zu nutzen sollten Sie die KI-Hypercomputer-Architektur bereitstellen.
Vorteile
Bei Google Cloud können Sie unter GPUs, TPUs und CPUs wählen, um verschiedenste Anwendungsfällen zu unterstützen, darunter Hochleistungstraining, kostengünstige Inferenz und Datenverarbeitung im großen Maßstab.
Mit der verwalteten Infrastruktur von Vertex AI können Sie schneller und effizienter skalieren. Richten Sie schnell ML-Umgebungen ein, automatisieren Sie die Orchestrierung, verwalten Sie große Cluster und richten Sie Anwendungen mit niedriger Latenz ein.
Verbessern Sie die Produktivität der KI-Entwicklung, indem Sie mit GKE umfangreiche Arbeitslasten verwalten. Trainieren und stellen Sie die Foundation Models mit Unterstützung für Autoscaling, Arbeitslast-Orchestrierung und automatische Upgrades bereit.
Wichtige Features
Bei KI-Arbeitslasten gibt es keine Universallösung. Deshalb bieten wir zusammen mit unseren Hardwarepartnern aus der Branche, darunter NVIDIA, Intel, AMD, Arm und mehr, unseren Kunden ein breites Spektrum an KI-optimierten Computing-Optionen für TPUs, GPUs und CPUs zum Trainieren und Bereitstellen sehr datenintensiver Modelle.
Das Orchestrieren umfangreicher KI-Arbeitslasten mit Cloud TPUs und Cloud GPUs war in der Vergangenheit mit manuellem Aufwand verbunden, um Fehler, Logging, Monitoring und andere grundlegende Vorgänge zu bewältigen. Die Google Kubernetes Engine (GKE), ein sehr gut skalierbarer und vollständig verwalteter Kubernetes-Dienst, vereinfacht die für den Betrieb von TPUs und GPUs erforderliche Arbeit erheblich. Der Einsatz von GKE zur Verwaltung umfangreicher KI-Arbeitslast-Orchestrierung auf Cloud TPU und Cloud GPU verbessert die Produktivität der KI-Entwicklung.
Für Unternehmen, die es bevorzugen, die Infrastruktur einfach durch verwaltete Dienste zu abstrahieren, unterstützt Vertex AI jetzt das Training mit verschiedenen Frameworks und Bibliotheken über Cloud TPU und Cloud GPU.
Unsere KI-optimierte Infrastruktur wurde dafür entwickelt, die globale Skalierung und Leistung bereitzustellen, die von Milliarden Menschen genutzte Google-Produkte wie YouTube, Gmail, Google Maps, Google Play und Android erfordern. Unsere KI-Infrastrukturlösungen basieren alle auf dem Jupiter-Rechenzentrumsnetzwerk von Google Cloud, das eine branchenführende Hochskalierung von grundlegenden Diensten bis hin zu hochintensiven KI-Arbeitslasten unterstützt.
Seit Jahrzehnten arbeiten wir an wichtigen KI-Projekten wie TensorFlow und JAX mit. Wir haben die PyTorch Foundation mitbegründet und kürzlich ein neues Branchenkonsortium angekündigt: das OpenXLA-Projekt. Darüber hinaus leistet Google zahlreiche CNCF-Open-Source-Beiträge und leistet seit über 20 Jahren OSS-Beiträge wie TFX, MLIR, OpenXLA, KubeFlow und Kubernetes. Google sponsert OSS-Projekte, die für die Data-Science-Community von entscheidender Bedeutung sind, darunter Project Jupyter und NumFOCverteUS.
Außerdem sind unsere KI-Infrastrukturdienste in die gängigsten KI-Frameworks wie TensorFlow, PyTorch und MXNet eingebettet. Kunden können also weiterhin ihr bevorzugtes Framework verwenden und sind nicht auf ein bestimmtes Framework oder eine bestimmte Hardwarearchitektur beschränkt.
Kunden
KI öffnet für Innovationen in verschiedenen Branchen Türen. Daher entscheiden sich Unternehmen für Google Cloud, um von unserer offenen, flexiblen und leistungsfähigen Infrastruktur zu profitieren.
Das ist neu
Dokumentation
Anwendungsfälle
Das Cloud TPU-Multislice-Training ist eine Full-Stack-Technologie, die ein schnelles, einfaches und zuverlässiges Training großer KI-Modelle mit Zehntausenden TPU-Chips ermöglicht.
Mit der offenen Softwareumgebung von Google Cloud können Sie Anwendungen mit den Tools und Frameworks erstellen, mit denen Sie sich am besten auskennen. Gleichzeitig profitieren Sie von den Preis-Leistungs-Vorteilen der KI-Hypercomputerarchitektur.
Cloud TPU v5e- und NVIDIA L4-GPUs ermöglichen leistungsstarke und kostengünstige Inferenzen für verschiedene KI-Arbeitslasten, einschließlich der neuesten LLMs und generative AI-Modelle. Beide bieten erhebliche Preisleistungsverbesserungen im Vergleich zu früheren Modellen. Mit der KI-Hypercomputerarchitektur von Google Cloud können Kunden ihre Bereitstellungen auf branchenführende Levels skalieren.
Preise
Die Preise für AI Infrastructure hängen von den ausgewählten Produkten ab. Sie können die KI-Infrastruktur von Google kostenlos mit Colab oder der kostenlosen Stufe von Google Cloud nutzen.
Cloud TPU | Cloud GPU |
---|---|
Informationen zu Preisen für verschiedene TPU-Einzelgeräte und TPU-Pods finden Sie unter TPU-Preise. | Informationen zu den Preisen für die verschiedenen verfügbaren GPU-Typen und Regionen finden Sie in der Preisübersicht für GPUs. |
KI-Produkte von Google Cloud entsprechen unseren SLA-Richtlinien. Sie bieten eventuell von anderen Google Cloud-Diensten abweichende Latenz- oder Verfügbarkeitsgarantien.
Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 „Immer kostenlos“-Produkte kennenzulernen.