AI Hypercomputer

Sie können Ihre KI-Anwendungen in der agentenbasierten Infrastruktur trainieren, bereitstellen und betreiben, die auch Google nutzt.

AI Hypercomputer

Sie können Ihre KI-Anwendungen in der agentenbasierten Infrastruktur trainieren, bereitstellen und betreiben, die auch Google nutzt.

Was ist AI Hypercomputer?

Eine Architektur, die speziell entwickelte Hardware, offene Software und flexible Nutzung kombiniert. Jede Komponente ist sorgfältig integriert, um gut mit den anderen zusammenzuarbeiten und so Leistung, Kosten und Entwicklerproduktivität zu verbessern.

Aktuelle Ankündigungen (April 2026): Die Zukunft der Google AI-Infrastruktur: Skalierung für das Zeitalter der KI-Agenten 

Architekturdiagramm des AI Hypercomputer

Intelligenteres, schnelleres Training

Modelle in Wochen statt Monaten erstellen Mit dem Trainings-Stack von Google können Sie die Entwicklung und das Testen beschleunigen, ohne die Leistung zu beeinträchtigen.

Mit der TPU 8t und der von Google DeepMind mitentwickelten Software, die in Open-Source-Frameworks integriert ist – von Pathways bis Pallas (Training) und von Ray bis Agent Sandbox (Abstimmung) – können Sie LLMs 36 % schneller entwickeln und die Produktivität (Goodput) jedes Beschleunigers um bis zu 97 % steigern. Wir wissen auch, dass es keine Einheitslösung gibt. Deshalb arbeiten wir eng mit NVIDIA zusammen, um die neuesten GPUs anzubieten. Google Cloud wird zu den ersten Anbietern gehören, die Instanzen auf Basis der NVIDIA Vera Rubin NVL72 der nächsten Generation bereitstellen, sobald diese im Laufe dieses Jahres verfügbar sind. 

Mit der Gemini Enterprise Agent Platform und BigQuery können Sie Modelle mit proprietären Daten 16-mal schneller trainieren, indem Sie Ihre Datenbestände, die ML-Entwicklung und Beschleuniger an einem Ort zusammenführen. Beide werden vom AI Hypercomputer unterstützt, unabhängig davon, ob Sie G4-VMs oder Ironwood-TPUs verwenden. 

GPU-basierte Simulationen mit MuJoCo-Warp von DeepMind ausführen – bis zu 100-mal schneller als mit MuJoCo. Anschließend können Sie mit synthetischen Medien von Veo, Genie und Nano Banana unmögliche, riskante oder teure Grenzfälle simulieren oder Petabyte an realen Sensordaten in BigQuery aufnehmen. Hier erfahren Sie mehr über das Erstellen physischer Agents in Google Cloud.

Reaktionsschnelle, effiziente Inferenz

Sie erhalten validierte Modellprofile sowie vollständig integrierte Google- und Open-Source-Software, um die Reaktionsfähigkeit von Anwendungen zu verbessern und gleichzeitig Komplexität und Verschwendung zu reduzieren.

Mit integrierten Inferenztechnologien können Sie nützliche, reaktionsschnelle Dienste für Ihre Kunden bereitstellen. Mit GKE Inference Gateway lässt sich die Zeit bis zum ersten Token um 71 % verkürzen. Mit llm-d für die disaggregierte Bereitstellung können bis zu 120.000 Tokens pro Sekunde bereitgestellt werden. Und mit Anywhere Cache und TPU 8i lassen sich Modelle fünfmal schneller laden, sodass der Arbeitsspeicher genau dort zur Verfügung steht, wo er benötigt wird.

Klassische ML-Modelle lassen sich 70 % schneller bereitstellen, wenn Sie eines der über 200 Modelle auf der Gemini Enterprise Agent Platform verwenden. Dabei können Sie zwischen TPU und GPU wählen, einschließlich A5X-VMs (NVIDIA Vera Rubin) und TPU 8i, sobald diese im Laufe des Jahres verfügbar sind.

Mit der GKE Agent Sandbox können Sie Agenten sicher bereitstellen und bis zu 300 Sandboxes pro Sekunde bereitstellen. Sie können sie bei Bedarf sofort pausieren und fortsetzen, sodass Sie nie für inaktive Agenten bezahlen.

Inferenzstack

Flexibler, offener und zuverlässiger Betrieb

Sie können jedes Framework oder jeden Accelerator in Hybrid- und Multi-Cloud-Umgebungen mit automatisierter Clusterwartung und ‑verwaltung für Exascale-Computing verwenden.

operations

TorchTPU bietet nativen PyTorch-Support, sodass Entwickler die TPU-Lernkurve überspringen und den besten verfügbaren Beschleuniger ohne komplexe Code-Neuschreibungen nutzen können.

GKE basiert auf dem Open-Source-System Kubernetes und bietet Ihnen Multi-Cloud-Portabilität im Unternehmensmaßstab. Es unterstützt bis zu 130.000 Knoten und lässt sich nativ in die Agent Platform und Google Distributed Cloud für hybride Bereitstellungen einbinden.

Jeder Beschleuniger auf AI Hypercomputer wird durch Cluster Director-Funktionen unterstützt, darunter ein Zustandsbericht vor der Bereitstellung, 360-Grad-Dashboards zur Beobachtbarkeit und fortlaufende Zustandsprüfungen.

Mit Cross-Cloud Network, einem Netzwerk-Backbone, dem über 65 % der Fortune-100-Unternehmen vertrauen und der monatlich über 27 Exabyte an Daten überträgt, können Sie Dienste in verschiedenen Clouds ohne Verzögerungen verbinden.

Unsere flexiblen Verbrauchsmodelle bieten Ihnen mehrere Möglichkeiten, die Kosten für Beschleuniger zu planen und zu senken. Mit Spot-VMs können Sie bis zu 91 % bei Batch- oder fehlertoleranten Jobs sparen, mit dem Dynamic Workload Scheduler bis zu 50 % bei Jobs mit flexiblem Startdatum und mit Rabatten für zugesicherte Nutzung bis zu 50 %.

Für den Einsatz von KI-Agenten geeignete Systeme

Sie können die Leistungsgrenzen ausreizen und Energie verantwortungsbewusst nutzen, während Sie auf der Infrastruktur skalieren, auf die Google und führende KI-Labore vertrauen.

Google Cloud unterstützt 9 von 10 der führenden KI-Labore und 70 % der geförderten KI-Start-ups. Wenn Sie AI Hypercomputer verwenden, nutzen Sie Rechenzentren, die allein im Dezember 2025 zuverlässig über 100 Milliarden Tokens für fast 350 Kunden verarbeitet haben.

Die Rechenzentren von Google Cloud, einschließlich des AI Hypercomputers, bieten eine branchenführende Energieeffizienz mit sechsmal mehr Rechenleistung pro Stromeinheit als noch vor fünf Jahren. Dadurch bietet unsere TPU der 8. Generation ein 80 % besseres Preis-Leistungs-Verhältnis und ist 20 % energieeffizienter als die vorherige Generation.

Google verpflichtet sich, 100 % des Stroms, den unsere Rechenzentren verbrauchen, und alle neuen Infrastrukturkosten, die direkt durch unser Wachstum entstehen, zu bezahlen. Arbeiten Sie mit uns zusammen, damit die Kosten für Ihre KI-Ambitionen nicht auf die lokalen Haushalte und Unternehmen abgewälzt werden. In den kommenden Jahren werden wir neue Energiequellen und Infrastruktur für unsere Modelle finanzieren und weiterhin in alternative Energiequellen wie fortschrittliche Kernenergie, Geothermie und Langzeitspeicher investieren.

Die maßgeschneiderten Titan-Chips unserer Titanium-Architektur bieten einen verifizierbaren Hardware-Root of Trust und Zero-Trust-Sicherheit. Eine unabhängige Analyse von cloudvulndb.org zeigt, dass unsere Systeme bis zu 70% weniger kritische Sicherheitslücken aufweisen als andere führende Cloud-Anbieter.

Systeme

Unterstützt die weltweit führenden Innovatoren

Wie WPP mit G4-VMs das Training humanoider Roboter um das 10-Fache beschleunigt
WPP hat das Training humanoider Roboter durch den Einsatz von G4-VMs von Google Cloud und NVIDIA Isaac Sim deutlich optimiert und die Zyklen des bestärkenden Lernens von 24 Stunden auf weniger als eine Stunde reduziert. Durch das Meistern komplexer menschlicher Bewegungen wie Tanzen in der Simulation schließen sie die Lücke zwischen Simulation und Realität, um präzisere und natürlichere Roboterbewegungen für die Film- und Marketingbranche zu ermöglichen.
WPP-Training für humanoide Roboter
Weiter eintauchen
KI macht Sportfans zu Trikotdesignern
PUMA hat sich für eine integrierte KI-Infrastruktur (AI Hypercomputer) von Google Cloud entschieden. So kann das Unternehmen Gemini für Nutzerprompts und Dynamic Workload Scheduler für die dynamische Skalierung von Inferenz auf GPUs nutzen, was Kosten und Generierungszeit erheblich reduziert.
Puma AI Kit Designer
3:20
Weiter eintauchen
Frontline-Beschäftigte in Fabriken ohne Programmierkenntnisse beim Erstellen eigener KI-Lösungen unterstützen
Toyota hat sich für Google Cloud entschieden, weil die Skalierungsleistung der Google Kubernetes Engine einzigartig ist – in den Tests des Unternehmens war sie viermal schneller als die der Konkurrenz. Das war die entscheidende Geschwindigkeit und Reaktionsfähigkeit, die erforderlich war, um KI für die Mitarbeiter in der Produktion zu demokratisieren.
Toyota-Werk
Weiter eintauchen
Ein leistungsstarkes, zweisprachiges Foundation Model entwickeln, um komplexe Geschäftsprobleme zu lösen
Die Lösung beschleunigte die KI-Entwicklung, steigerte die Leistung um das 1,3‑Fache und ermöglichte eine sichere, unternehmensweite Zusammenarbeit zwischen Mensch und KI in allen Tochtergesellschaften von LG.
Zusammenarbeit mit LG bei KI-Modellen
2:46
Weiter eintauchen
Major League Baseball bietet Teams und Fans mit Agents auf AI Hypercomputer schnellere Dienste
Major League Baseball hat mit AI Hypercomputer KI-Agents entwickelt und so die Entwicklungszeit von Monaten auf Wochen und die Incident Response von Stunden auf Sekunden verkürzt.
MLB-Stadion
3:19
Weiter eintauchen

Informationen zum AI Hypercomputer

KI-Einstieg – noch heute beginnen

Wenden Sie sich an eine unserer Fachkräfte für Infrastruktur, um Ideen zu sammeln, Ihr nächstes Projekt zu besprechen oder eine Demo anzusehen.

Google Cloud