Was ist AI Hypercomputer?
Eine Architektur, die speziell entwickelte Hardware, offene Software und flexible Nutzung kombiniert. Jede Komponente ist sorgfältig integriert, um gut mit den anderen zusammenzuarbeiten und so Leistung, Kosten und Entwicklerproduktivität zu verbessern.
Aktuelle Ankündigungen (April 2026): Die Zukunft der Google AI-Infrastruktur: Skalierung für das Zeitalter der KI-Agenten

Intelligenteres, schnelleres Training
Modelle in Wochen statt Monaten erstellen Mit dem Trainings-Stack von Google können Sie die Entwicklung und das Testen beschleunigen, ohne die Leistung zu beeinträchtigen.
LLMs schneller trainieren und abstimmen
Mit der TPU 8t und der von Google DeepMind mitentwickelten Software, die in Open-Source-Frameworks integriert ist – von Pathways bis Pallas (Training) und von Ray bis Agent Sandbox (Abstimmung) – können Sie LLMs 36 % schneller entwickeln und die Produktivität (Goodput) jedes Beschleunigers um bis zu 97 % steigern. Wir wissen auch, dass es keine Einheitslösung gibt. Deshalb arbeiten wir eng mit NVIDIA zusammen, um die neuesten GPUs anzubieten. Google Cloud wird zu den ersten Anbietern gehören, die Instanzen auf Basis der NVIDIA Vera Rubin NVL72 der nächsten Generation bereitstellen, sobald diese im Laufe dieses Jahres verfügbar sind.
Leistungsstarke Modelle mit proprietären Daten trainieren
Mit der Gemini Enterprise Agent Platform und BigQuery können Sie Modelle mit proprietären Daten 16-mal schneller trainieren, indem Sie Ihre Datenbestände, die ML-Entwicklung und Beschleuniger an einem Ort zusammenführen. Beide werden vom AI Hypercomputer unterstützt, unabhängig davon, ob Sie G4-VMs oder Ironwood-TPUs verwenden.
Adaptive physische Agenten mit MuJoCo-Warp erstellen
GPU-basierte Simulationen mit MuJoCo-Warp von DeepMind ausführen – bis zu 100-mal schneller als mit MuJoCo. Anschließend können Sie mit synthetischen Medien von Veo, Genie und Nano Banana unmögliche, riskante oder teure Grenzfälle simulieren oder Petabyte an realen Sensordaten in BigQuery aufnehmen. Hier erfahren Sie mehr über das Erstellen physischer Agents in Google Cloud.
Reaktionsschnelle, effiziente Inferenz
Sie erhalten validierte Modellprofile sowie vollständig integrierte Google- und Open-Source-Software, um die Reaktionsfähigkeit von Anwendungen zu verbessern und gleichzeitig Komplexität und Verschwendung zu reduzieren.
LLMs mit nahezu null Latenz bereitstellen
Mit integrierten Inferenztechnologien können Sie nützliche, reaktionsschnelle Dienste für Ihre Kunden bereitstellen. Mit GKE Inference Gateway lässt sich die Zeit bis zum ersten Token um 71 % verkürzen. Mit llm-d für die disaggregierte Bereitstellung können bis zu 120.000 Tokens pro Sekunde bereitgestellt werden. Und mit Anywhere Cache und TPU 8i lassen sich Modelle fünfmal schneller laden, sodass der Arbeitsspeicher genau dort zur Verfügung steht, wo er benötigt wird.
Vordefinierte Modelle für visuelle Daten, Wahrnehmung und Medien bereitstellen
Klassische ML-Modelle lassen sich 70 % schneller bereitstellen, wenn Sie eines der über 200 Modelle auf der Gemini Enterprise Agent Platform verwenden. Dabei können Sie zwischen TPU und GPU wählen, einschließlich A5X-VMs (NVIDIA Vera Rubin) und TPU 8i, sobald diese im Laufe des Jahres verfügbar sind.
Agenten sicher und kosteneffizient bedienen
Mit der GKE Agent Sandbox können Sie Agenten sicher bereitstellen und bis zu 300 Sandboxes pro Sekunde bereitstellen. Sie können sie bei Bedarf sofort pausieren und fortsetzen, sodass Sie nie für inaktive Agenten bezahlen.

Flexibler, offener und zuverlässiger Betrieb
Sie können jedes Framework oder jeden Accelerator in Hybrid- und Multi-Cloud-Umgebungen mit automatisierter Clusterwartung und ‑verwaltung für Exascale-Computing verwenden.

Zwischen TPUs und GPUs wechseln, ohne Code neu zu schreiben
TorchTPU bietet nativen PyTorch-Support, sodass Entwickler die TPU-Lernkurve überspringen und den besten verfügbaren Beschleuniger ohne komplexe Code-Neuschreibungen nutzen können.
KI in jeder Umgebung und in nahezu jeder Größenordnung bereitstellen
GKE basiert auf dem Open-Source-System Kubernetes und bietet Ihnen Multi-Cloud-Portabilität im Unternehmensmaßstab. Es unterstützt bis zu 130.000 Knoten und lässt sich nativ in die Agent Platform und Google Distributed Cloud für hybride Bereitstellungen einbinden.
Automatisieren Sie die Clusterwartung mit erweiterten Clusterdiagnose- und Beobachtbarkeitstools.
Jeder Beschleuniger auf AI Hypercomputer wird durch Cluster Director-Funktionen unterstützt, darunter ein Zustandsbericht vor der Bereitstellung, 360-Grad-Dashboards zur Beobachtbarkeit und fortlaufende Zustandsprüfungen.
Multicloud-Arbeitslasten in wenigen Minuten statt Wochen verbinden
Mit Cross-Cloud Network, einem Netzwerk-Backbone, dem über 65 % der Fortune-100-Unternehmen vertrauen und der monatlich über 27 Exabyte an Daten überträgt, können Sie Dienste in verschiedenen Clouds ohne Verzögerungen verbinden.
Beschleunigerkapazität nach Bedarf
Unsere flexiblen Verbrauchsmodelle bieten Ihnen mehrere Möglichkeiten, die Kosten für Beschleuniger zu planen und zu senken. Mit Spot-VMs können Sie bis zu 91 % bei Batch- oder fehlertoleranten Jobs sparen, mit dem Dynamic Workload Scheduler bis zu 50 % bei Jobs mit flexiblem Startdatum und mit Rabatten für zugesicherte Nutzung bis zu 50 %.
Für den Einsatz von KI-Agenten geeignete Systeme
Sie können die Leistungsgrenzen ausreizen und Energie verantwortungsbewusst nutzen, während Sie auf der Infrastruktur skalieren, auf die Google und führende KI-Labore vertrauen.
KI-Roadmap auf einer vertrauenswürdigen Grundlage umsetzen
Google Cloud unterstützt 9 von 10 der führenden KI-Labore und 70 % der geförderten KI-Start-ups. Wenn Sie AI Hypercomputer verwenden, nutzen Sie Rechenzentren, die allein im Dezember 2025 zuverlässig über 100 Milliarden Tokens für fast 350 Kunden verarbeitet haben.
Branchenführende Energieeffizienz
Die Rechenzentren von Google Cloud, einschließlich des AI Hypercomputers, bieten eine branchenführende Energieeffizienz mit sechsmal mehr Rechenleistung pro Stromeinheit als noch vor fünf Jahren. Dadurch bietet unsere TPU der 8. Generation ein 80 % besseres Preis-Leistungs-Verhältnis und ist 20 % energieeffizienter als die vorherige Generation.
Auswirkungen auf das Stromnetz und die Gemeinden reduzieren
Google verpflichtet sich, 100 % des Stroms, den unsere Rechenzentren verbrauchen, und alle neuen Infrastrukturkosten, die direkt durch unser Wachstum entstehen, zu bezahlen. Arbeiten Sie mit uns zusammen, damit die Kosten für Ihre KI-Ambitionen nicht auf die lokalen Haushalte und Unternehmen abgewälzt werden. In den kommenden Jahren werden wir neue Energiequellen und Infrastruktur für unsere Modelle finanzieren und weiterhin in alternative Energiequellen wie fortschrittliche Kernenergie, Geothermie und Langzeitspeicher investieren.
Ihr wertvollstes geistiges Eigentum von Siliziumchips bis zum Edge-Netzwerk schützen
Die maßgeschneiderten Titan-Chips unserer Titanium-Architektur bieten einen verifizierbaren Hardware-Root of Trust und Zero-Trust-Sicherheit. Eine unabhängige Analyse von cloudvulndb.org zeigt, dass unsere Systeme bis zu 70% weniger kritische Sicherheitslücken aufweisen als andere führende Cloud-Anbieter.

Unterstützt die weltweit führenden Innovatoren










Lesezeit: 5 Minuten
Lesezeit: 5 Minuten
Lesezeit: 5 Minuten
2-stündiger Kurs
15-minütige Anleitung
15-minütige Anleitung
15-minütige Anleitung
15-minütige Anleitung
Lesezeit: 15 Minuten
Lesezeit: 15 Minuten
Lesezeit: 5 Minuten
Lesezeit: 5 Minuten
Lesezeit: 5 Minuten
2-stündiger Kurs
15-minütige Anleitung
15-minütige Anleitung
15-minütige Anleitung
15-minütige Anleitung
Lesezeit: 15 Minuten
Lesezeit: 15 Minuten