AI Hypercomputer

Entraînez, diffusez et exploitez vos applications d'IA sur l'infrastructure native des agents qui alimente Google.

AI Hypercomputer

Entraînez, diffusez et exploitez vos applications d'IA sur l'infrastructure native des agents qui alimente Google.

Qu'est-ce qu'AI Hypercomputer ?

Une architecture combinant du matériel sur mesure, des logiciels ouverts et une consommation flexible. Chaque composant est soigneusement intégré pour fonctionner en synergie, ce qui améliore vos performances, réduit vos coûts et augmente la productivité des développeurs.

Découvrez les dernières annonces (avril 2026) : L'avenir de l'infrastructure IA de Google : s'adapter à l'ère de l'agentivité

Schéma de l'architecture AI Hypercomputer

Entraînement plus rapide et plus intelligent

Créez des modèles en quelques semaines, et non en plusieurs mois. Utilisez la pile d'entraînement de Google pour accélérer le développement et les tests sans sacrifier les performances.

Développez des LLM 36 % plus rapidement et gagnez jusqu'à 97 % de productivité (débit utile) sur chaque accélérateur grâce aux TPU 8t, associés à des logiciels conçus en collaboration avec Google DeepMind et intégrés à des frameworks Open Source, de Pathways à Pallas (entraînement) et de Ray à Agent Sandbox (réglage).Nous savons également qu'il n'existe pas de solution unique. C'est pourquoi nous collaborons étroitement avec NVIDIA pour proposer les GPU les plus récents. Google Cloud fera partie des premiers à proposer des instances basées sur la nouvelle génération NVIDIA Vera Rubin NVL72 lorsqu'elle sera disponible dans le courant de l'année.

Utilisez Gemini Enterprise Agent Platform avec BigQuery pour entraîner des modèles sur des données propriétaires 16 fois plus vite en combinant votre parc de données, le développement de ML et les accélérateurs en un seul et même endroit. Les deux sont optimisés par AI Hypercomputer, que vous utilisiez des VM G4 ou des TPU Ironwood

Exécutez des simulations basées sur des GPU sur MuJoCo-Warp de DeepMind, jusqu'à 100 fois plus rapidement qu'avec MuJoCo standard. Ensuite, simulez des cas particuliers impossibles, risqués ou coûteux à l'aide de supports synthétiques provenant de Veo, Genie et Nano Banana, ou ingérez des pétaoctets de données de capteurs réelles dans BigQuery. Pour en savoir plus sur la création d'agents physiques sur Google Cloud, cliquez ici.

Inférence réactive et efficace

Obtenez des profils de modèles validés, ainsi que des logiciels Google et ouverts entièrement intégrés pour améliorer la réactivité des applications avec moins de complexité et de gaspillage.

Utilisez des technologies d'inférence intégrées pour fournir aux clients des services utiles et réactifs. Réduisez le délai d'émission du premier jeton de 71 % avec GKE Inference Gateway, traitez jusqu'à 120 000 jetons par seconde avec llm-d pour la diffusion désagrégée et chargez les modèles cinq fois plus rapidement avec Anywhere Cache et TPU 8i pour que votre mémoire de travail soit exactement là où elle est nécessaire.

Déployez des modèles de ML classiques 70 % plus rapidement en utilisant l'un des modèles parmi plus de 200 disponibles sur Gemini Enterprise Agent Platform, en choisissant un TPU ou un GPU, y compris les VM A5X (NVIDIA Vera Rubin) et les TPU 8i lorsqu'ils seront disponibles plus tard cette année.

Exécutez des essaims d'agents de manière sécurisée dans GKE Agent Sandbox, en provisionnant jusqu'à 300 environnements en bac à sable par seconde, tout en les mettant en pause et en les réactivant selon vos besoins. Vous ne payez donc jamais pour des agents inactifs.

Pile d'inférence

Opérations flexibles, ouvertes et fiables

Utilisez n'importe quel framework ou accélérateur dans des environnements hybrides et multicloud avec une maintenance et une gestion automatisées des clusters adaptées à l'exascale.

operations

TorchTPU supprime la courbe d'apprentissage des TPU pour les développeurs en fournissant une prise en charge native de PyTorch. Vous pouvez ainsi utiliser l'accélérateur le plus adapté sans avoir à réécrire du code complexe.

Basé sur Kubernetes Open Source, GKE vous offre une portabilité multicloud à l'échelle de l'entreprise, avec la prise en charge de 130 000 nœuds au maximum et une intégration native à Agent Platform et Google Distributed Cloud pour les déploiements hybrides.

Chaque accélérateur d'AI Hypercomputer est compatible avec les capacités de Cluster Director, y compris un bilan de santé avant déploiement, des tableaux de bord d'observabilité à 360 degrés et des vérifications de l'état toujours activées.

Connectez des services entre différents clouds sans latence grâce à Cross-Cloud Network, une infrastructure réseau de confiance utilisée par plus de 65 % des entreprises figurant dans la liste du Fortune 100 et qui traite plus de 27 exaoctets de données par mois.

Nos modèles de consommation flexibles vous offrent plusieurs façons de planifier des accélérateurs et de réduire leur coût. Économisez jusqu'à 91 % sur les jobs par lot ou tolérants aux pannes avec les VM Spot, jusqu'à 50 % sur les jobs avec une date de début flexible grâce au programmeur de charge de travail dynamique, et jusqu'à 50 % en vous inscrivant aux remises sur engagement d'utilisation.

Systèmes prêts pour les agents

Repousser les limites des performances et utiliser l'énergie de manière responsable à mesure que vous évoluez sur l'infrastructure de base à laquelle font confiance Google et les laboratoires d'IA de pointe

Google Cloud collabore avec 9 des 10 principaux laboratoires d'IA et 70 % des start-up d'IA financées. En déployant vos solutions sur AI Hypercomputer, vous utilisez des centres de données qui ont traité de manière fiable plus de 100 milliards de jetons pour près de 350 clients rien qu'en décembre 2025.

Les centres de données de Google Cloud, y compris AI Hypercomputer, offrent une efficacité énergétique de pointe, avec une puissance de calcul six fois supérieure par unité d'électricité par rapport à il y a cinq ans. Notre TPU de 8e génération offre ainsi un rapport prix/performances 80 % supérieur et une efficacité énergétique 20 % supérieure à ceux de la génération précédente.

Google s'engage à payer 100 % de l'électricité consommée par ses centres de données et tous les coûts liés aux nouvelles infrastructures directement générés par sa croissance. Collaborez avec nous pour que les foyers et les entreprises locales ne fassent pas les frais de vos ambitions en matière d'IA. Au cours des prochaines années, nous allons financer de nouvelles sources d'énergie et infrastructures pour alimenter nos modèles, et continuer à investir dans des sources d'énergie alternatives comme le nucléaire avancé, la géothermie et le stockage longue durée.

L'architecture Titanium et ses puces Titan personnalisées offrent une racine de confiance matérielle vérifiable et une sécurité zéro confiance. Une analyse indépendante de cloudvulndb.org montre que nos systèmes présentent jusqu'à 70 % de failles critiques en moins que les autres principaux clouds.

Systèmes

Au service des plus grands innovateurs du monde

WPP accélère l'entraînement de robots humanoïdes par un facteur de 10 avec les VM G4
WPP a considérablement optimisé l'entraînement des robots humanoïdes en exploitant les VM G4 de Google Cloud et NVIDIA Isaac Sim, réduisant ainsi les cycles d'apprentissage par renforcement de 24 heures à moins d'une heure. En maîtrisant des mouvements humains complexes comme la danse dans une simulation, ils comblent le fossé entre le monde virtuel et le monde réel pour permettre des mouvements robotiques plus précis et naturels dans les secteurs du cinéma et du marketing.
Entraînement des robots humanoïdes WPP
Approfondir
L'IA permet aux fans de sport de créer des maillots
La marque Puma s'est associée à Google Cloud pour son infrastructure d'IA intégrée (AI Hypercomputer), ce qui lui a permis d'utiliser Gemini pour les requêtes des utilisateurs, ainsi que le programmeur de charge de travail dynamique pour mettre à l'échelle l'inférence sur les GPU de manière dynamique, réduisant ainsi considérablement les coûts et le temps de génération.
Concepteur de kits IA de Puma
3:20
Approfondir
Aider les ouvriers en première ligne sans expertise en codage à créer leurs propres solutions d'IA
Toyota a choisi Google Cloud pour les performances de scaling uniques de Google Kubernetes Engine, quatre fois plus rapides que celles de ses concurrents lors des tests. Cette rapidité et cette réactivité étaient essentielles pour démocratiser l'IA auprès des ouvriers de première ligne.
Usine Toyota
Approfondir
Créer un modèle de fondation bilingue puissant pour résoudre des problèmes métier complexes
Sa solution a accéléré le développement de l'IA, multiplié les performances de 1,3 et permis une collaboration sécurisée entre l'humain et l'IA à l'échelle de l'entreprise dans toutes les filiales de LG.
Collaboration avec le modèle d'IA de LG
2:46
Approfondir
La Major League Baseball sert les équipes et les fans plus rapidement grâce à des agents sur AI Hypercomputer
La Major League Baseball a utilisé AI Hypercomputer pour créer des agents IA, réduisant ainsi le temps de développement de plusieurs mois à quelques semaines et le temps de réponse aux incidents de plusieurs heures à quelques secondes.
Stade de la MLB
3:19
Approfondir

En savoir plus sur AI Hypercomputer

Lancez-vous dans l'IA dès aujourd'hui

Contactez l'un de nos experts en infrastructure pour échanger des idées, discuter de votre prochain projet ou demander une démonstration.

Google Cloud