AI Hypercomputer

Addestra, eroga e gestisci le tue applicazioni di AI sull'infrastruttura nativa dell'agente che alimenta Google.

AI Hypercomputer

Addestra, eroga e gestisci le tue applicazioni di AI sull'infrastruttura nativa dell'agente che alimenta Google.

Che cos'è AI Hypercomputer?

Un'architettura che combina hardware appositamente progettato, software open source e consumo flessibile. Ogni componente è integrato con cura per funzionare bene insieme, migliorando le prestazioni, i costi e la produttività degli sviluppatori.

Scopri gli ultimi annunci (aprile 2026): Il futuro dell'infrastruttura di Google AI: scalabilità per l'era agentica 

Diagramma dell'architettura di AI Hypercomputer

Addestramento più smart e veloce

Crea modelli in settimane, non in mesi. Utilizza lo stack di addestramento di Google per accelerare lo sviluppo e i test senza sacrificare le prestazioni.

Sviluppa LLM più velocemente del 36% e ottieni fino al 97% di produttività (Goodput) da ogni acceleratore utilizzando TPU 8t insieme a software progettato in collaborazione con Google DeepMind e integrato con framework open source, da Pathways a Pallas (addestramento) e da Ray a Agent Sandbox (ottimizzazione). Sappiamo anche che non esiste una soluzione valida per tutti, quindi collaboriamo a stretto contatto con NVIDIA per fornire le GPU più recenti. Google Cloud sarà tra i primi a fornire istanze basate sulla NVIDIA Vera Rubin NVL72 di nuova generazione quando sarà disponibile entro la fine dell'anno. 

Utilizza Gemini Enterprise Agent Platform con BigQuery per addestrare i modelli sui dati proprietari 16 volte più velocemente combinando il tuo patrimonio di dati, lo sviluppo ML e gli acceleratori in un unico luogo. Entrambi sono basati su AI Hypercomputer, sia che tu utilizzi VM G4 o TPU Ironwood

Esegui simulazioni basate su GPU su MuJoCo-Warp di DeepMind, fino a 100 volte più velocemente rispetto a MuJoCo standard. Quindi simula casi limite impossibili, rischiosi o costosi utilizzando i media sintetici di Veo, Genie e Nano Banana oppure importa petabyte di dati di sensori reali in BigQuery. Scopri di più sulla creazione di agenti fisici su Google Cloud qui.

Inferenza efficiente e reattiva

Ottieni profili di modello convalidati, oltre a software Google e open completamente integrati per aumentare la reattività delle applicazioni con meno complessità e sprechi.

Utilizza tecnologie di inferenza integrate per fornire servizi utili e reattivi ai clienti. Riduci il time-to-first-token del 71% con GKE Inference Gateway, distribuisci fino a 120.000 token al secondo utilizzando llm-d per la distribuzione disaggregata e carica i modelli 5 volte più velocemente utilizzando Anywhere Cache e TPU 8i per mantenere la memoria di lavoro esattamente dove serve.

Esegui il deployment di modelli ML classici più velocemente del 70% utilizzando uno degli oltre 200 modelli disponibili sulla piattaforma Gemini Enterprise Agent, utilizzando la TPU o la GPU che preferisci, incluse le VM A5X (NVIDIA Vera Rubin) e TPU 8i quando saranno disponibili nel corso dell'anno.

Servi in modo sicuro sciami di agenti in GKE Agent Sandbox, eseguendo il provisioning fino a 300 sandbox al secondo e mettendo in pausa e riprendendo istantaneamente secondo necessità, in modo da non pagare mai per gli agenti inattivi.

Stack di inferenza

Operazioni flessibili, aperte e affidabili

Utilizza qualsiasi framework o acceleratore in ambienti ibridi e multi-cloud con manutenzione e gestione automatizzate dei cluster adatte alla scala exa.

operations

TorchTPU elimina la curva di apprendimento delle TPU per gli sviluppatori fornendo supporto PyTorch nativo, in modo che tu possa utilizzare l'acceleratore migliore disponibile senza dover riscrivere il codice in modo complesso.

Basato su Kubernetes open source, GKE offre portabilità multicloud con scalabilità aziendale, supportando fino a 130.000 nodi e integrandosi in modo nativo con Agent Platform e Google Distributed Cloud per i deployment ibridi.

Ogni acceleratore su AI Hypercomputer è supportato dalle funzionalità di Cluster Director, tra cui un bill of health pre-deployment, dashboard di osservabilità a 360 gradi e controlli dello stato sempre attivi.

Collega i servizi tra cloud senza connessioni lente utilizzando Cross-Cloud Network, un backbone di rete di cui si fida oltre il 65% delle aziende Fortune 100 che sposta oltre 27 exabyte di dati al mese.

I nostri modelli di consumo flessibili ti offrono diversi modi per pianificare e ridurre il costo degli acceleratori. Risparmia fino al 91% sui job batch o a tolleranza di errore con le VM spot, fino al 50% sui job con una data di inizio flessibile utilizzando Dynamic Workload Scheduler e fino al 50% di sconto quando ti registri per gli sconti per impegno di utilizzo.

Sistemi pronti per l'agente

Supera i limiti delle prestazioni e usa l'energia in modo responsabile mentre esegui la scalabilità sulla base dell'infrastruttura di cui si fidano Google e i laboratori di AI all'avanguardia

Google Cloud supporta 9 dei 10 migliori laboratori di AI e il 70% delle startup di AI finanziate. Con il deployment su AI Hypercomputer, utilizzi data center che hanno elaborato in modo affidabile oltre 100 miliardi di token per quasi 350 clienti solo nel dicembre 2025.

I data center di Google Cloud, incluso AI Hypercomputer, offrono un'efficienza energetica leader del settore, con una potenza di calcolo sei volte superiore per unità di elettricità rispetto a cinque anni fa. Ciò consente alla nostra TPU di ottava generazione di offrire un rapporto prezzo/prestazioni migliore dell'80% e un'efficienza energetica superiore del 20% rispetto alla generazione precedente.

Google si impegna a pagare il 100% dell'energia utilizzata dai nostri data center e tutti i nuovi costi infrastrutturali direttamente determinati dalla nostra crescita. Collabora con noi per garantire che, man mano che le tue ambizioni in materia di AI crescono, le famiglie e le aziende locali non debbano pagare il conto. Nei prossimi anni, finanzieremo nuove infrastrutture e fonti di energia per i nostri modelli e continueremo a investire in fonti di energia alternative come il nucleare avanzato, la geotermia e l'accumulo a lunga durata.

L'architettura Titanium con chip Titan personalizzati offre una radice di attendibilità hardware verificabile e sicurezza Zero Trust. Un'analisi indipendente di cloudvulndb.org mostra che i nostri sistemi presentano fino al 70% in meno di vulnerabilità critiche rispetto ad altri cloud leader.

Sistemi

Supportiamo i principali innovatori del mondo

WPP accelera di 10 volte l'addestramento dei robot umanoidi con le VM G4
WPP ha ottimizzato in modo significativo l'addestramento dei robot umanoidi sfruttando le VM G4 di Google Cloud e NVIDIA Isaac Sim, riducendo i cicli di apprendimento per rinforzo da 24 ore a meno di un'ora. Padroneggiando movimenti umani complessi come la danza in simulazione, stanno colmando il divario "sim-to-real" per consentire movimenti robotici più precisi e naturali per le industrie cinematografiche e di marketing.
Addestramento del robot umanoide WPP
Approfondisci
L'AI trasforma i tifosi in designer di kit sportivi
Puma ha stretto una partnership con Google Cloud per la sua infrastruttura di AI integrata (AI Hypercomputer), che le consente di utilizzare Gemini per i prompt degli utenti insieme a Dynamic Workload Scheduler per scalare dinamicamente l'inferenza sulle GPU, riducendo drasticamente i costi e i tempi di generazione.
Progettista di kit di AI di Puma
3:20
Approfondisci
Aiutare gli operai di fabbrica in prima linea senza competenze di programmazione a creare le proprie soluzioni di AI
Toyota ha scelto Google Cloud per le prestazioni di scalabilità uniche di Google Kubernetes Engine, quattro volte più veloci rispetto ai concorrenti nei test, che hanno fornito la velocità e la reattività fondamentali necessarie per democratizzare con successo l'AI per gli operai di prima linea.
Fabbrica Toyota
Approfondisci
Creazione di un foundation model bilingue potente per risolvere problemi aziendali complessi
La soluzione ha accelerato lo sviluppo dell'AI, aumentato le prestazioni di 1,3 volte e consentito una collaborazione sicura tra uomo e AI a livello aziendale tra le affiliate di LG.
Collaborazione con il modello di AI di LG
2:46
Approfondisci
La Major League Baseball offre servizi più velocemente a team e fan con agenti su AI Hypercomputer
La Major League Baseball ha utilizzato AI Hypercomputer per creare agenti di AI, riducendo lo sviluppo da mesi a settimane e la risposta agli incidenti da ore a secondi.
Stadio MLB
3:19
Approfondisci

Scopri di più su AI Hypercomputer

Inizia subito il tuo percorso verso l'AI

Contatta uno dei nostri esperti di infrastrutture per fare brainstorming, discutere del tuo prossimo progetto o vedere una demo.

Google Cloud