Infrastruttura scalabile, ad alte prestazioni e conveniente per ogni carico di lavoro di IA.
Acceleratori IA per ogni caso d'uso, dall'addestramento ad alte prestazioni all'inferenza a basso costo
Scala più velocemente con GPU e TPU su Google Kubernetes Engine o Google Compute Engine
Soluzioni di cui è possibile eseguire il deployment per Vertex AI, Google Kubernetes Engine e Cloud HPC Toolkit
Sfrutta al meglio la nostra AI Infrastructure eseguendo il deployment dell'architettura AI Hypercomputer
Vantaggi
Con Google Cloud, puoi scegliere tra GPU, TPU o CPU per supportare una varietà di casi d'uso, tra cui addestramento ad alte prestazioni, inferenza a basso costo ed elaborazione di dati su larga scala.
Scala in modo più rapido ed efficiente con l'infrastruttura gestita fornita da Vertex AI. Configura rapidamente gli ambienti ML, automatizza l'orchestrazione, gestisci cluster di grandi dimensioni e configura applicazioni a bassa latenza.
Migliora la produttività dello sviluppo IA sfruttando GKE per gestire carichi di lavoro su larga scala. Addestra e gestisci i modelli di base con il supporto per la scalabilità automatica, l'orchestrazione dei carichi di lavoro e gli upgrade automatici.
Funzionalità principali
Non esiste una soluzione universale per tutti i carichi di lavoro IA: ecco perché, insieme ai nostri partner hardware di settore, come NVIDIA, Intel, AMD, Arm e altri, offriamo ai clienti la più ampia gamma di opzioni di calcolo ottimizzate per l'IA tra TPU,GPU e CPU per l'addestramento e la gestione dei modelli con l'utilizzo più elevato di dati.
L'orchestrazione di carichi di lavoro IA su larga scala con Cloud TPU e GPU Cloud ha sempre richiesto sforzi manuali per gestire errori, logging, monitoraggio e altre operazioni di base. Google Kubernetes Engine (GKE), il servizio Kubernetes più scalabile e completamente gestito, semplifica notevolmente il lavoro necessario per il funzionamento di TPU e GPU. Sfruttare GKE per gestire l'orchestrazione di carichi di lavoro IA su larga scala su Cloud TPU e GPU Cloud migliora la produttività dello sviluppo dell'IA.
E per le organizzazioni che preferiscono la semplicità di astrattare l'infrastruttura tramite i servizi gestiti, Vertex AI ora supporta l'addestramento con vari framework e librerie che utilizzano Cloud TPU e Cloud GPU.
La nostra infrastruttura ottimizzata per l'IA è progettata per offrire la scalabilità e le prestazioni globali richieste da prodotti Google come YouTube, Gmail, Google Maps, Google Play e Android che servono miliardi di utenti. Le nostre soluzioni di infrastruttura IA sono supportate dalla rete di data center Jupiter di Google Cloud, che supporta le migliori funzionalità di scale out del settore per servizi di base, fino a carichi di lavoro IA ad alta intensità.
Per decenni, abbiamo contribuito a progetti di IA critici come TensorFlow e JAX. Abbiamo co-fondato la PyTorch Foundation e recentemente abbiamo annunciato un nuovo consorzio di settore: il progetto OpenXLA. Inoltre, Google è il principale collaboratore open source CNCF e vanta oltre 20 anni di esperienza con contributi a OSS come TFX, MLIR, OpenXLA, KubeFlow e Kubernetes, oltre a sponsorizzare progetti OSS fondamentali per la comunità di data science, come Project Jupyter e NumFOCverteUS.
Inoltre, i nostri servizi di infrastruttura di IA sono integrati con i framework IA più noti come TensorFlow, PyTorch e MXNet, consentendo ai clienti di continuare a utilizzare il framework che preferiscono senza essere vincolati a un framework/un'architettura hardware specifici.
Clienti
Mentre l'IA apre le porte all'innovazione in tutti i settori, le aziende scelgono Google Cloud per sfruttare la nostra infrastruttura aperta, flessibile e ad alte prestazioni.
Novità
Documentazione
Casi d'uso
L'addestramento multislice di Cloud TPU è una tecnologia full stack che consente l'addestramento rapido, semplice e affidabile di modelli di IA su larga scala su decine di migliaia di chip TPU.
L'ecosistema software aperto di Google Cloud ti consente di creare applicazioni con gli strumenti e i framework con cui ti trovi meglio, sfruttando al contempo i vantaggi in termini di rapporto prezzo/prestazioni dell'architettura degli AI Hypercomputer.
Le GPU Cloud TPU v5e e NVIDIA L4 consentono un'inferenza ad alte prestazioni e a costi contenuti per un'ampia gamma di carichi di lavoro IA, inclusi i più recenti modelli LLM e di IA generativa. Entrambi offrono significativi miglioramenti per quanto riguarda il rapporto prezzo/prestazioni rispetto ai modelli precedenti e l'architettura degli ipercomputer IA di Google Cloud consente ai clienti di scalare i propri deployment a livelli leader del settore.
Prezzi
I prezzi di AI Infrastructure si basano sul prodotto selezionato. Puoi iniziare a utilizzare AI Infrastructure di Google gratuitamente con Colab o il livello gratuito di Google Cloud.
Cloud TPU | GPU Cloud |
---|---|
Per informazioni sui prezzi delle TPU per i tipi con configurazione a singola TPU e per i tipi con pod di TPU, consulta Prezzi per Cloud TPU. | Per informazioni sui prezzi dei diversi tipi di GPU e sulle regioni disponibili, fai riferimento ai prezzi delle GPU. |
I prodotti di AI Cloud sono conformi alle nostre norme relative allo SLA. Possono offrire garanzie di latenza o disponibilità diverse rispetto ad altri servizi Google Cloud.
Inizia a creare su Google Cloud con 300 $ di crediti gratuiti e oltre 20 prodotti Always Free.