Panoramica

Hardware ottimizzato per le prestazioni

La nostra infrastruttura ottimizzata per le prestazioni, che include Google Cloud TPU, GPU Google Cloud, Google Cloud Storage e la rete Jupiter sottostante fornisce in modo coerente tempi di addestramento più rapidi per modelli all'avanguardia su larga scala, grazie alle caratteristiche di scalabilità potente dell'architettura che portano al miglior rapporto prezzo/prestazioni per la pubblicazione di modelli di grandi dimensioni.

Apri software

La nostra architettura è ottimizzata per supportare gli strumenti e le librerie più comuni, come Tensorflow, Pytorch e JAX. Inoltre, consente ai clienti di sfruttare tecnologie come le configurazioni Cloud TPU Multislice e Multihost e i servizi gestiti come Google Kubernetes Engine. Ciò consente ai clienti di fornire un deployment pronto all'uso per carichi di lavoro comuni come il framework NVIDIA NeMO orchestrato da SLURM.

Consumo flessibile

I nostri modelli di consumo flessibili consentono ai clienti di scegliere costi fissi con sconti per impegno di utilizzo o modelli on demand dinamici per soddisfare le loro esigenze aziendali.Dynamic Workload Scheduler aiuta i clienti a ottenere la capacità di cui hanno bisogno senza esagerare con l'allocazione, in modo che paghino solo per quello di cui hanno bisogno. Inoltre, gli strumenti di ottimizzazione dei costi di Google Cloud aiutano ad automatizzare l'utilizzo delle risorse per ridurre le attività manuali per i tecnici.

Come funziona

Google è un'azienda leader nel campo dell'intelligenza artificiale grazie all'invenzione di tecnologie come TensorFlow. Sapevi che puoi sfruttare la tecnologia di Google per i tuoi progetti? Scopri la storia dell'innovazione di Google nell'infrastruttura AI e come puoi sfruttarla per i tuoi carichi di lavoro.

Diagramma dell'architettura AI Hypercomputer di Google Cloud accanto alla foto della product manager Chelsie di Google Cloud

Utilizzi comuni

Esegui addestramento sull'IA su larga scala

Addestramento su IA potente, scalabile ed efficiente

L'architettura AI Hypercomputer offre la possibilità di utilizzare l'infrastruttura di base più adatto a soddisfare le tue esigenze di addestramento.

Come definire un'infrastruttura di archiviazione per i carichi di lavoro di AI
Tre grafici che descrivono i fattori di crescita dell'AI

Addestramento su IA potente, scalabile ed efficiente

L'architettura AI Hypercomputer offre la possibilità di utilizzare l'infrastruttura di base più adatto a soddisfare le tue esigenze di addestramento.

Come definire un'infrastruttura di archiviazione per i carichi di lavoro di AI
Tre grafici che descrivono i fattori di crescita dell'AI

Addestramento su IA potente, scalabile ed efficiente

Misura l'efficacia del tuo addestramento su larga scala nella modalità di Google con ML Productivity Goodput.

Introduzione a ML Productivity Goodput: una metrica per misurare l'efficienza del sistema di AI
Velocità di addestramento TPUv4(bf16) contro TPUv5(int8)

Character AI sfrutta Google Cloud per fare lo scale up

"Abbiamo bisogno delle GPU per generare risposte ai messaggi degli utenti. Inoltre, man mano che aumentano gli utenti sulla nostra piattaforma, abbiamo bisogno di più GPU per gestirli. Quindi, su Google Cloud possiamo sperimentare per trovare la piattaforma giusta per un particolare carico di lavoro. È fantastico avere la flessibilità necessaria per scegliere le soluzioni più redditizie." Myle Ott, Ingegnere fondatore, Character.AI

Guarda ora

Pubblica applicazioni basate sull'IA

Sfrutta framework aperti per offrire esperienze basate sull'IA

Google Cloud si impegna a garantire che i framework aperti funzionino correttamente all'interno dell'architettura AI Hypercomputer.

RAG in produzione più velocemente con Ray, LangChain e HuggingFace
Architettura RAG di alto livello

Sfrutta framework aperti per offrire esperienze basate sull'IA

Google Cloud si impegna a garantire che i framework aperti funzionino correttamente all'interno dell'architettura AI Hypercomputer.

RAG in produzione più velocemente con Ray, LangChain e HuggingFace
Architettura RAG di alto livello

Sfrutta framework aperti per offrire esperienze basate sull'IA

L'ecosistema software aperto di Google Cloud ti consente di creare applicazioni con gli strumenti e i framework con cui ti trovi meglio, sfruttando al contempo i vantaggi in termini di rapporto prezzo/prestazioni dell'architettura degli AI Hypercomputer.

Strumenti e framework IA di Google Cloud

Priceline: aiutare i viaggiatori a organizzare esperienze uniche

"Lavorare con Google Cloud per incorporare l'AI generativa ci consente di creare un Concierge di viaggio su misura all'interno del nostro chatbot. Vogliamo che i nostri clienti vadano oltre la pianificazione di un viaggio aiutandoli a rendere unica la loro esperienza di viaggio." Martin Brodbeck, CTO, Priceline

Scopri di più
Logo Priceline

Gestisci i modelli in modo economico su larga scala

Massimizzare il rapporto prezzo/prestazioni per gestire l'IA su larga scala

Google Cloud offre prezzi/prestazioni leader di settore per la gestione di modelli di AI con l'opzione dell'acceleratore per soddisfare le esigenze di qualsiasi carico di lavoro.

Latenza di inferenza ridotta al minimo con bilanciamento del carico personalizzato basato sull'AI
Bilanciamento del carico basato sul diagramma dell'architettura di profondità della coda

Massimizzare il rapporto prezzo/prestazioni per gestire l'IA su larga scala

Google Cloud offre prezzi/prestazioni leader di settore per la gestione di modelli di AI con l'opzione dell'acceleratore per soddisfare le esigenze di qualsiasi carico di lavoro.

Latenza di inferenza ridotta al minimo con bilanciamento del carico personalizzato basato sull'AI
Bilanciamento del carico basato sul diagramma dell'architettura di profondità della coda

Massimizzare il rapporto prezzo/prestazioni per gestire l'IA su larga scala

Le istanze VM di Cloud TPU v5e e G2 che forniscono GPU NVIDIA L4 consentono un'inferenza economica ad alte prestazioni e a costi contenuti per un'ampia gamma di carichi di lavoro AI, tra cui i più recenti LLM e modelli di AI generativa. Entrambi offrono significativi miglioramenti per quanto riguarda il rapporto prezzo/prestazioni rispetto ai modelli precedenti e l'architettura degli ipercomputer IA di Google Cloud consente ai clienti di scalare i propri deployment a livelli leader del settore.

Prestazioni relative per dollaro: Cloud TPU v4 e v5e

Assembly AI sfrutta Google Cloud per l'efficienza dei costi

"I nostri risultati sperimentali dimostrano che Cloud TPU v5e è l'acceleratore più conveniente su cui eseguire l'inferenza su larga scala per il nostro modello. Offre prestazioni per dollaro 2,7 volte superiori rispetto a quelle di G2 e prestazioni per dollaro 4,2 volte superiori rispetto alle istanze A2." Domenic Donato,

VP di tecnologia, AssemblyAI


Scopri di più
Logo AssemblyAI

Modelli open source su Google Cloud

Gestisci un modello con GKE su una singola GPU

Addestra modelli comuni con GPU

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud