Google Cloud presenta il più grande hub di machine learning disponibile pubblicamente con Cloud TPU v4, che utilizza il 90% di energia a zero emissioni di CO2. Scopri di più.

Descrizione del contenuto del video.

Aziende più produttive con le soluzioni AI di Google Cloud

Il machine learning ha introdotto innovazioni sia nel settore aziendale sia nel campo della ricerca, dalla sicurezza delle reti alle diagnosi mediche. Abbiamo realizzato Tensor Processing Unit (TPU) per consentire a tutti di ottenere risultati simili. Cloud TPU è l'ASIC di machine learning personalizzato alla base di prodotti Google come Traduttore, Foto, Ricerca, Assistente Google e Gmail. Scopri come utilizzare TPU e machine learning a tuo vantaggio, accelerando il successo della tua azienda soprattutto su vasta scala.
Immagine dell'infrastruttura Cloud AI TPU.

Creata per l'IA su Google Cloud

Cloud TPU è progettata per eseguire modelli di machine learning all'avanguardia con servizi AI su Google Cloud. Inoltre, la sua rete personalizzata ad alta velocità offre più di 100 petaFLOPS di prestazioni in un singolo pod: una potenza di calcolo sufficiente per trasformare la tua attività o segnare la prossima svolta rivoluzionaria nell'ambito della ricerca.

Immagine di un'iterazione rapida

Esegui più velocemente l'iterazione delle soluzioni ML

Addestrare i modelli di machine learning è come compilare codice: devi aggiornarli di frequente e nel modo più efficiente possibile. I modelli ML devono essere addestrati di continuo, man mano che le app vengono create, distribuite e perfezionate. Per le sue prestazioni elevate e i suoi costi contenuti, Cloud TPU è perfetta per i team di machine learning che desiderano eseguire iterazioni rapide e frequenti delle proprie soluzioni.

Modelli all'avanguardia comprovati

Puoi realizzare soluzioni personalizzate basate sul machine learning per molti casi d'uso reali. Basta inserire i tuoi dati, scaricare un modello di riferimento ottimizzato da Google e iniziare l'addestramento.

Clienti e partner

"In Cohere, creiamo servizi di elaborazione del linguaggio naturale (NLP) all'avanguardia, comprese API per la generazione, la classificazione e la ricerca linguistica. Questi strumenti si basano su un insieme di modelli linguistici che Cohere addestra da zero sulle Cloud TPU utilizzando JAX. Quando siamo passati da pod Cloud TPU v3 a pod Cloud TPU v4, abbiamo visto un miglioramento del 70% nei tempi di addestramento del nostro modello più grande, consentendo iterazioni più veloci per i nostri ricercatori e risultati di qualità superiore per i nostri clienti. L'impatto ambientale eccezionalmente basso dei pod Cloud TPU v4 è stato un altro fattore chiave per noi."

Aidan Gomez, CEO e cofondatore

Logo LG AI Research

"In qualità di partner di ricerca strategica, LG AI Research ha partecipato ai test prima della commercializzazione della TPU v4, il più recente supercomputer di Google per il machine learning, per addestrare LG EXAONE, una super AI con 300 miliardi di parametri. Dotata di funzionalità multimodali, LG EXAONE è stata addestrata con TPU v4 e una quantità enorme di dati, oltre 600 miliardi di corpus di testo e 250 milioni di immagini, con l'obiettivo di superare gli esperti umani in termini di comunicazione, produttività, creatività e molti altri aspetti. Non sono state solo le prestazioni di TPU v4 ad aver avuto un rendimento migliore di altre architetture di calcolo leader del settore: anche l'assistenza orientata al cliente ha superato le nostre aspettative. Siamo entusiasti di collaborare con Google e ci aspettiamo di consolidare la nostra partnership strategica per realizzare la nostra vision di far progredire l'AI per una vita migliore."

 Kyunghoon Bae, PhD, Chief of LG AI research

Logo Salesforce

"L'accesso in anteprima a TPU v4 ci ha permesso di fare progressi nella programmazione dell'AI conversazionale con il nostro progetto CodeGen, un modello di linguaggio autoregressivo con 16 miliardi di parametri che trasforma i semplici prompt in inglese in codice eseguibile. Le grandi dimensioni del modello sono motivate dall'osservazione empirica secondo cui le prestazioni del modello sembrano migliorare rigorosamente scalando il numero di parametri del modello proporzionalmente al numero di campioni di addestramento. Il fenomeno è noto come "legge della scalabilità". TPU v4 è una piattaforma eccezionale per questo tipo di addestramento ML con scale out, che offre vantaggi significativi in termini di prestazioni rispetto ad altre alternative hardware AI paragonabili."

Erik Nijkamp, Research scientist, Salesforce

Logo IDC

"Grazie al nostro recente sondaggio condotto su 2000 responsabili delle decisioni in campo IT, abbiamo rilevato che le capacità infrastrutturali inadeguate sono spesso la causa alla base della mancata riuscita dei progetti di AI. Per rispondere alla crescente importanza dell'infrastruttura AI creata appositamente per le aziende, Google ha lanciato il suo nuovo cluster di machine learning in Oklahoma, con nove exaFLOPS di computing aggregato. Riteniamo che questo sia il più grande hub ML disponibile pubblicamente, il cui 90% delle operazioni è alimentato da energia a zero emissioni di CO2. Ciò dimostra l'impegno continuo di Google verso l'innovazione dell'infrastruttura AI tenendo conto della sostenibilità."

Matt Eastwood, IDC Senior Vice President, Enterprise Infrastructure, Cloud, Telecom, Security, Developers, Channels and Enabling Technology 

Funzionalità

Libreria di modelli

Inizia subito, sfruttando la nostra sempre più ampia libreria di modelli ottimizzati per Cloud TPU. Garantiscono prestazioni ottimizzate, accuratezza e qualità per classificazione delle immagini, rilevamento di oggetti, modellazione del linguaggio, riconoscimento vocale e altro ancora.

Collegamento delle Cloud TPU a tipi di macchine personalizzate

Puoi collegarti alle Cloud TPU da tipi Deep Learning VM Image personalizzati, che contribuiscono a bilanciare in modo ottimale la velocità del processore, la memoria e le risorse di archiviazione ad alte prestazioni per i tuoi carichi di lavoro.

Integrazione completa con Google Cloud

Le Cloud TPU e i servizi di dati e analisi di Google Cloud sono completamente integrati con altre offerte Google Cloud, come Google Kubernetes Engine (GKE). Perciò, quando esegui carichi di lavoro di machine learning sulle Cloud TPU, puoi sfruttare i vantaggi offerti dalle tecnologie di archiviazione, networking e analisi dei dati leader di settore di Google Cloud.

Cloud TPU prerilasciabile

Risparmia denaro utilizzando Cloud TPU prerilasciabili per i carichi di lavoro di machine learning a tolleranza di errore, ad esempio lunghi addestramenti eseguiti con previsione batch o checkpoint su set di dati di grandi dimensioni. Le Cloud TPU prerilasciabili costano il 70% in meno rispetto alle istanze on demand, rendendo ogni operazione, dal primo esperimento alle ricerche di iperparametri su larga scala, più conveniente che mai.

Fai un passo avanti

Inizia a creare su Google Cloud con 300 $ di crediti gratuiti e oltre 20 prodotti Always Free.

Hai bisogno di aiuto per iniziare?
Collabora con un partner di fiducia
Continua la navigazione

Fai un passo avanti

Inizia il tuo prossimo progetto, esplora tutorial interattivi e gestisci il tuo account.

Hai bisogno di aiuto per iniziare?
Collabora con un partner di fiducia
Scopri suggerimenti e best practice

I prodotti AI di Cloud sono conformi alle norme relative allo SLA di Google Cloud. Possono offrire garanzie di latenza o disponibilità diverse rispetto ad altri servizi Google Cloud.