AI Infrastructure
Infrastruttura scalabile, ad alte prestazioni e conveniente per ogni carico di lavoro di ML.
-
Acceleratori AI per ogni caso d'uso, dall'addestramento ad alte prestazioni all'inferenza a basso costo
-
Scala più rapidamente con l'infrastruttura completamente gestita di Vertex AI, progettata per i carichi di lavoro di AI
-
Algoritmi con un'infrastruttura ottimizzata, creata da Google Research e dai partner
Vantaggi
Ottimizza prestazioni e costi su larga scala
Con Google Cloud, puoi scegliere tra GPU, TPU o CPU per supportare una varietà di casi d'uso, tra cui addestramento ad alte prestazioni, inferenza a basso costo ed elaborazione di dati su larga scala.
Ottieni risultati più velocemente con l'infrastruttura gestita
Scala in modo più rapido ed efficiente con l'infrastruttura gestita fornita da Vertex AI. Configura rapidamente gli ambienti ML, automatizza l'orchestrazione, gestisci cluster di grandi dimensioni e configura applicazioni a bassa latenza.
Innova più rapidamente con l'AI all'avanguardia
Ottieni di più dal machine learning con accesso all'AI all'avanguardia di Google Research, DeepMind e dei partner.
Funzionalità principali
Funzionalità principali
Hardware flessibile e scalabile per qualsiasi caso d'uso
Con Google Cloud, puoi scegliere tra GPU, TPU o CPU per supportare una varietà di casi d'uso, tra cui addestramento ad alte prestazioni, inferenza a basso costo ed elaborazione di dati su larga scala. Muoviti più velocemente con le unità di elaborazione Tensor (TPU) per l'addestramento e l'esecuzione di reti neurali profonde su larga scala con costi e tempi di addestramento ottimizzati.
Puoi scegliere tra una gamma di GPU NVIDIA, per facilitare l'inferenza a basso costo o lo scale up o lo scale out. Non tutti i modelli di machine learning sono uguali e modelli diversi beneficiano di livelli diversi di accelerazione hardware. Infine, accedi alle piattaforme CPU quando avvii un'istanza VM su Compute Engine. Compute Engine offre una gamma di processori Intel e AMD per le tue VM.
Pubblicazione a bassa latenza
Vertex AI fornisce un'infrastruttura appositamente creata per gestire automaticamente i processi ML. Esegui il deployment su endpoint completamente gestiti con scalabilità automatica, endpoint privati e un'ampia selezione di CPU e GPU.
Il runtime di Tensorflow ottimizzato consente la precompilazione dei modelli in GPU e CPU, con una velocità effettiva fino a 8 volte superiore e una latenza 6 volte inferiore per i modelli tabulari.
Addestramento su larga scala
Vertex AI fornisce funzionalità di networking gestite per aiutare i clienti a scalare l'addestramento multinodo e a ridurre i tempi di addestramento.
Job di addestramento gestiti: invia e dimentica i job di addestramento con gestione della coda, GPU NVIDIA e TPU e ottimizzazione degli iperparametri integrata.
Server di riduzione: ottimizza l'addestramento delle GPU distribuite per algoritmi paralleli di dati sincroni con una riduzione fino al 30-40% in termini di tempi e costi di addestramento.
Cloud Storage FUSE e NFS: semplifica e accelera i tuoi job di addestramento ML con le opzioni integrate di archiviazione di file e oggetti all'interno di Vertex AI con supporto per Cloud Storage AutoClass.
Algoritmi di AI all'avanguardia
Accedi ad algoritmi di AI all'avanguardia sviluppati da Google Research per semplificare i casi d'uso complessi di AI con l'infrastruttura ottimizzata integrata. Riduci la complessità e accelera il time-to-value con algoritmi come NAS, TabNet, Alphahol e NVIDIA Merlin.
Piattaforma aperta e altamente flessibile
Ci impegniamo a offrire ai clienti la massima libertà di scegliere il framework ML o i servizi di infrastruttura più adatti alle loro esigenze.
Accedi e utilizza con facilità qualsiasi strumento, API o framework per i carichi di lavoro ML da un'unica piattaforma cloud AI e dati unificati, consentendo ai tuoi team di scegliere il framework giusto in base alle loro preferenze e al loro sviluppo.
Accedi a un ricco insieme di componenti di base, come le VM e i container di deep learning, e a un marketplace di offerte ISV selezionate per aiutarti a progettare il tuo stack software personalizzato su VM e/o Google Kubernetes Engine (GKE).
Novità
Novità
Documentazione
Documentazione
Utilizzo di GPU per l'addestramento di modelli nel cloud
Le GPU accelerano il processo di addestramento per i modelli di deep learning per attività come la classificazione delle immagini, l'analisi video e l'elaborazione del linguaggio naturale.
Utilizzo delle TPU per l'addestramento del tuo modello
Le TPU (Tensor Processing Unit) sono i circuiti integrati per applicazioni specifiche (ASIC) di Google sviluppati appositamente per accelerare i carichi di lavoro di machine learning. Puoi eseguire i tuoi job di addestramento su AI Platform Training utilizzando Cloud TPU.
Come ottimizzare le TPU per il deep learning
Scopri quali sono i requisiti di elaborazione del deep learning e in che modo CPU, GPU e TPU gestiscono i task.
Deep Learning VM
Le immagini di Deep Learning VM sono ottimizzate per le attività di data science e machine learning. Vengono fornite con framework ML e strumenti chiave preinstallati e funzionano con le GPU.
AI Platform Deep Learning Containers
I container di AI Platform Deep Learning Containers sono ambienti coerenti, ottimizzati per le prestazioni, per realizzare prototipi e implementare rapidamente i flussi di lavoro. Funzionano con le GPU.
Prezzi
Prezzi
I prezzi di AI Infrastructure si basano sul prodotto selezionato. Puoi provare AI Infrastructure gratuitamente.
Cloud TPU | GPU Cloud |
---|---|
Per informazioni sui prezzi delle TPU per i tipi con configurazione a singola TPU e per i tipi con pod di TPU, consulta Prezzi per Cloud TPU. | Per informazioni sui prezzi dei diversi tipi di GPU e sulle aree geografiche disponibili per Compute Engine, fai riferimento a Prezzi delle GPU. |
I prodotti di AI Cloud sono conformi alle nostre norme relative allo SLA. Possono offrire garanzie di latenza o disponibilità diverse rispetto ad altri servizi Google Cloud.