Vai a

AI Infrastructure

Infrastruttura scalabile, ad alte prestazioni e conveniente per ogni carico di lavoro di ML.

  • Acceleratori AI per ogni caso d'uso, dall'addestramento ad alte prestazioni all'inferenza a basso costo

  • Scala più rapidamente con l'infrastruttura completamente gestita di Vertex AI, progettata per i carichi di lavoro di AI 

  • Algoritmi con un'infrastruttura ottimizzata, creata da Google Research e dai partner

Vantaggi

Ottimizza prestazioni e costi su larga scala

Con Google Cloud, puoi scegliere tra GPU, TPU o CPU per supportare una varietà di casi d'uso, tra cui addestramento ad alte prestazioni, inferenza a basso costo ed elaborazione di dati su larga scala.

Ottieni risultati più velocemente con l'infrastruttura gestita

Scala in modo più rapido ed efficiente con l'infrastruttura gestita fornita da Vertex AI. Configura rapidamente gli ambienti ML, automatizza l'orchestrazione, gestisci cluster di grandi dimensioni e configura applicazioni a bassa latenza.

Innova più rapidamente con l'AI all'avanguardia

Ottieni di più dal machine learning con accesso all'AI all'avanguardia di Google Research, DeepMind e dei partner.

Funzionalità principali

Funzionalità principali

Hardware flessibile e scalabile per qualsiasi caso d'uso

Con Google Cloud, puoi scegliere tra GPU, TPU o CPU per supportare una varietà di casi d'uso, tra cui addestramento ad alte prestazioni, inferenza a basso costo ed elaborazione di dati su larga scala. Muoviti più velocemente con le unità di elaborazione Tensor (TPU) per l'addestramento e l'esecuzione di reti neurali profonde su larga scala con costi e tempi di addestramento ottimizzati.

Puoi scegliere tra una gamma di GPU NVIDIA, per facilitare l'inferenza a basso costo o lo scale up o lo scale out. Non tutti i modelli di machine learning sono uguali e modelli diversi beneficiano di livelli diversi di accelerazione hardware. Infine, accedi alle piattaforme CPU quando avvii un'istanza VM su Compute Engine. Compute Engine offre una gamma di processori Intel e AMD per le tue VM.

Pubblicazione a bassa latenza

Vertex AI fornisce un'infrastruttura appositamente creata per gestire automaticamente i processi ML. Esegui il deployment su endpoint completamente gestiti con scalabilità automatica, endpoint privati e un'ampia selezione di CPU e GPU.

Il runtime di Tensorflow ottimizzato consente la precompilazione dei modelli in GPU e CPU, con una velocità effettiva fino a 8 volte superiore e una latenza 6 volte inferiore per i modelli tabulari.

Addestramento su larga scala

Vertex AI fornisce funzionalità di networking gestite per aiutare i clienti a scalare l'addestramento multinodo e a ridurre i tempi di addestramento.

Job di addestramento gestiti: invia e dimentica i job di addestramento con gestione della coda, GPU NVIDIA e TPU e ottimizzazione degli iperparametri integrata.

Server di riduzione: ottimizza l'addestramento delle GPU distribuite per algoritmi paralleli di dati sincroni con una riduzione fino al 30-40% in termini di tempi e costi di addestramento.

Cloud Storage FUSE e NFS: semplifica e accelera i tuoi job di addestramento ML con le opzioni integrate di archiviazione di file e oggetti all'interno di Vertex AI con supporto per Cloud Storage AutoClass.

Algoritmi di AI all'avanguardia

Accedi ad algoritmi di AI all'avanguardia sviluppati da Google Research per semplificare i casi d'uso complessi di AI con l'infrastruttura ottimizzata integrata. Riduci la complessità e accelera il time-to-value con algoritmi come NAS, TabNet, Alphahol e NVIDIA Merlin.

Piattaforma aperta e altamente flessibile

Ci impegniamo a offrire ai clienti la massima libertà di scegliere il framework ML o i servizi di infrastruttura più adatti alle loro esigenze. 

Accedi e utilizza con facilità qualsiasi strumento, API o framework per i carichi di lavoro ML da un'unica piattaforma cloud AI e dati unificati, consentendo ai tuoi team di scegliere il framework giusto in base alle loro preferenze e al loro sviluppo.

Accedi a un ricco insieme di componenti di base, come le VM e i container di deep learning, e a un marketplace di offerte ISV selezionate per aiutarti a progettare il tuo stack software personalizzato su VM e/o Google Kubernetes Engine (GKE). 

Documentazione

Documentazione

Nozioni di base su Google Cloud
Utilizzo di GPU per l'addestramento di modelli nel cloud

Le GPU accelerano il processo di addestramento per i modelli di deep learning per attività come la classificazione delle immagini, l'analisi video e l'elaborazione del linguaggio naturale.

Nozioni di base su Google Cloud
Utilizzo delle TPU per l'addestramento del tuo modello

Le TPU (Tensor Processing Unit) sono i circuiti integrati per applicazioni specifiche (ASIC) di Google sviluppati appositamente per accelerare i carichi di lavoro di machine learning. Puoi eseguire i tuoi job di addestramento su AI Platform Training utilizzando Cloud TPU.

Tutorial
Come ottimizzare le TPU per il deep learning

Scopri quali sono i requisiti di elaborazione del deep learning e in che modo CPU, GPU e TPU gestiscono i task.

Nozioni di base su Google Cloud
Deep Learning VM

Le immagini di Deep Learning VM sono ottimizzate per le attività di data science e machine learning. Vengono fornite con framework ML e strumenti chiave preinstallati e funzionano con le GPU.

Nozioni di base su Google Cloud
AI Platform Deep Learning Containers

I container di AI Platform Deep Learning Containers sono ambienti coerenti, ottimizzati per le prestazioni, per realizzare prototipi e implementare rapidamente i flussi di lavoro. Funzionano con le GPU.

Prezzi

Prezzi

I prezzi di AI Infrastructure si basano sul prodotto selezionato. Puoi provare AI Infrastructure gratuitamente.

Cloud TPU GPU Cloud
Per informazioni sui prezzi delle TPU per i tipi con configurazione a singola TPU e per i tipi con pod di TPU, consulta Prezzi per Cloud TPU. Per informazioni sui prezzi dei diversi tipi di GPU e sulle aree geografiche disponibili per Compute Engine, fai riferimento a Prezzi delle GPU.