I prezzi sono indicati in dollari statunitensi (USD). Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
I costi di Vertex AI rimangono invariati rispetto a quelli dei prodotti legacy AI Platform e AutoML che sostituisce, con le seguenti eccezioni:
Inoltre, Vertex AI offre diversi modi in più per ottimizzare i costi, ad esempio:
Per informazioni sui prezzi di AI generativa su Vertex AI, vedi Prezzi per AI generativa su Vertex AI.
Per i modelli AutoML su Vertex AI paghi tre attività principali:
Vertex AI utilizza configurazioni di macchina predefinite per i modelli AutoML Vertex e la tariffa oraria per queste attività rispecchia l'utilizzo delle risorse.
Il tempo necessario per l'addestramento del modello dipende dalle dimensioni e dalla complessità dei dati di addestramento. Affinché i modelli possano fornire previsioni o spiegazioni online è prima necessario eseguire il deployment.
Paghi per ogni modello distribuito in un endpoint, anche se non generi alcuna previsione. Per non subire ulteriori addebiti, devi annullare il deployment del modello. Non vengono addebitati costi per i modelli che non sono stati distribuiti o per cui il deployment non è andato a buon fine.
Paghi solo per le ore di calcolo utilizzate; se l'addestramento non riesce per motivi diversi da un annullamento avviato dall'utente, il tempo non ti sarà addebitato. Se invece annulli l'operazione, il tempo di addestramento ti verrà addebitato.
Seleziona un tipo di modello di seguito per visualizzare informazioni sui prezzi.
Dati immagine
Operazione | Prezzo (classificazione) (USD) | Prezzo (rilevamento di oggetti) (USD) |
|---|---|---|
In fase di addestramento | 3,465 USD / 1 hour | 3,465 USD / 1 hour |
Addestramento (modello su dispositivo Edge) | 18,00 USD / 1 hour | 18,00 USD / 1 hour |
Deployment e previsione online | 1,375 USD / 1 hour | 2,002 USD / 1 hour |
Previsione batch | 2,222 USD / 1 hour | 2,222 USD / 1 hour |
Dati tabulari
Operazione | Prezzo di classificazione/regressione per ora nodo | Prezzo per le previsioni |
|---|---|---|
In fase di addestramento | 21,252 USD / 1 hour | |
Inferenza | Stesso prezzo dell'inferenza per i modelli addestrati personalizzati. Vertex AI esegue l'inferenza batch utilizzando 40 macchine n1-highmem-8. |
Costi di inferenza per Vertex Explainable AI
Il calcolo associato a Vertex Explainable AI viene addebitato alla stessa tariffa dell'inferenza. Tuttavia, le spiegazioni richiedono un tempo di elaborazione superiore a quello delle inferenze normali, pertanto un utilizzo intensivo di Vertex Explainable AI insieme alla scalabilità automatica potrebbe comportare l'avvio di più nodi, aumentando i costi delle inferenze.
AutoML
Palcoscenico | Prezzi |
|---|---|
Previsione | 0 count to 1,000,000 count 0,20 USD / 1,000 count, per 1 month / account 1,000,000 count to 50,000,000 count 0,10 USD / 1,000 count, per 1 month / account 50,000,000 count and above 0,02 USD / 1,000 count, per 1 month / account |
In fase di addestramento | 21,252 USD / 1 hour |
Explainable AI | Spiegabilità tramite valori Shapley. Vedi la pagina dei prezzi di inferenza e spiegazione su Vertex AI. |
* Un punto dati di previsione è un punto temporale nell'orizzonte di previsione. Ad esempio, con una granularità giornaliera, un orizzonte di 7 giorni include 7 punti per ogni serie temporale.
ARIMA+
Palcoscenico | Prezzi |
|---|---|
Previsione | 5,00 USD / 1,000 count |
In fase di addestramento | 250,00$per TB x Numero di modelli candidati x Numero di finestre di backtesting* |
Explainable AI | La spiegabilità con decomposizione in serie temporali non comporta costi aggiuntivi. La spiegabilità con valori Shapley non è supportata. |
Per ulteriori informazioni, vedi la pagina dei prezzi di BigQuery ML. Per ogni job di addestramento e previsione viene addebitato il costo di esecuzione di 1 pipeline gestita, come indicato nei prezzi di Vertex AI.
* Viene creata una finestra di backtesting per ogni periodo nel set di test. Il numero di modelli candidati viene determinato dal valore di AUTO_ARIMA_MAX_ORDER utilizzato. Varia da 6 a 42 per i modelli con più serie temporali.
Formazione
Le tabelle riportate di seguito mostrano il prezzo per ora approssimativo delle diverse configurazioni di addestramento. Puoi scegliere una configurazione personalizzata dei tipi di macchina selezionati. Per calcolare i prezzi, somma i costi delle macchine virtuali che utilizzi.
Se utilizzi tipi di macchine di Compute Engine e colleghi gli acceleratori, il costo degli acceleratori è separato. Per calcolare questo costo, moltiplica i prezzi nella tabella degli acceleratori riportata sotto per il numero di ore macchina per ciascun tipo di acceleratore utilizzato.
Tipi di macchina
Puoi utilizzare le VM spot con l'addestramento personalizzato di Vertex AI. VM spot vengono fatturate in base ai prezzi delle VM spot di Compute Engine. All'uso dell'infrastruttura vengono aggiunte le tariffe di gestione dell'addestramento personalizzato di Vertex AI, come indicato nelle tabelle seguenti.
Puoi utilizzare le prenotazioni di Compute Engine con l'addestramento personalizzato di Vertex AI. Quando utilizzi le prenotazioni di Compute Engine, ti vengono addebitati i costi in base ai prezzi di Compute Engine, inclusi eventuali sconti per impegno di utilizzo (CUD) applicabili. All'uso dell'infrastruttura vengono aggiunte le tariffe di gestione dell'addestramento personalizzato di Vertex AI, come indicato nelle tabelle seguenti.
Tipo di macchina | Prezzo (USD) |
|---|---|
g4-standard-48 | 5,17508763 USD / 1 hour |
g4-standard-96 | 10,35017526 USD / 1 hour |
g4-standard-192 | 20,70035052 USD / 1 hour |
g4-standard-384 | 41,40070104 USD / 1 hour |
n1-standard-4 | 0,21849885 USD / 1 hour |
n1-standard-8 | 0,4369977 USD / 1 hour |
n1-standard-16 | 0,8739954 USD / 1 hour |
n1-standard-32 | 1,7479908 USD / 1 hour |
n1-standard-64 | 3,4959816 USD / 1 hour |
n1-standard-96 | 5,2439724 USD / 1 hour |
n1-highmem-2 | 0,13604845 USD / 1 hour |
n1-highmem-4 | 0,2720969 USD / 1 hour |
n1-highmem-8 | 0,5441938 USD / 1 hour |
n1-highmem-16 | 1,0883876 USD / 1 hour |
n1-highmem-32 | 2,1767752 USD / 1 hour |
n1-highmem-64 | 4,3535504 USD / 1 hour |
n1-highmem-96 | 6,5303256 USD / 1 hour |
n1-highcpu-16 | 0,65180712 USD / 1 hour |
n1-highcpu-32 | 1,30361424 USD / 1 hour |
n1-highcpu-64 | 2,60722848 USD / 1 hour |
n1-highcpu-96 | 3,91084272 USD / 1 hour |
a2-highgpu-1g* | 4,425248914 USD / 1 hour |
a2-highgpu-2g* | 8,850497829 USD / 1 hour |
a2-highgpu-4g* | 17,700995658 USD / 1 hour |
a2-highgpu-8g* | 35,401991315 USD / 1 hour |
a2-megagpu-16g* | 65,707278915 USD / 1 hour |
a3-highgpu-8g* | 101,007352 USD / 1 hour |
a3-megagpu-8g* | 106,0464232 USD / 1 hour |
a3-ultragpu-8g* | 99,7739296 USD / 1 hour |
a4-highgpu-8g* | 148,212 USD / 1 hour |
e2-standard-4 | 0,154126276 USD / 1 hour |
e2-standard-8 | 0,308252552 USD / 1 hour |
e2-standard-16 | 0,616505104 USD / 1 hour |
e2-standard-32 | 1,233010208 USD / 1 hour |
e2-highmem-2 | 0,103959618 USD / 1 hour |
e2-highmem-4 | 0,207919236 USD / 1 hour |
e2-highmem-8 | 0,415838472 USD / 1 hour |
e2-highmem-16 | 0,831676944 USD / 1 hour |
e2-highcpu-16 | 0,455126224 USD / 1 hour |
e2-highcpu-32 | 0,910252448 USD / 1 hour |
n2-standard-4 | 0,2233714 USD / 1 hour |
n2-standard-8 | 0,4467428 USD / 1 hour |
n2-standard-16 | 0,8934856 USD / 1 hour |
n2-standard-32 | 1,7869712 USD / 1 hour |
n2-standard-48 | 2,6804568 USD / 1 hour |
n2-standard-64 | 3,5739424 USD / 1 hour |
n2-standard-80 | 4,467428 USD / 1 hour |
n2-highmem-2 | 0,1506661 USD / 1 hour |
n2-highmem-4 | 0,3013322 USD / 1 hour |
cloud-tpu | Il prezzo è determinato dal tipo di acceleratore. Vedi "Acceleratori". |
n2-highmem-8 | 0,6026644 USD / 1 hour |
n2-highmem-16 | 1,2053288 USD / 1 hour |
n2-highmem-32 | 2,4106576 USD / 1 hour |
n2-highmem-48 | 3,6159864 USD / 1 hour |
n2-highmem-64 | 4,8213152 USD / 1 hour |
n2-highmem-80 | 6,026644 USD / 1 hour |
n2-highcpu-16 | 0,6596032 USD / 1 hour |
n2-highcpu-32 | 1,3192064 USD / 1 hour |
n2-highcpu-48 | 1,9788096 USD / 1 hour |
n2-highcpu-64 | 2,6384128 USD / 1 hour |
n2-highcpu-80 | 3,298016 USD / 1 hour |
c2-standard-4 | 0,2401292 USD / 1 hour |
c2-standard-8 | 0,4802584 USD / 1 hour |
c2-standard-16 | 0,9605168 USD / 1 hour |
c2-standard-30 | 1,800969 USD / 1 hour |
c2-standard-60 | 3,601938 USD / 1 hour |
m1-ultramem-40 | 7,237065 USD / 1 hour |
m1-ultramem-80 | 14,47413 USD / 1 hour |
m1-ultramem-160 | 28,94826 USD / 1 hour |
m1-megamem-96 | 12,249984 USD / 1 hour |
*Questo importo include il prezzo della GPU, poiché questo tipo di istanza richiede sempre un numero fisso di acceleratori GPU.
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
Acceleratori
Tipo di macchina | Prezzo (USD) | Commissione di gestione di Vertex |
|---|---|---|
NVIDIA_TESLA_A100 | 2,933908 USD / 1 hour | 0,4400862 USD / 1 hour |
NVIDIA_TESLA_A100_80GB | 3,92808 USD / 1 hour | 0,589212 USD / 1 hour |
NVIDIA_H100_80GB | 9,79655057 USD / 1 hour | 1,4694826 USD / 1 hour |
NVIDIA_H200_141GB | 10,708501 USD / 1 hour | Non disponibile |
NVIDIA_H100_MEGA_80GB | 11,8959171 USD / 1 hour | Non disponibile |
NVIDIA_TESLA_L4 | 0,644046276 USD / 1 hour | Non disponibile |
NVIDIA_TESLA_P4 | 0,69 USD / 1 hour | Non disponibile |
NVIDIA_TESLA_P100 | 1,679 USD / 1 hour | Non disponibile |
NVIDIA_TESLA_T4 | 0,4025 USD / 1 hour | Non disponibile |
NVIDIA_TESLA_V100 | 2,852 USD / 1 hour | Non disponibile |
TPU_V2 singolo (8 core) | 5,175 USD / 1 hour | Non disponibile |
Pod TPU_V2 (32 core)* | 27,60 USD / 1 hour | Non disponibile |
TPU_V3 singolo (8 core) | 9,20 USD / 1 hour | Non disponibile |
Pod TPU_V3 (32 core)* | 36,80 USD / 1 hour | Non disponibile |
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
* Il prezzo dell'addestramento eseguito tramite un pod di Cloud TPU di basa sul numero di core nel pod. Il numero di core in un pod è sempre un multiplo di 32. Per determinare il prezzo di addestramento su un pod con più di 32 core, moltiplica per il numero di core il prezzo di un pod da 32 core diviso per 32. Ad esempio, per un pod con 128 core, il prezzo è (prezzo del pod con 32 core) * (128/32). Per informazioni sui pod di Cloud TPU disponibili per una regione specifica, vedi Architettura di sistema nella documentazione di Cloud TPU.
Dischi
Tipo di macchina | Prezzo (USD) |
|---|---|
pd-standard | 0,000063014 USD / 1 gibibyte hour |
pd-ssd | 0,000267808 USD / 1 gibibyte hour |
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
Il costo per l'addestramento dei modelli ti viene addebitato dal momento del provisioning delle risorse per un job, fino al termine di questo job.
Avviso: i job di addestramento sono limitati dalle norme relative alle quote di Vertex AI. Se scegli un cluster di elaborazione molto potente per i primi job di addestramento, è probabile che supererai la quota.
Livelli di scalabilità per le configurazioni predefinite (AI Platform Training)
Puoi controllare il tipo di cluster di elaborazione da utilizzare durante l'addestramento del tuo modello. Il modo più semplice consiste nello scegliere una delle configurazioni predefinite denominate livelli di scalabilità. Scopri di più sui livelli di scalabilità.
Tipi di macchine per le configurazioni personalizzate
Se utilizzi Vertex AI o selezioni CUSTOM come livello di scalabilità per AI Platform Training, puoi controllare il numero e il tipo di macchina virtuale da utilizzare per il master, il worker e i server dei parametri del cluster. Scopri di più sui tipi di macchina per Vertex AI e sui tipi di macchina per AI Platform Training.
Il costo dell'addestramento con un cluster di elaborazione personalizzato equivale alla somma di tutte le macchine specificate. Ti vengono addebitati i costi per il tempo totale del job, non per il tempo di elaborazione attivo delle singole macchine.
Per le metriche basate su modello, gli addebiti vengono applicati solo per i costi di previsione associati al modello di valutazione automatica sottostante. La fatturazione si basa sui token di input forniti nel set di dati di valutazione e sull'output dell'autovalutatore.
Gen AI Evaluation Service è in disponibilità generale (GA). La modifica dei prezzi è entrata in vigore il 14 aprile 2025.
metrico | Prezzi |
|---|---|
Basata su punti | Modello di valutazione automatica predefinito Gemini 2.0 Flash |
Basata su coppie | Modello di valutazione automatica predefinito Gemini 2.0 Flash |
Le metriche basate sul calcolo vengono addebitate a 0,00003 $per 1000 caratteri di input e 0,00009 $per 1000 caratteri di output. Vengono chiamate metriche automatiche negli SKU.
Nome metrica | Tipo |
|---|---|
Corrispondenza esatta | Basata su calcolo |
Bleu | Basata su calcolo |
Rouge | Basata su calcolo |
Chiamata allo strumento valida | Basata su calcolo |
Corrispondenza nome strumento | Basata su calcolo |
Corrispondenza della chiave del parametro dello strumento | Basata su calcolo |
Corrispondenza KV dei parametri dello strumento | Basata su calcolo |
I prezzi sono indicati in dollari statunitensi (USD). Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
Le metriche basate su modelli legacy vengono addebitate a 0,005 $per 1000 caratteri di input e 0,015 $per 1000 caratteri di output.
Nome metrica | Tipo |
|---|---|
Coerenza | Basata su punti |
Fluidità | Basata su punti |
Fulfillment | Basata su punti |
Sicurezza | Basata su punti |
Fondatezza | Basata su punti |
Qualità del riassunto | Basata su punti |
Utilità del riassunto | Basata su punti |
Livello di dettaglio del riassunto | Basata su punti |
Qualità del question answering | Basata su punti |
Pertinenza del question answering | Basata su punti |
Utilità delle risposte alle domande | Basata su punti |
Correttezza del question answering | Basata su punti |
Qualità del riassunto a coppie | Basata su coppie |
Qualità del question answering a coppie | Basata su coppie |
I prezzi sono indicati in dollari statunitensi (USD). Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
Vertex AI Agent Engine è un insieme di servizi che consentono agli sviluppatori di scalare gli agenti in produzione. Oggi viene stabilito il prezzo per il runtime di Agent Engine. I prezzi per altri servizi di Agent Engine come Sessioni, Banca di memoria ed Esecuzione di codice verranno pubblicati in un secondo momento (attualmente sono gratuiti).
I prezzi si basano sulle risorse di calcolo (ore vCPU) e di memoria (ore GiB) utilizzate dagli agenti distribuiti nel runtime di Agent Engine. La fatturazione viene arrotondata al secondo di utilizzo più vicino. Il tempo di inattività di un agente non viene fatturato.
Per aiutarti a iniziare a utilizzare il runtime, offriamo un livello gratuito mensile.
Una volta superato il livello gratuito di utilizzo mensile, la fatturazione inizierà in base alle tariffe riportate di seguito.
Risorsa | Prezzo (USD) |
|---|---|
vCPU | 0 hour to 50 hour 0,00 USD (Free) / 3,600 second, per 1 month / project 50 hour and above 0,0994 USD / 3,600 second, per 1 month / project |
RAM | 0 gigabyte hour to 100 gigabyte hour 0,00 USD (Free) / 3,600 gibibyte second, per 1 month / project 100 gigabyte hour and above 0,0105 USD / 3,600 gibibyte second, per 1 month / project |
A partire dal 6 novembre 2025, i prezzi per il runtime di Agent Engine sono stati semplificati in un'unica tariffa, che viene applicata per tutte le regioni in cui è disponibile il runtime di Agent Engine.
Formazione
Le tabelle riportate di seguito mostrano il prezzo per ora approssimativo delle diverse configurazioni di addestramento. Puoi scegliere una configurazione personalizzata dei tipi di macchina selezionati. Per calcolare i prezzi, somma i costi delle macchine virtuali che utilizzi.
Se utilizzi tipi di macchine di Compute Engine e colleghi gli acceleratori, il costo degli acceleratori è separato. Per calcolare questo costo, moltiplica i prezzi nella tabella degli acceleratori riportata sotto per il numero di ore macchina per ciascun tipo di acceleratore utilizzato.
Tipi di macchina
Tipo di macchina | Prezzo (USD) |
|---|---|
n1-standard-4 | 0,2279988 USD / 1 hour |
n1-standard-8 | 0,4559976 USD / 1 hour |
n1-standard-16 | 0,9119952 USD / 1 hour |
n1-standard-32 | 1,8239904 USD / 1 hour |
n1-standard-64 | 3,6479808 USD / 1 hour |
n1-standard-96 | 5,4719712 USD / 1 hour |
n1-highmem-2 | 0,1419636 USD / 1 hour |
n1-highmem-4 | 0,2839272 USD / 1 hour |
n1-highmem-8 | 0,5678544 USD / 1 hour |
n1-highmem-16 | 1,1357088 USD / 1 hour |
n1-highmem-32 | 2,2714176 USD / 1 hour |
n1-highmem-64 | 4,5428352 USD / 1 hour |
n1-highmem-96 | 6,8142528 USD / 1 hour |
n1-highcpu-16 | 0,68014656 USD / 1 hour |
n1-highcpu-32 | 1,36029312 USD / 1 hour |
n1-highcpu-64 | 2,72058624 USD / 1 hour |
n1-highcpu-96 | 4,08087936 USD / 1 hour |
a2-highgpu-1g* | 4,408062 USD / 1 hour |
a2-highgpu-2g* | 8,816124 USD / 1 hour |
a2-highgpu-4g* | 17,632248 USD / 1 hour |
a2-highgpu-8g* | 35,264496 USD / 1 hour |
a2-highgpu-16g* | 70,528992 USD / 1 hour |
a3-highgpu-8g* | 105,39898088 USD / 1 hour |
a3-megagpu-8g* | 110,65714224 USD / 1 hour |
a4-highgpu-8g* | 148,212 USD / 1 hour |
e2-standard-4 | 0,16082748 USD / 1 hour |
e2-standard-4 | 0,32165496 USD / 1 hour |
e2-standard-16 | 0,64330992 USD / 1 hour |
e2-standard-32 | 1,28661984 USD / 1 hour |
e2-highmem-2 | 0,10847966 USD / 1 hour |
e2-highmem-4 | 0,21695932 USD / 1 hour |
e2-highmem-8 | 0,43391864 USD / 1 hour |
e2-highmem-16 | 0,86783728 USD / 1 hour |
e2-highcpu-16 | 0,4749144 USD / 1 hour |
e2-highcpu-32 | 0,9498288 USD / 1 hour |
n2-standard-4 | 0,2330832 USD / 1 hour |
n2-standard-8 | 0,4661664 USD / 1 hour |
n2-standard-16 | 0,9323328 USD / 1 hour |
n2-standard-32 | 1,8646656 USD / 1 hour |
n2-standard-48 | 2,7969984 USD / 1 hour |
n2-standard-64 | 3,7293312 USD / 1 hour |
n2-standard-80 | 4,661664 USD / 1 hour |
n2-highmem-2 | 0,1572168 USD / 1 hour |
n2-highmem-4 | 0,3144336 USD / 1 hour |
n2-highmem-8 | 0,6288672 USD / 1 hour |
n2-highmem-16 | 1,2577344 USD / 1 hour |
n2-highmem-32 | 2,5154688 USD / 1 hour |
n2-highmem-48 | 3,7732032 USD / 1 hour |
n2-highmem-64 | 5,0309376 USD / 1 hour |
n2-highmem-80 | 6,288672 USD / 1 hour |
n2-highcpu-16 | 0,6882816 USD / 1 hour |
n2-highcpu-32 | 1,3765632 USD / 1 hour |
n2-highcpu-48 | 2,0648448 USD / 1 hour |
n2-highcpu-64 | 2,7531264 USD / 1 hour |
n2-highcpu-80 | 3,441408 USD / 1 hour |
c2-standard-4 | 0,2505696 USD / 1 hour |
c2-standard-8 | 0,5011392 USD / 1 hour |
c2-standard-16 | 1,0022784 USD / 1 hour |
c2-standard-30 | 1,879272 USD / 1 hour |
c2-standard-60 | 3,758544 USD / 1 hour |
m1-ultramem-40 | 7,55172 USD / 1 hour |
m1-ultramem-80 | 15,10344 USD / 1 hour |
m1-ultramem-160 | 30,20688 USD / 1 hour |
m1-megamem-96 | 12,782592 USD / 1 hour |
cloud-tpu | Il prezzo è determinato dal tipo di acceleratore. Vedi "Acceleratori". |
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
Acceleratori
Tipo di GPU | Prezzo (USD) |
|---|---|
NVIDIA_TESLA_A100 | 3,5206896 USD / 1 hour |
NVIDIA_TESLA_A100_80GB | 4,517292 USD / 1 hour |
NVIDIA_H100_80GB | 11,75586073 USD / 1 hour |
NVIDIA_TESLA_P4 | 0,72 USD / 1 hour |
NVIDIA_TESLA_P100 | 1,752 USD / 1 hour |
NVIDIA_TESLA_T4 | 0,42 USD / 1 hour |
NVIDIA_TESLA_V100 | 2,976 USD / 1 hour |
TPU_V2 singolo (8 core) | 5,40 USD / 1 hour |
Pod TPU_V2 (32 core)* | 28,80 USD / 1 hour |
TPU_V3 singolo (8 core) | 9,60 USD / 1 hour |
Pod TPU_V3 (32 core)* | 38,40 USD / 1 hour |
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
* Il prezzo dell'addestramento eseguito tramite un pod di Cloud TPU di basa sul numero di core nel pod. Il numero di core in un pod è sempre un multiplo di 32. Per determinare il prezzo di addestramento su un pod con più di 32 core, moltiplica per il numero di core il prezzo di un pod da 32 core diviso per 32. Ad esempio, per un pod con 128 core, il prezzo è (prezzo del pod con 32 core) * (128/32). Per informazioni sui pod di Cloud TPU disponibili per una regione specifica, vedi Architettura di sistema nella documentazione di Cloud TPU.
Dischi
Tipo di disco | Prezzo (USD) |
|---|---|
pd-standard | 0,000065753 USD / 1 gibibyte hour |
pd-ssd | 0,000279452 USD / 1 gibibyte hour |
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
Il costo per l'addestramento dei modelli ti viene addebitato dal momento del provisioning delle risorse per un job, fino al termine di questo job.
Avviso: i job di addestramento sono limitati dalle norme relative alle quote di Vertex AI. Se scegli un cluster di elaborazione molto potente per i primi job di addestramento, è probabile che supererai la quota.
La tabella che segue fornisce i prezzi delle previsioni batch e online e della spiegazione online per ora nodo. Un'ora nodo rappresenta il tempo dedicato da una macchina virtuale all'esecuzione di un job di previsione o per cui rimane in attesa in uno stato attivo (un endpoint con uno o più modelli distribuiti) per gestire le richieste di previsione o spiegazione.
Puoi utilizzare le VM spot con Vertex AI Inference. VM spot vengono fatturate in base ai prezzi delle VM spot di Compute Engine. All'uso dell'infrastruttura vengono aggiunte le tariffe di gestione di Vertex AI Inference, come indicato nelle tabelle seguenti.
Puoi utilizzare le prenotazioni di Compute Engine con Vertex AI Inference. Quando utilizzi le prenotazioni di Compute Engine, ti vengono addebitati i costi in base ai prezzi di Compute Engine, inclusi eventuali sconti per impegno di utilizzo (CUD) applicabili. All'uso dell'infrastruttura vengono aggiunte le tariffe di gestione di Vertex AI Inference, come indicato nelle tabelle seguenti.
Serie E2
Tipo di macchina | Prezzo (USD) |
|---|---|
e2-standard-2 | 0,0770564 USD / 1 hour |
e2-standard-4 | 0,1541128 USD / 1 hour |
e2-standard-8 | 0,3082256 USD / 1 hour |
e2-standard-16 | 0,6164512 USD / 1 hour |
e2-standard-32 | 1,2329024 USD / 1 hour |
e2-highmem-2 | 0,1039476 USD / 1 hour |
e2-highmem-4 | 0,2078952 USD / 1 hour |
e2-highmem-8 | 0,4157904 USD / 1 hour |
e2-highmem-16 | 0,8315808 USD / 1 hour |
e2-highcpu-2 | 0,056888 USD / 1 hour |
e2-highcpu-4 | 0,113776 USD / 1 hour |
e2-highcpu-8 | 0,227552 USD / 1 hour |
e2-highcpu-16 | 0,455104 USD / 1 hour |
e2-highcpu-32 | 0,910208 USD / 1 hour |
Serie N1
Tipo di macchina | Prezzo (USD) |
|---|---|
n1-standard-2 | 0,1095 USD / 1 hour |
n1-standard-4 | 0,219 USD / 1 hour |
n1-standard-8 | 0,438 USD / 1 hour |
n1-standard-16 | 0,876 USD / 1 hour |
n1-standard-32 | 1,752 USD / 1 hour |
n1-highmem-2 | 0,137 USD / 1 hour |
n1-highmem-4 | 0,274 USD / 1 hour |
n1-highmem-8 | 0,548 USD / 1 hour |
n1-highmem-16 | 1,096 USD / 1 hour |
n1-highcpu-2 | 0,081 USD / 1 hour |
n1-highcpu-4 | 0,162 USD / 1 hour |
n1-highcpu-8 | 0,324 USD / 1 hour |
n1-highcpu-16 | 0,648 USD / 1 hour |
n1-highcpu-32 | 1,296 USD / 1 hour |
Serie N2
Tipo di macchina | Prezzo (USD) |
|---|---|
n2-standard-2 | 0,1116854 USD / 1 hour |
n2-standard-4 | 0,2233708 USD / 1 hour |
n2-standard-8 | 0,4467416 USD / 1 hour |
n2-standard-16 | 0,8934832 USD / 1 hour |
n2-standard-32 | 1,7869664 USD / 1 hour |
n2-highmem-2 | 0,1506654 USD / 1 hour |
n2-highmem-4 | 0,3013308 USD / 1 hour |
n2-highmem-8 | 0,6026616 USD / 1 hour |
n2-highmem-16 | 1,2053232 USD / 1 hour |
n2-highcpu-2 | 0,0824504 USD / 1 hour |
n2-highcpu-4 | 0,1649008 USD / 1 hour |
n2-highcpu-8 | 0,3298016 USD / 1 hour |
n2-highcpu-16 | 0,6596032 USD / 1 hour |
n2-highcpu-32 | 1,3192064 USD / 1 hour |
Serie N2D
Tipo di macchina | Prezzo (USD) |
|---|---|
n2d-standard-2 | 0,0971658 USD / 1 hour |
n2d-standard-4 | 0,1943316 USD / 1 hour |
n2d-standard-8 | 0,3886632 USD / 1 hour |
n2d-standard-16 | 0,7773264 USD / 1 hour |
n2d-standard-32 | 1,5546528 USD / 1 hour |
n2d-highmem-2 | 0,131077 USD / 1 hour |
n2d-highmem-4 | 0,262154 USD / 1 hour |
n2d-highmem-8 | 0,524308 USD / 1 hour |
n2d-highmem-16 | 1,048616 USD / 1 hour |
n2d-highcpu-2 | 0,0717324 USD / 1 hour |
n2d-highcpu-4 | 0,1434648 USD / 1 hour |
n2d-highcpu-8 | 0,2869296 USD / 1 hour |
n2d-highcpu-16 | 0,5738592 USD / 1 hour |
n2d-highcpu-32 | 1,1477184 USD / 1 hour |
Serie C2
Tipo di macchina | Prezzo (USD) |
|---|---|
c2-standard-4 | 0,240028 USD / 1 hour |
c2-standard-8 | 0,480056 USD / 1 hour |
c2-standard-16 | 0,960112 USD / 1 hour |
c2-standard-30 | 1,80021 USD / 1 hour |
c2-standard-60 | 3,60042 USD / 1 hour |
Serie C2D
Tipo di macchina | Prezzo (USD) |
|---|---|
c2d-standard-2 | 0,1044172 USD / 1 hour |
c2d-standard-4 | 0,2088344 USD / 1 hour |
c2d-standard-8 | 0,4176688 USD / 1 hour |
c2d-standard-16 | 0,8353376 USD / 1 hour |
c2d-standard-32 | 1,6706752 USD / 1 hour |
c2d-standard-56 | 2,9236816 USD / 1 hour |
c2d-standard-112 | 5,8473632 USD / 1 hour |
c2d-highmem-2 | 0,1408396 USD / 1 hour |
c2d-highmem-4 | 0,2816792 USD / 1 hour |
c2d-highmem-8 | 0,5633584 USD / 1 hour |
c2d-highmem-16 | 1,1267168 USD / 1 hour |
c2d-highmem-32 | 2,2534336 USD / 1 hour |
c2d-highmem-56 | 3,9435088 USD / 1 hour |
c2d-highmem-112 | 7,8870176 USD / 1 hour |
c2d-highcpu-2 | 0,086206 USD / 1 hour |
c2d-highcpu-4 | 0,172412 USD / 1 hour |
c2d-highcpu-8 | 0,344824 USD / 1 hour |
c2d-highcpu-16 | 0,689648 USD / 1 hour |
c2d-highcpu-32 | 1,379296 USD / 1 hour |
c2d-highcpu-56 | 2,413768 USD / 1 hour |
c2d-highcpu-112 | 4,827536 USD / 1 hour |
Serie C3
Tipo di macchina | Prezzo (USD) |
|---|---|
c3-highcpu-4 | 0,19824 USD / 1 hour |
c3-highcpu-8 | 0,39648 USD / 1 hour |
c3-highcpu-22 | 1,09032 USD / 1 hour |
c3-highcpu-44 | 2,18064 USD / 1 hour |
c3-highcpu-88 | 4,36128 USD / 1 hour |
c3-highcpu-176 | 8,72256 USD / 1 hour |
Serie A2
Tipo di macchina | Prezzo (USD) |
|---|---|
a2-highgpu-1g | 4,2244949 USD / 1 hour |
a2-highgpu-2g | 8,4489898 USD / 1 hour |
a2-highgpu-4g | 16,8979796 USD / 1 hour |
a2-highgpu-8g | 33,7959592 USD / 1 hour |
a2-megagpu-16g | 64,1020592 USD / 1 hour |
a2-ultragpu-1g | 5,7818474 USD / 1 hour |
a2-ultragpu-2g | 11,5636948 USD / 1 hour |
a2-ultragpu-4g | 23,1273896 USD / 1 hour |
a2-ultragpu-8g | 46,2547792 USD / 1 hour |
Quando si utilizza una capacità riservata o spot, la fatturazione viene suddivisa tra due SKU: lo SKU GCE con l'etichetta "vertex-ai-online-prediction" e lo SKU della tariffa di gestione di Vertex AI. Ciò ti consente di utilizzare gli sconti per utilizzo con impegno (CUD) in Vertex AI.
Serie A3
Tipo di macchina | Prezzo (USD) |
|---|---|
a3-ultragpu-8g | 96,015616 USD / 1 hour |
a3-megagpu-8g | 106,65474 USD / 1 hour |
Quando si utilizza una capacità riservata o spot, la fatturazione viene suddivisa tra due SKU: lo SKU GCE con l'etichetta "vertex-ai-online-prediction" e lo SKU della tariffa di gestione di Vertex AI. Ciò ti consente di utilizzare gli sconti per utilizzo con impegno (CUD) in Vertex AI.
Serie A4
Tipo di macchina | Prezzo (USD) |
|---|---|
a4-highgpu-8g | 148,212 USD / 1 hour |
Quando si utilizza una capacità riservata o spot, la fatturazione viene suddivisa tra due SKU: lo SKU GCE con l'etichetta "vertex-ai-online-prediction" e lo SKU della tariffa di gestione di Vertex AI. Ciò ti consente di utilizzare gli sconti per utilizzo con impegno (CUD) in Vertex AI.
Serie A4X
Tipo di macchina | Prezzo (USD) |
|---|---|
a4x-highgpu-4g | 74,75 USD / 1 hour |
Quando si utilizza una capacità riservata o spot, la fatturazione viene suddivisa tra due SKU: lo SKU GCE con l'etichetta "vertex-ai-online-prediction" e lo SKU della tariffa di gestione di Vertex AI. Ciò ti consente di utilizzare gli sconti per utilizzo con impegno (CUD) in Vertex AI.
a4x-highgpu-4g richiede almeno 18 VM.
Serie G2
Tipo di macchina | Prezzo (USD) |
|---|---|
g2-standard-4 | 0,81293 USD / 1 hour |
g2-standard-8 | 0,98181 USD / 1 hour |
g2-standard-12 | 1,15069 USD / 1 hour |
g2-standard-16 | 1,31957 USD / 1 hour |
g2-standard-24 | 2,30138 USD / 1 hour |
g2-standard-32 | 1,99509 USD / 1 hour |
g2-standard-48 | 4,60276 USD / 1 hour |
g2-standard-96 | 9,20552 USD / 1 hour |
Quando si utilizza una capacità riservata o spot, la fatturazione viene suddivisa tra due SKU: lo SKU GCE con l'etichetta "vertex-ai-online-prediction" e lo SKU della tariffa di gestione di Vertex AI. Ciò ti consente di utilizzare gli sconti per utilizzo con impegno (CUD) in Vertex AI.
Serie G4
Tipo di macchina | Prezzo (USD) |
|---|---|
g4-standard-48 | 5,17508763 USD / 1 hour |
g4-standard-96 | 10,35017526 USD / 1 hour |
g4-standard-192 | 20,70035052 USD / 1 hour |
g4-standard-384 | 41,40070104 USD / 1 hour |
Prezzi di TPU v5e
Tipo di macchina | Prezzo (USD) |
|---|---|
ct5lp-hightpu-1t | 1,38 USD / 1 hour |
ct5lp-hightpu-4t | 5,52 USD / 1 hour |
ct5lp-hightpu-8t | 5,52 USD / 1 hour |
Nella fattura di Google Cloud, ogni tipo di macchina viene addebitato con gli SKU riportati di seguito:
I prezzi per i tipi di macchine vengono utilizzati per approssimare il costo orario totale per ogni nodo di previsione di una versione di modello che utilizza quel tipo di macchina.
Ad esempio, una macchina di tipo n1-highcpu-32 include 32 vCPU e 32 GB di RAM. Pertanto, il prezzo orario è di 32 ore vCPU + 32 GB/ora.
Serie E2
Elemento | Prezzo (USD) |
|---|---|
vCPU | 0,0250826 USD / 1 hour |
RAM | 0,0033614 USD / 1 gibibyte hour |
Serie N1
Elemento | Prezzo (USD) |
|---|---|
vCPU | 0,036 USD / 1 hour |
RAM | 0,005 USD / 1 gibibyte hour |
Serie N2
Elemento | Prezzo (USD) |
|---|---|
vCPU | 0,0363527 USD / 1 hour |
RAM | 0,0048725 USD / 1 gibibyte hour |
Serie N2D
Elemento | Prezzo (USD) |
|---|---|
vCPU | 0,0316273 USD / 1 hour |
RAM | 0,0042389 USD / 1 gibibyte hour |
Serie C2
Elemento | Prezzo (USD) |
|---|---|
vCPU | 0,039077 USD / 1 hour |
RAM | 0,0052325 USD / 1 gibibyte hour |
Serie C2D
Elemento | Prezzo (USD) |
|---|---|
vCPU | 0,0339974 USD / 1 hour |
RAM | 0,0045528 USD / 1 gibibyte hour |
Serie C3
Elemento | Prezzo (USD) |
|---|---|
vCPU | 0,03908 USD / 1 hour |
RAM | 0,00524 USD / 1 gibibyte hour |
Serie A2
Elemento | Prezzo (USD) |
|---|---|
vCPU | 0,0363527 USD / 1 hour |
RAM | 0,0048725 USD / 1 gibibyte hour |
GPU (A100 40 GB) | 3,3741 USD / 1 hour |
GPU (A100 da 80 GB) | 4,51729 USD / 1 hour |
Serie A3
Elemento | Prezzo (USD) |
|---|---|
vCPU | 0,0293227 USD / 1 hour |
RAM | 0,0025534 USD / 1 gibibyte hour |
GPU (H100 80 GB) | 11,2660332 USD / 1 hour |
GPU (H200) | 10,708501 USD / 1 hour |
Serie G2
Elemento | Prezzo (USD) |
|---|---|
vCPU | 0,02874 USD / 1 hour |
RAM | 0,00337 USD / 1 gibibyte hour |
GPU (L4) | 0,64405 USD / 1 hour |
Alcuni tipi di macchina consentono di aggiungere acceleratori GPU opzionali per la previsione. Le GPU sono soggette a un costo aggiuntivo, separato da quelli descritti nella tabella precedente. Nelle singole tabelle prezzi sono riportati i prezzi per i vari tipi di GPU opzionali.
Acceleratori - prezzo per ora
Tipo di GPU | Prezzo (USD) |
|---|---|
NVIDIA_TESLA_P4 | 0,69 USD / 1 hour |
NVIDIA_TESLA_P100 | 1,679 USD / 1 hour |
NVIDIA_TESLA_T4 | 0,402 USD / 1 hour |
NVIDIA_TESLA_V100 | 2,852 USD / 1 hour |
Il prezzo è per GPU. Se utilizzi più GPU per nodo di previsione (o se la tua versione è scalabile per l'uso di più nodi),i costi verranno adeguati di conseguenza.
AI Platform Prediction fornisce le previsioni dal tuo modello eseguendo un certo numero di macchine virtuali ("nodi"). Per impostazione predefinita, Vertex AI adegua automaticamente il numero di nodi in esecuzione in qualsiasi momento. Per la previsione online, il numero di nodi viene scalato per soddisfare la domanda. Ogni nodo può rispondere a più richieste di previsione. Per la previsione batch, il numero di nodi viene scalato per ridurre il tempo totale necessario per eseguire un job. Puoi personalizzare la scalabilità dei nodi di previsione.
Ti viene addebitato il costo del tempo di esecuzione del tuo modello su ciascun nodo, inclusi:
Il costo di un nodo in esecuzione per un'ora è un'ora nodo. La tabella dei prezzi delle previsioni descrive il prezzo di un'ora nodo, che varia tra aree geografiche e tra previsione online e previsione batch.
Puoi consumare le ore nodo in incrementi frazionari. Ad esempio, un nodo in esecuzione per 30 minuti costa 0,5 ore nodo.
Calcoli dei costi per tipi di macchine di Compute Engine (N1)
Ulteriori informazioni sulla scalabilità automatica dei nodi di previsione
Previsione online | Previsione batch |
|---|---|
La priorità della scalabilità è la riduzione della latenza delle singole richieste. Il servizio mantiene il modello in stato di pronto per alcuni minuti di inattività dopo la gestione di una richiesta. | La priorità della scalabilità è la riduzione del tempo totale trascorso del job. |
La scalabilità influisce sull'importo complessivo dovuto ogni mese: quanto più numerose e frequenti sono le richieste, maggiore sarà il numero di nodi utilizzati. | La scalabilità dovrebbe avere scarso impatto sul prezzo del job, sebbene sia possibile osservare un certo overhead quando entra in gioco un nuovo nodo. |
Puoi scegliere che il servizio scali in risposta al traffico (scalabilità automatica) o specificare un numero di nodi costantemente in esecuzione per evitare la latenza (scalabilità manuale).
| Puoi influire sulla scalabilità impostando un numero massimo di nodi da utilizzare per un job di previsione batch e impostando il numero di nodi da tenere in esecuzione per un modello quando ne viene eseguito il deployment. |
I job di previsione in batch vengono addebitati al completamento del job
I job di previsione in batch vengono addebitati al completamento del job, non in modo incrementale durante il job. Gli eventuali avvisi configurati per il budget della fatturazione Cloud non vengono attivati durante l'esecuzione di un job. Prima di iniziare un job di grandi dimensioni, valuta la possibilità di eseguire alcuni job di benchmark dei costi con piccoli volumi di dati di input.
Esempio di calcolo di previsione
Una società immobiliare in una regione delle Americhe esegue una previsione settimanale dei valori degli alloggi nelle aree di sua competenza. In un mese esegue previsioni per quattro settimane in batch di 3920, 4277, 3849 e 3961. I job sono limitati a un nodo e ogni istanza utilizza una media di 0,72 secondi di elaborazione.
Calcola innanzitutto per quanto tempo è stato eseguito ciascun job:
Ogni job è stato eseguito per più di dieci minuti, quindi verrà addebitato ogni minuto di elaborazione:
L'addebito totale per il mese corrisponde a 0,26 $.
In questo esempio si supponeva che i job fossero eseguiti su un singolo nodo e richiedessero una quantità di tempo costante per ogni istanza di input. Nell'utilizzo reale, assicurati di tenere conto di più nodi e di utilizzare la quantità effettiva di tempo di esecuzione che ciascun nodo impiega per i calcoli.
Addebiti per Vertex Explainable AI
Spiegazioni basate sulle caratteristiche
Le spiegazioni basate sulle caratteristiche non comportano alcun costo in aggiunta ai prezzi delle previsioni. Tuttavia, il tempo di elaborazione delle spiegazioni è superiore a quello delle previsioni normali, pertanto un utilizzo intensivo di Vertex Explainable AI insieme alla scalabilità automatica potrebbe comportare l'avvio di più nodi, aumentando i costi delle previsioni.
Spiegazioni basate su esempi
I prezzi delle spiegazioni basate su esempi vengono determinati come segue:
Nelle tabelle seguenti sono riepilogati i prezzi per ogni regione in cui è disponibile Neural Architecture Search.
Prezzi
Nelle tabelle seguenti sono riportati i prezzi per ora delle varie configurazioni.
Puoi scegliere un livello di scalabilità predefinito o una configurazione personalizzata dei tipi di macchine selezionati. Se scegli una configurazione personalizzata, somma i costi delle macchine virtuali che utilizzi.
I prezzi dei tipi di macchine legacy compatibili con l'acceleratore includono il costo degli acceleratori. Se utilizzi tipi di macchine di Compute Engine e colleghi gli acceleratori, il costo degli acceleratori è separato. Per calcolare questo costo, moltiplica i prezzi nella tabella degli acceleratori seguente per il numero degli acceleratori utilizzati per ciascun tipo.
Tipi di macchina
Tipo di macchina | Prezzo (USD) |
|---|---|
n1-standard-4 | 0,2849985 USD / 1 hour |
n1-standard-8 | 0,569997 USD / 1 hour |
n1-standard-16 | 1,139994 USD / 1 hour |
n1-standard-32 | 2,279988 USD / 1 hour |
n1-standard-64 | 4,559976 USD / 1 hour |
n1-standard-96 | 6,839964 USD / 1 hour |
n1-highmem-2 | 0,1774545 USD / 1 hour |
n1-highmem-4 | 0,1774545 USD / 1 hour |
n1-highmem-8 | 0,709818 USD / 1 hour |
n1-highmem-16 | 1,419636 USD / 1 hour |
n1-highmem-32 | 2,839272 USD / 1 hour |
n1-highmem-64 | 5,678544 USD / 1 hour |
n1-highmem-96 | 8,517816 USD / 1 hour |
n1-highcpu-16 | 0,8501832 USD / 1 hour |
n1-highcpu-32 | 1,7003664 USD / 1 hour |
n1-highcpu-64 | 3,4007328 USD / 1 hour |
n1-highcpu-96 | 5,1010992 USD / 1 hour |
a2-highgpu-1g | 5,641070651 USD / 1 hour |
a2-highgpu-2g | 11,282141301 USD / 1 hour |
a2-highgpu-4g | 22,564282603 USD / 1 hour |
a2-highgpu-8g | 45,128565205 USD / 1 hour |
a2-highgpu-16g | 90,257130411 USD / 1 hour |
e2-standard-4 | 0,20103426 USD / 1 hour |
e2-standard-8 | 0,40206852 USD / 1 hour |
e2-standard-16 | 0,80413704 USD / 1 hour |
e2-standard-32 | 1,60827408 USD / 1 hour |
e2-highmem-2 | 0,13559949 USD / 1 hour |
e2-highmem-4 | 0,27119898 USD / 1 hour |
e2-highmem-8 | 0,54239796 USD / 1 hour |
e2-highmem-16 | 1,08479592 USD / 1 hour |
e2-highcpu-16 | 0,59364288 USD / 1 hour |
e2-highcpu-32 | 1,18728576 USD / 1 hour |
n2-standard-4 | 0,291354 USD / 1 hour |
n2-standard-8 | 0,582708 USD / 1 hour |
n2-standard-16 | 1,165416 USD / 1 hour |
n2-standard-32 | 2,330832 USD / 1 hour |
n2-standard-48 | 3,496248 USD / 1 hour |
n2-standard-64 | 4,661664 USD / 1 hour |
n2-standard-80 | 5,82708 USD / 1 hour |
n2-highmem-2 | 0,196521 USD / 1 hour |
n2-highmem-4 | 0,393042 USD / 1 hour |
n2-highmem-8 | 0,786084 USD / 1 hour |
n2-highmem-16 | 1,572168 USD / 1 hour |
n2-highmem-32 | 3,144336 USD / 1 hour |
n2-highmem-48 | 4,716504 USD / 1 hour |
n2-highmem-64 | 6,288672 USD / 1 hour |
n2-highmem-80 | 7,86084 USD / 1 hour |
n2-highcpu-16 | 0,860352 USD / 1 hour |
n2-highcpu-32 | 1,720704 USD / 1 hour |
n2-highcpu-64 | 3,441408 USD / 1 hour |
n2-highcpu-80 | 4,30176 USD / 1 hour |
c2-standard-4 | 0,313212 USD / 1 hour |
c2-standard-8 | 0,626424 USD / 1 hour |
c2-standard-16 | 1,252848 USD / 1 hour |
c2-standard-30 | 2,34909 USD / 1 hour |
c2-standard-60 | 4,69818 USD / 1 hour |
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
I prezzi per le istanze a2-highgpu includono i costi degli acceleratori NVIDIA_TESLA_A100 collegati.
Acceleratori
Tipo di GPU | Prezzo (USD) |
|---|---|
NVIDIA_TESLA_A100 | 4,400862 USD / 1 hour |
NVIDIA_TESLA_P4 | 0,90 USD / 1 hour |
NVIDIA_TESLA_P100 | 2,19 USD / 1 hour |
NVIDIA_TESLA_T4 | 0,525 USD / 1 hour |
NVIDIA_TESLA_V100 | 3,72 USD / 1 hour |
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
Dischi
Tipo di disco | Prezzo (USD) |
|---|---|
pd-standard | 0,000082192 USD / 1 gibibyte hour |
pd-ssd | 0,000349315 USD / 1 gibibyte hour |
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
Note:
Uso obbligatorio di Cloud Storage
Oltre ai costi descritti in questo documento, ti viene richiesto di archiviare i file di dati e i file di programma nei bucket Cloud Storage durante il ciclo di vita di Neural Architecture Search. Questa archiviazione è soggetta alle politiche di prezzo di Cloud Storage.
L'uso obbligatorio di Cloud Storage include:
Nota: per archiviare i dati di input, come quelli di BigQuery, puoi utilizzare un altro servizio Google Cloud, che è associato a prezzi specifici.
Operazioni gratuite per la gestione delle risorse
Le operazioni di gestione delle risorse fornite da Neural Architecture Search sono disponibili senza costi aggiuntivi. Alcune di queste operazioni sono limitate dalle norme relative alle quote di Neural Architecture Search.
Risorsa | Operazioni gratuite |
|---|---|
job | get, list, cancel |
operazioni | get, list, cancel, delete |
Vertex AI Pipelines addebita una tariffa di esecuzione di 0,03 $per ogni pipeline in esecuzione. Durante la release di anteprima non ti viene addebitato alcun costo di esecuzione. Paghi anche per le risorse di Google Cloud che utilizzi con Vertex AI Pipelines, ad esempio le risorse Compute Engine consumate dai componenti della pipeline (addebitate alla stessa tariffa dell' addestramento Vertex AI). Infine, sei responsabile del costo di eventuali servizi (ad esempio Dataflow) richiamati dalla tua pipeline.
Vertex AI Feature Store è disponibile al pubblico generale (GA) dal novembre 2023. Per informazioni sulla versione precedente del prodotto, visita Vertex AI Feature Store (legacy).
Nuovo Vertex AI Feature Store
Il nuovo Vertex AI Feature Store supporta funzionalità per 2 tipi di operazioni:
Prezzi delle operazioni offline
Poiché per le operazioni offline si utilizza BigQuery, per funzionalità come l'importazione nel datastore offline, l'interrogazione del datastore offline e l'archiviazione offline, consulta i prezzi di BigQuery.
Prezzi delle operazioni online
Per le operazioni online, Vertex AI Feature Store addebita un costo per ogni funzionalità GA utilizzata per trasferire dati nel datastore online, distribuire dati o archiviare dati. Per ora nodo si intende il tempo impiegato da una macchina virtuale per completare un'operazione, addebitato per incrementi di un minuto.
Operazione | Prezzo (USD) |
|---|---|
Nodo di elaborazione dei dati Elaborazione dei dati (ad es. importazione in qualsiasi memorizzazione, monitoraggio e così via. | 0,08 USD / 1 hour |
Nodo per la distribuzione online ottimizzata Pubblicazione a bassa latenza e pubblicazione degli incorporamenti Ogni nodo include 200 GB di spazio di archiviazione | 0,30 USD / 1 hour |
Nodo per la distribuzione online tramite Bigtable Distribuzione con Cloud Bigtable | 0,94 USD / 1 hour |
Spazio di archiviazione per la distribuzione online tramite Bigtable Archiviazione per la distribuzione con Cloud Bigtable | 0,000342466 USD / 1 gibibyte hour |
Per la distribuzione online ottimizzata e la distribuzione online tramite Bigtable vengono utilizzate architetture diverse, pertanto i relativi nodi non sono confrontabili.
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
Stime dei carichi di lavoro per le operazioni online
Per la stima dei carichi di lavoro, considera le linee guida riportate di seguito. Il numero di nodi necessari per un determinato carico di lavoro può variare a seconda dell'approccio di distribuzione adottato.
Puoi visualizzare il numero di nodi (con repliche) in Esplora metriche:

Scenari mensili di esempio (riferiti a us-central1)
Carico di lavoro per streaming di dati - Distribuzione online tramite Bigtable con 2,5 TB di dati (1 GB di dati aggiornato quotidianamente) e 1200 QPS
Operazioni | Utilizzo mensile | Costo mensile |
|---|---|---|
Nodo di elaborazione dei dati | (1 GB al giorno) * (30 giorni al mese) * (1000 MB per GB) * (1 ora nodo / 100 MB) = 300 ore nodo | 300 ore nodo * (0,08 $ per ora nodo) = 24 $ |
Nodo per la distribuzione online ottimizzata | N/A | N/A |
Nodo per la distribuzione online tramite Bigtable | (1 nodo) * (24 ore al giorno) * (30 giorni al mese) = 720 ore nodo | 720 ore nodo * (0,94 $ per ora nodo) = 677 $ |
Spazio di archiviazione per la distribuzione online tramite Bigtable | (2,5 TB al mese) * (1000 GB per TB) = 2500 GB al mese | 2500 GB al mese * (0,25 $ per GB al mese) = 625 $ |
Totale | 1.326 $ |
Carico di lavoro con QPS elevati - Distribuzione online ottimizzata con 10 GB di dati non incorporati (5 GB aggiornati quotidianamente) e 2000 QPS
Operazioni | Utilizzo mensile | Costo mensile |
|---|---|---|
Nodo di elaborazione dei dati | (5 GB al giorno) * (30 giorni al mese) * (1000 MB per GB) * (1 ora nodo / 100 MB) = 1500 ore nodo | 1500 ore nodo * (0,08 $ per ora nodo) = 120 $ |
Nodo per la distribuzione online ottimizzata | Roundup(10 GB * (1 nodo / 200 GB)) = 1 * max(2 repliche predefinite, 2000 QPS * (1 replica / 500 QPS)) = 4 nodi totali * (24 ore al giorno) * (30 giorni al mese) =2880 ore nodo | 2880 ore nodo * (0,30 $ per ora nodo) = 864 $ |
Nodo per la distribuzione online tramite Bigtable | N/A | N/A |
Spazio di archiviazione per la distribuzione online tramite Bigtable | N/A | N/A |
Totale | 984$ |
Carico di lavoro per la distribuzione degli incorporamenti - Distribuzione online ottimizzata con 20 GB di dati di incorporamento (2 GB aggiornati quotidianamente) e 800 QPS
Operazioni | Utilizzo mensile | Costo mensile |
|---|---|---|
Nodo di elaborazione dei dati | (2 GB al giorno) * (30 giorni al mese) * (1000 MB per GB) * (1 ora nodo / 100 MB) = 600 ore nodo | 600 ore nodo * (0,08 $ per ora nodo) = 48 $ |
Nodo per la distribuzione online ottimizzata | Arrotondamento per eccesso(20 GB* (1 nodo / 4 GB) = 5 * max(2 repliche predefinite, 800 QPS * (1 replica / 500 QPS)) = 10 nodi totali * (24 ore/giorno) * (30 giorni/mese) = 7200 ore nodo | 7200 ore nodo * (0,30 $ per ora nodo) = 2160 $ |
Nodo per la distribuzione online tramite Bigtable | N/A | N/A |
Spazio di archiviazione per la distribuzione online tramite Bigtable | N/A | N/A |
Totale | 2208$ |
Vertex AI Feature Store (legacy)
I prezzi per Vertex AI Feature Store (legacy) si basano sulla quantità di dati sulle caratteristiche nello spazio di archiviazione online e offline e sulla disponibilità della distribuzione online. Un' ora nodo è il tempo impiegato da una macchina virtuale per distribuire i dati delle caratteristiche o per cui rimane in attesa, pronta per la gestione delle richieste di dati delle caratteristiche.
Operazione | Prezzo (USD) |
|---|---|
Archiviazione online | 0,25 $ per GB al mese |
Archiviazione offline | 0,023 $ per GB al mese |
Pubblicazione online | 0,94 $ per nodo all'ora |
Esportazione batch | 0,005 $ per GB |
Importazione di flussi di dati | 0,10 $ per GB di importazione |
Se la valuta utilizzata per il pagamento è diversa dai dollari statunitensi, si applicano i prezzi nella tua valuta elencati negli SKU Cloud Platform.
Se attivi il monitoraggio del valore delle funzionalità, la fatturazione include i costi applicabili precedenti, in aggiunta a quelli riportati di seguito:
Esempio di analisi degli snapshot
Un data scientist abilita il monitoraggio del valore delle funzionalità per Vertex AI Feature Store (legacy) e attiva il monitoraggio per un'analisi quotidiana degli snapshot. Viene eseguita quotidianamente una pipeline per il monitoraggio dei tipi di entità. Questa pipeline scansiona 2 GB di dati in Vertex AI Feature Store (legacy) ed esporta uno snapshot contenente 0,1 GB di dati. Il costo totale per un giorno di analisi è:
(0,1 GB * 3,50 $) + (2 GB * 0,005 $) = 0,36 $
Esempio di analisi dell'importazione
Un data scientist abilita il monitoraggio del valore delle funzionalità per Vertex AI Feature Store (legacy) e attiva il monitoraggio per le operazioni di importazione. Un'operazione di importazione importa 1 GB di dati in Vertex AI Feature Store (legacy). Il costo totale per il monitoraggio del valore delle funzionalità è:
(1 GB * 3,50 $) = 3,50 $
L'archiviazione dei metadati viene misurata in gigabyte binari (GiB), dove 1 GiB corrisponde a 1.073.741.824 byte. Questa unità di misura è nota anche come gibibyte.
Vertex ML Metadata addebita 10 $per gibibyte (GiB) al mese per l'archiviazione dei metadati. I prezzi vengono calcolati in proporzione, per incrementi di 1 megabyte (MB). Se ad esempio archivi 10 MB di metadati, ti vengono addebitati 0, 10 $al mese per quei 10 MB di metadati.
Nota: i prezzi sono gli stessi per tutte le regioni in cui è supportato Vertex ML Metadata.
Per usare Vertex AI TensorBoard, chiedi all'amministratore IAM del progetto di assegnarti il ruolo "Vertex AI TensorBoard Web App User". Anche l'utente con ruolo Vertex AI Administrator può accedere all'app.
Dall'agosto 2023 i prezzi di Vertex AI TensorBoard sono cambiati, passando da una licenza mensile per utente dal costo di 300 $al mese a un costo di 10 $per GiB al mese, per l'archiviazione dei dati di log e metriche. Di conseguenza, non ci sono più quote di abbonamento. Paghi soltanto lo spazio di archiviazione effettivamente utilizzato. Per informazioni sulla gestione dello spazio di archiviazione, vedi il tutorial Vertex AI TensorBoard: eliminazione degli esperimenti TensorBoard obsoleti.
Vertex AI Vizier è un servizio di ottimizzazione black-box disponibile all'interno di Vertex AI. Il modello di prezzi di Vertex AI Vizier prevede quanto segue:
I prezzi del servizio Vector Search Approximate Nearest Neighbor prevedono:
I dati elaborati durante la creazione e l'aggiornamento degli indici vengono misurati in gigabyte binari (GiB), dove 1 GiB corrisponde a 1.073.741.824 byte. Questa unità di misura è nota anche come gibibyte.
In tutte le regioni, Vector Search addebita 3,00 $per gibibyte (GiB) di dati elaborati. Vector Search addebita 0,45 $per GiB importato per gli inserimenti di aggiornamenti in streaming.
Nelle tabelle seguenti sono riepilogati i prezzi per la distribuzione di un indice in ogni regione in cui è disponibile Vector Search. Per ogni regione, il prezzo dipende dal tipo di macchina e viene addebitato per ora nodo.
Tipo di macchina | Prezzo (USD) |
|---|---|
e2-standard-2 | 0,0938084 USD / 1 hour |
e2-standard-16 | 0,7504672 USD / 1 hour |
e2-highmem-16 | 1,012368 USD / 1 hour |
n2d-standard-32 | 1,8926208 USD / 1 hour |
n1-standard-16 | 1,0639944 USD / 1 hour |
n1-standard-32 | 2,1279888 USD / 1 hour |
Esempi sui prezzi di Vector Search
I prezzi di Vector Search sono determinati dalle dimensioni dei dati, dal numero di query al secondo (QPS) che desideri eseguire e dal numero di nodi che utilizzi. Per stimare il costo di distribuzione, devi calcolare la dimensione totale dei dati. La dimensione dei dati si ottiene moltiplicando il numero degli incorporamenti/vettori per il numero delle dimensioni utilizzate, quindi per i 4 byte di ogni dimensione. Dopo aver determinato la dimensione dei dati, puoi calcolare il costo di distribuzione e il costo di creazione. Il costo totale mensile è dato dal costo di distribuzione più il costo di creazione.
Aggiornamento in modalità flusso: Vector Search utilizza metriche basate su euristica per determinare quando attivare la compattazione. Se i dati non compattati più vecchi hanno cinque giorni, la compattazione viene sempre attivata. Ti viene addebitato il costo di ricostruzione dell'indice alla stessa tariffa di un aggiornamento batch, oltre ai costi di aggiornamento in modalità flusso.
Numero di incorporamenti/vettori | Numero di dimensioni | Query al secondo (QPS) | Tipo di macchina | Nodi | Costo di distribuzione mensile stimato (USD) |
|---|---|---|---|---|---|
2 milioni | 128 | 100 | e2-standard-2 | 1 | 68 $ |
20 milioni | 256 | 1000 | e2-standard-16 | 1 | 547 $ |
20 milioni | 256 | 3000 | e2-standard-16 | 3 | 1.642 $ |
100 milioni | 256 | 500 | e2-highmem-16 | 2 | 1.477 $ |
1 miliardo | 100 | 500 | e2-highmem-16 | 8 | 5.910 $ |
Tutti gli esempi sono basati sui tipi di macchina in us-central1. Il costo addebitato dipende dal tasso di richiamo e dai requisiti di latenza. Il costo di distribuzione mensile stimato è direttamente correlato al numero di nodi nella console. Per ulteriori informazioni sui parametri di configurazione che influiscono sui costi, vedi Parametri di configurazione che influiscono su richiamo e latenza.
Se il tuo numero di query al secondo (QPS) è molto elevato, eseguendo le query in batch puoi ridurre i costi totali fino al 30-40%.
Livello di ricerca vettoriale ottimizzato per l'archiviazione
Invece di gestire e pagare singole VM e job di compattazione separati, sono disponibili due SKU:
Unità | Prezzo |
|---|---|
Unità di capacità ottimizzata per l'archiviazione | 2,30 USD / 1 hour |
Unità di scrittura | 0,45 USD / 1 gibibyte |
Vertex AI Model Registry è un repository centrale che monitora ed elenca i tuoi modelli con le relative versioni. I modelli che importi in Vertex AI vengono visualizzati in Vertex AI Model Registry. L'inserimento dei modelli in Model Registry non comporta alcun costo. Ti viene addebitato un costo solo se distribuisci il modello in un endpoint o esegui una previsione batch basata sul modello. Questo costo viene determinato in base al tipo di modello che distribuisci.
Per ulteriori informazioni sui prezzi di distribuzione dei modelli personalizzati da Vertex AI Model Registry, vedi Modelli con addestramento personalizzato. Per ulteriori informazioni sui prezzi di distribuzione dei modelli AutoML, vedi Prezzi per i modelli AutoML.
Vertex AI consente di monitorare l'efficacia continua del tuo modello dopo il deployment in produzione. Per ulteriori informazioni, consulta Introduzione a Vertex AI Model Monitoring.
Quando utilizzi Vertex AI Model Monitoring, ti vengono addebitati i costi seguenti:
Vertex AI Model Monitoring è supportato nelle seguenti regioni: us-central1, europe-west4, asia-east1 e asia-southeast1. I prezzi sono uguali per tutte le regioni.
Le dimensioni dei dati vengono calcolate dopo la relativa conversione nel formato TFRecord.
L'addestramento dei set di dati prevede un addebito una tantum, quando configuri un job Vertex AI Model Monitoring.
I set di dati di previsione sono costituiti dai log raccolti dal servizio di previsione online. Man mano che vengono ricevute le richieste di previsione, durante le varie finestre temporali, vengono raccolti i dati per ogni finestra temporale e la somma dei dati analizzati per ogni finestra di previsione viene utilizzata per calcolare l'addebito.
Esempio: un data scientist esegue il monitoraggio del modello sul traffico di previsione appartenente al suo modello.
Per informazioni sui prezzi, seleziona Istanze, Blocchi note gestiti o Blocchi note gestiti dall'utente.
Istanze
Le tabelle riportate di seguito mostrano il prezzo per ora approssimativo delle diverse configurazioni di addestramento. Puoi scegliere una configurazione personalizzata dei tipi di macchine selezionati. Per calcolare i prezzi, somma i costi delle macchine virtuali che utilizzi.
Se utilizzi tipi di macchine di Compute Engine e colleghi gli acceleratori, il costo degli acceleratori è separato. Per calcolare questo costo, moltiplica i prezzi nella tabella degli acceleratori riportata sotto per il numero di ore macchina per ciascun tipo di acceleratore utilizzato.
CPU
Tipo di macchina | Prezzo per vCPU (USD) |
|---|---|
N1 | 0,0379332 USD / 1 hour |
N2 | 0,0379332 USD / 1 hour |
E2 | 0,026173908 USD / 1 hour |
A2 | 0,0379332 USD / 1 hour |
Memoria
Tipo di macchina | Prezzo (USD) |
|---|---|
N1 | 0,0050844 USD / 1 gibibyte hour |
N2 | 0,0050844 USD / 1 gibibyte hour |
E2 | 0,003508236 USD / 1 gibibyte hour |
A2 | 0,0050844 USD / 1 gibibyte hour |
Acceleratori
Tipo di macchina | Prezzo (USD) |
|---|---|
Nvidia Tesla A100 | 4,400862 USD / 1 hour |
Nvidia Tesla A100 80GB | 4,51729 USD / 1 hour |
Nvidia Tesla T4 | 0,525 USD / 1 hour |
Nvidia Tesla V100 | 3,72 USD / 1 hour |
Nvidia Tesla P100 | 2,19 USD / 1 hour |
Dischi
Tipo di macchina | Prezzo (USD) |
|---|---|
Spazio sottoposto a provisioning Hyperdisk Extreme | 0,000205479 USD / 1 gibibyte hour |
Spazio per provisioning bilanciato | 0,000164384 USD / 1 gibibyte hour |
Spazio per provisioning elevato | 0,000205479 USD / 1 gibibyte hour |
Spazio con provisioning SSD | 0,000279452 USD / 1 gibibyte hour |
Spazio per provisioning standard | 0,000065753 USD / 1 gibibyte hour |
La tua istanza Vertex AI Workbench comporta i seguenti addebiti:
Notebook gestiti
Il prezzo include le risorse di elaborazione e archiviazione che utilizzi, le tariffe di gestione per le tue istanze di Vertex AI Workbench e tutte le risorse cloud aggiuntive che utilizzi. Per ulteriori dettagli, vedi le sezioni seguenti.
Risorse di calcolo e archiviazione
Per le risorse di elaborazione e archiviazione viene addebitata la stessa tariffa che paghi attualmente per Compute Engine e Cloud Storage.
Commissioni di gestione
All'uso dell'infrastruttura vengono aggiunte le tariffe di gestione di Vertex AI Workbench, come indicato nelle tabelle seguenti.
SKU | Prezzo (USD) |
|---|---|
vCPU | 0,05 $ per vCPU |
T4 e P4 (GPU Standard) | $ 0,35 per GPU |
GPU P100, V100, L4 e A100 (GPU Premium) | $ 2,48 per GPU |
Notebook gestiti dall'utente
Il prezzo include le risorse di elaborazione e archiviazione che utilizzi, le tariffe di gestione per le tue istanze di Vertex AI Workbench e tutte le risorse cloud aggiuntive che utilizzi. Per ulteriori dettagli, vedi le sezioni seguenti.
Risorse di calcolo e archiviazione
Per le risorse di elaborazione e archiviazione viene addebitata la stessa tariffa che paghi attualmente per Compute Engine e Cloud Storage.
Commissioni di gestione
All'uso dell'infrastruttura vengono aggiunte le tariffe di gestione di Vertex AI Workbench, come indicato nelle tabelle seguenti.
SKU | Prezzo (USD) |
|---|---|
vCPU | 0,005 $ per vCPU |
T4 e P4 (GPU Standard) | 0,035 $ per GPU |
GPU P100, V100 e A100 (GPU Premium) | 0,25 $ per GPU |
Risorse Google Cloud aggiuntive
Oltre ai costi indicati in precedenza, paghi anche tutte le risorse Google Cloud utilizzate. Ad esempio:
Per informazioni sui prezzi di Colab Enterprise, consulta la pagina Prezzi di Colab Enterprise.
I prezzi relativi a Deep Learning Containers, Deep Learning VM Image e AI Platform Pipelines vengono calcolati in base alle risorse di elaborazione e archiviazione che utilizzi. Per queste risorse viene addebitata la stessa tariffa che paghi attualmente per Compute Engine e Cloud Storage.
Oltre ai costi delle risorse di elaborazione e archiviazione, paghi anche tutte le risorse di Google Cloud che utilizzi. Ad esempio:
Vertex AI ti consente di richiedere l'etichettatura umana per una raccolta di dati che prevedi di utilizzare per addestrare un modello di machine learning personalizzato. I prezzi di questo servizio vengono calcolati in base al tipo di attività di etichettatura.
La tabella riportata di seguito indica il costo relativo a 1000 unità per etichettatore umano in base all'unità elencata per ogni obiettivo. I prezzi del livello 1 si applicano alle prime 50.000 unità al mese in ogni progetto Google Cloud. I prezzi del livello 2 si applicano alle successive 950.000 unità al mese nel progetto, fino a 1.000.000 di unità. Contattaci per conoscere i prezzi per quantità superiori a 1.000.000 di unità al mese.
Tipo di dati | Obiettivo | Unità | Prezzo di livello 1 (USD) | Prezzo di livello 2 (USD) |
|---|---|---|---|---|
Immagine | Classificazione | Immagine | 35 $ | 25 $ |
Riquadro di delimitazione | Riquadro di delimitazione | 63 $ | 49 $ | |
Segmentazione | Segmento | 870 $ | 850 $ | |
Riquadro ruotato | Riquadro di delimitazione | 86 $ | 60 $ | |
Poligono/polilinea | Poligono/Polilinea | 257 $ | $ 180 | |
Video | Classificazione | Video di 5 sec. | 86 $ | 60 $ |
Monitoraggio oggetti | Riquadro di delimitazione | 86 $ | 60 $ | |
Riconoscimento delle azioni | Evento in video di 30 sec | $ 214 | 150 $ | |
Testo | Classificazione | 50 parole | 129 $ | 90 $ |
Sentiment | 50 parole | 200 $ | 140 $ | |
Estrazione di entità | Entità | 86 $ | 60 $ | |
Apprendimento attivo | Tutti | Elemento dati | $ 80 | 56 $ |
Etichettatore personalizzato | Tutti | Elemento dati | $ 80 | 56 $ |
Oltre ai costi descritti in questo documento, ti viene richiesto di archiviare file di dati e file di programma nei bucket Cloud Storage durante il ciclo di vita di Vertex AI. Questa archiviazione è soggetta alle politiche di prezzo di Cloud Storage.
L'uso obbligatorio di Cloud Storage include:
Le operazioni di gestione delle risorse fornite da AI Platform sono disponibili gratuitamente. I criteri per le quote di AI Platform limitano alcune di queste operazioni.
Risorsa | Operazioni gratuite |
|---|---|
modelli | create, get, list, delete |
versioni | create, get, list, delete, setDefault |
job | get, list, cancel |
operazioni | get, list, cancel, delete |
Se archivi le immagini da analizzare in Cloud Storage o utilizzi altre risorse di Google Cloud insieme a Vertex AI, ti verrà addebitato anche l'uso di questi servizi.
Per visualizzare lo stato di fatturazione corrente nella console Google Cloud, inclusi l'utilizzo e la fattura attuale, consulta la pagina Fatturazione. Per ulteriori informazioni sulla gestione del tuo account, consulta la documentazione di Cloud Billing o la pagina di assistenza per fatturazione e pagamenti.