Les tarifs sont indiqués en dollars américains (USD). Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
Les coûts de Vertex AI restent identiques à ceux des anciens produits AI Platform et AutoML qu'il remplace, à l'exception des éléments suivants :
Vertex AI a également pour particularité d'offrir davantage de moyens d'optimiser les coûts :
Pour obtenir des informations concernant les tarifs de l'IA générative sur Vertex AI, consultez cette page.
Pour les modèles Vertex AI AutoML, vous payez trois activités principales :
Vertex AI utilise des configurations de machine prédéfinies pour les modèles Vertex AutoML, et le tarif horaire pour ces activités reflète l'utilisation des ressources.
La durée requise dépend de la taille et de la complexité de vos données d'entraînement. Les modèles doivent être déployés avant de pouvoir fournir des prédictions ou des explications en ligne.
Vous payez pour chaque modèle déployé sur un point de terminaison, même si aucune prédiction n'est effectuée. Vous devez annuler le déploiement de votre modèle pour ne pas générer de frais supplémentaires. Les modèles qui ne sont pas déployés ou dont le déploiement a échoué ne sont pas facturés.
Vous ne payez que les heures de calcul utilisées. Si l'entraînement échoue pour une raison autre qu'une annulation déclenchée par l'utilisateur, le temps ne vous est pas facturé. En revanche, il vous sera facturé si vous annulez l'opération.
Sélectionnez un type de modèle ci-dessous pour accéder aux informations tarifaires.
Données d'image
Opération | Prix (classification) (USD) | Prix (détection d'objets) (USD) |
|---|---|---|
Entraînement | 3,465 $US / 1 hour | 3,465 $US / 1 hour |
Entraînement (modèle Edge sur appareil) | 18,00 $US / 1 hour | 18,00 $US / 1 hour |
Déploiement et prédiction en ligne | 1,375 $US / 1 hour | 2,002 $US / 1 hour |
Prédiction par lot | 2,222 $US / 1 hour | 2,222 $US / 1 hour |
Données tabulaires
Opération | Prix par heure-nœud pour la classification/régression | Prix des prévisions |
|---|---|---|
Entraînement | 21,252 $US / 1 hour | Consultez Vertex AI Forecast |
Inférence | Même prix que l'inférence pour les modèles entraînés personnalisés. Vertex AI effectue l'inférence par lot à l'aide de 40 machines n1-highmem-8. | Consultez Vertex AI Forecast |
Frais d'inférence pour Vertex Explainable AI
Les calculs associés à Vertex Explainable AI sont facturés au même tarif que l'inférence. Cependant, le traitement des explications est plus long que celui des inférences standards. L'utilisation intensive de Vertex Explainable AI avec l'autoscaling peut donc entraîner le démarrage de davantage de nœuds, et ainsi augmenter les frais encourus pour les inférences.
AutoML
Étape | Tarifs |
|---|---|
Prédiction | 0 count to 1,000,000 count 0,20 $US / 1,000 count, per 1 month / account 1,000,000 count to 50,000,000 count 0,10 $US / 1,000 count, per 1 month / account 50,000,000 count and above 0,02 $US / 1,000 count, per 1 month / account |
Entraînement | 21,252 $US / 1 hour |
Explainable AI | Explicabilité utilisant les valeurs de Shapley. Consultez la page des tarifs de Vertex AI pour l'inférence et les explications. |
* Un point de données de prédiction correspond à un moment précis dans l'horizon de prévision. Par exemple, avec une précision quotidienne, un horizon à sept jours correspond à sept points pour chaque série temporelle.
ARIMA+
Étape | Tarifs |
|---|---|
Prédiction | 5,00 $US / 1,000 count |
Entraînement | 250,00$par To x nombre de modèles candidats x nombre de fenêtres de tests rétrospectifs* |
Explainable AI | L'explicabilité avec décomposition des séries temporelles ne génère pas de frais supplémentaires. L'explicabilité utilisant les valeurs de Shapley n'est pas prise en charge. |
Reportez-vous à la page des tarifs de BigQuery ML pour en savoir plus. Chaque job d'entraînement et de prédiction entraîne la facturation d'une exécution de pipeline géré, comme décrit dans Tarification de Vertex AI.
* Une fenêtre de tests rétrospectifs est créée pour chaque période dans l'ensemble de test. La valeur AUTO_ARIMA_MAX_ORDER utilisée détermine le nombre de modèles candidats. Ce nombre varie entre 6 et 42 pour les modèles comportant plusieurs séries temporelles.
Formation
Les tableaux ci-dessous indiquent le coût par heure approximatif des différentes configurations d'entraînement. Vous pouvez choisir une configuration personnalisée pour les types de machines sélectionnés. Pour calculer les prix, additionnez les coûts des machines virtuelles que vous utilisez.
Si vous utilisez des types de machines Compute Engine et que vous y associez des accélérateurs, les frais qui y sont liés sont distincts. Pour calculer ces frais, multipliez les tarifs indiqués dans le tableau sur les accélérateurs ci-dessous par le nombre d'heures-machine de chaque type d'accélérateur utilisé.
Types de machines
Vous pouvez utiliser des VM Spot pour l'entraînement personnalisé Vertex AI.Les VM Spot sont facturées conformément aux tarifs des VM Spot Compute Engine. Des frais de gestion de l'entraînement personnalisé Vertex AI s'ajoutent à votre utilisation de l'infrastructure, comme indiqué dans les tableaux ci-dessous.
Vous pouvez utiliser des réservations Compute Engine avec l'entraînement personnalisé Vertex AI. Lorsque vous utilisez des réservations Compute Engine, vous êtes facturé selon les tarifs de Compute Engine, y compris les remises sur engagement d'utilisation applicables. Des frais de gestion de l'entraînement personnalisé Vertex AI s'ajoutent à votre utilisation de l'infrastructure, comme indiqué dans les tableaux ci-dessous.
Type de machine | Prix (USD) |
|---|---|
g4-standard-48 | 5,17508763 $US / 1 hour |
g4-standard-96 | 10,35017526 $US / 1 hour |
g4-standard-192 | 20,70035052 $US / 1 hour |
g4-standard-384 | 41,40070104 $US / 1 hour |
n1-standard-4 | 0,21849885 $US / 1 hour |
n1-standard-8 | 0,4369977 $US / 1 hour |
n1-standard-16 | 0,8739954 $US / 1 hour |
n1-standard-32 | 1,7479908 $US / 1 hour |
n1-standard-64 | 3,4959816 $US / 1 hour |
n1-standard-96 | 5,2439724 $US / 1 hour |
n1-highmem-2 | 0,13604845 $US / 1 hour |
n1-highmem-4 | 0,2720969 $US / 1 hour |
n1-highmem-8 | 0,5441938 $US / 1 hour |
n1-highmem-16 | 1,0883876 $US / 1 hour |
n1-highmem-32 | 2,1767752 $US / 1 hour |
n1-highmem-64 | 4,3535504 $US / 1 hour |
n1-highmem-96 | 6,5303256 $US / 1 hour |
n1-highcpu-16 | 0,65180712 $US / 1 hour |
n1-highcpu-32 | 1,30361424 $US / 1 hour |
n1-highcpu-64 | 2,60722848 $US / 1 hour |
n1-highcpu-96 | 3,91084272 $US / 1 hour |
a2-highgpu-1g* | 4,425248914 $US / 1 hour |
a2-highgpu-2g* | 8,850497829 $US / 1 hour |
a2-highgpu-4g* | 17,700995658 $US / 1 hour |
a2-highgpu-8g* | 35,401991315 $US / 1 hour |
a2-megagpu-16g* | 65,707278915 $US / 1 hour |
a3-highgpu-8g* | 101,007352 $US / 1 hour |
a3-megagpu-8g* | 106,0464232 $US / 1 hour |
a3-ultragpu-8g* | 99,7739296 $US / 1 hour |
a4-highgpu-8g* | 148,212 $US / 1 hour |
e2-standard-4 | 0,154126276 $US / 1 hour |
e2-standard-8 | 0,308252552 $US / 1 hour |
e2-standard-16 | 0,616505104 $US / 1 hour |
e2-standard-32 | 1,233010208 $US / 1 hour |
e2-highmem-2 | 0,103959618 $US / 1 hour |
e2-highmem-4 | 0,207919236 $US / 1 hour |
e2-highmem-8 | 0,415838472 $US / 1 hour |
e2-highmem-16 | 0,831676944 $US / 1 hour |
e2-highcpu-16 | 0,455126224 $US / 1 hour |
e2-highcpu-32 | 0,910252448 $US / 1 hour |
n2-standard-4 | 0,2233714 $US / 1 hour |
n2-standard-8 | 0,4467428 $US / 1 hour |
n2-standard-16 | 0,8934856 $US / 1 hour |
n2-standard-32 | 1,7869712 $US / 1 hour |
n2-standard-48 | 2,6804568 $US / 1 hour |
n2-standard-64 | 3,5739424 $US / 1 hour |
n2-standard-80 | 4,467428 $US / 1 hour |
n2-highmem-2 | 0,1506661 $US / 1 hour |
n2-highmem-4 | 0,3013322 $US / 1 hour |
cloud-tpu | Les tarifs sont déterminés par le type d'accélérateur (voir "Accélérateurs"). |
n2-highmem-8 | 0,6026644 $US / 1 hour |
n2-highmem-16 | 1,2053288 $US / 1 hour |
n2-highmem-32 | 2,4106576 $US / 1 hour |
n2-highmem-48 | 3,6159864 $US / 1 hour |
n2-highmem-64 | 4,8213152 $US / 1 hour |
n2-highmem-80 | 6,026644 $US / 1 hour |
n2-highcpu-16 | 0,6596032 $US / 1 hour |
n2-highcpu-32 | 1,3192064 $US / 1 hour |
n2-highcpu-48 | 1,9788096 $US / 1 hour |
n2-highcpu-64 | 2,6384128 $US / 1 hour |
n2-highcpu-80 | 3,298016 $US / 1 hour |
c2-standard-4 | 0,2401292 $US / 1 hour |
c2-standard-8 | 0,4802584 $US / 1 hour |
c2-standard-16 | 0,9605168 $US / 1 hour |
c2-standard-30 | 1,800969 $US / 1 hour |
c2-standard-60 | 3,601938 $US / 1 hour |
m1-ultramem-40 | 7,237065 $US / 1 hour |
m1-ultramem-80 | 14,47413 $US / 1 hour |
m1-ultramem-160 | 28,94826 $US / 1 hour |
m1-megamem-96 | 12,249984 $US / 1 hour |
*Ce montant inclut le prix des GPU, car ce type d'instance nécessite toujours un nombre fixe d'accélérateurs GPU.
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
Accélérateurs
Type de machine | Prix (USD) | Frais de gestion Vertex |
|---|---|---|
NVIDIA_TESLA_A100 | 2,933908 $US / 1 hour | 0,4400862 $US / 1 hour |
NVIDIA_TESLA_A100_80GB | 3,92808 $US / 1 hour | 0,589212 $US / 1 hour |
NVIDIA_H100_80GB | 9,79655057 $US / 1 hour | 1,4694826 $US / 1 hour |
NVIDIA_H200_141GB | 10,708501 $US / 1 hour | Indisponible |
NVIDIA_H100_MEGA_80GB | 11,8959171 $US / 1 hour | Indisponible |
NVIDIA_TESLA_L4 | 0,644046276 $US / 1 hour | Indisponible |
NVIDIA_TESLA_P4 | 0,69 $US / 1 hour | Indisponible |
NVIDIA_TESLA_P100 | 1,679 $US / 1 hour | Indisponible |
NVIDIA_TESLA_T4 | 0,4025 $US / 1 hour | Indisponible |
NVIDIA_TESLA_V100 | 2,852 $US / 1 hour | Indisponible |
TPU_V2 Single (8 cœurs) | 5,175 $US / 1 hour | Indisponible |
Pod TPU_V2 (32 cœurs)* | 27,60 $US / 1 hour | Indisponible |
TPU_V3 Single (8 cœurs) | 9,20 $US / 1 hour | Indisponible |
Pod TPU_V3 (32 cœurs)* | 36,80 $US / 1 hour | Indisponible |
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
* Le prix de l'entraînement avec un pod Cloud TPU est basé sur le nombre de cœurs du pod. Le nombre de cœurs d'un pod est toujours un multiple de 32. Pour déterminer le prix de l'entraînement sur un pod comportant plus de 32 cœurs, prenez le prix d'un pod à 32 cœurs et multipliez-le par le nombre de cœurs divisé par 32. Par exemple, pour un pod à 128 cœurs, le prix est de (prix d'un pod à 32 cœurs) * (128/32). Pour en savoir plus sur les pods Cloud TPU disponibles pour une région donnée, consultez Architecture du système dans la documentation Cloud TPU.
Disques
Type de machine | Prix (USD) |
|---|---|
pd-standard | 0,000063014 $US / 1 gibibyte hour |
pd-ssd | 0,000267808 $US / 1 gibibyte hour |
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
L'entraînement de vos modèles vous est facturé à partir du moment où les ressources sont provisionnées pour un job et jusqu'à la fin de celui-ci.
Avertissement : Vos jobs d'entraînement sont limités par les règles de quotas de Vertex AI. Si vous choisissez un cluster de traitement très puissant pour vos premières tâches d'entraînement, vous dépasserez probablement votre quota.
Niveaux d'évolutivité pour les configurations prédéfinies (AI Platform Training)
Vous pouvez contrôler le type de cluster de traitement à utiliser pour l'entraînement de votre modèle. La méthode la plus simple consiste à choisir parmi l'une des configurations prédéfinies appelées niveaux d'évolutivité. En savoir plus sur les niveaux d'évolutivité
Types de machines pour les configurations personnalisées
Si vous utilisez Vertex AI ou sélectionnez le niveau d'évolutivité PERSONNALISÉ pour AI Platform Training, vous contrôlez le nombre et le type de machines virtuelles à utiliser pour le maître, le nœud de calcul et les serveurs de paramètres du cluster. En savoir plus sur les types de machines pour Vertex AI et les types de machines pour AI Platform Training
Le coût de l'entraînement avec un cluster de traitement personnalisé correspond à la somme de toutes les machines que vous indiquez. La durée totale du job vous est facturée (et non le temps de traitement actif de chaque machine).
Pour les métriques basées sur un modèle, seuls les coûts de prédiction associés au modèle d'évaluation automatique sous-jacent sont facturés. La facturation est basée sur les jetons d'entrée que vous fournissez dans votre ensemble de données d'évaluation et sur la sortie de l'évaluateur automatique.
Gen AI Evaluation Service est en disponibilité générale (DG). Les nouveaux tarifs sont appliqués depuis le 14 avril 2025.
métrique | Tarifs |
|---|---|
Par point | Modèle d'évaluation automatique par défaut Gemini 2.0 Flash |
Par paire | Modèle d'évaluation automatique par défaut Gemini 2.0 Flash |
Les métriques basées sur le calcul sont facturées 0,00003 $par tranche de 1 000 caractères d'entrée et 0,00009 $par tranche de 1 000 caractères de sortie. Elles sont appelées "métrique automatique" dans les SKU.
Nom de la métrique | Type |
|---|---|
Correspondance exacte | Basée sur le calcul |
Bleu | Basée sur le calcul |
Rouge | Basée sur le calcul |
Appel d'outil valide | Basée sur le calcul |
Correspondance du nom de l'outil | Basée sur le calcul |
Correspondance clé du paramètre d'outil | Basée sur le calcul |
Correspondance KV du paramètre d'outil | Basée sur le calcul |
Les tarifs sont indiqués en dollars américains (USD). Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
Les métriques basées sur les anciens modèles sont facturées 0,005 $par tranche de 1 000 caractères en entrée et 0,015 $par tranche de 1 000 caractères en sortie.
Nom de la métrique | Type |
|---|---|
Cohérence | Par point |
Niveau de langage | Par point |
Fulfillment | Par point |
Sécurité | Par point |
Ancrage | Par point |
Qualité de la synthèse | Par point |
Utilité de la synthèse | Par point |
Niveau de verbosité de la synthèse | Par point |
Qualité du système de questions-réponses | Par point |
Pertinence des réponses | Par point |
Utilité des réponses aux questions | Par point |
Exactitude des réponses | Par point |
Qualité de la synthèse par paire | Par paire |
Qualité du système de questions-réponses par paire | Par paire |
Les tarifs sont indiqués en dollars américains (USD). Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
Vertex AI Agent Engine est un ensemble de services permettant aux développeurs de faire évoluer les agents en production. Aujourd'hui, les tarifs sont établis pour l'environnement d'exécution Agent Engine. Les tarifs des autres services Agent Engine, tels que Sessions, Memory Bank et Code Execution, seront publiés ultérieurement (ils sont actuellement gratuits).
La tarification est basée sur les ressources de calcul (heures de vCPU) et de mémoire (heures de GiB) utilisées par les agents déployés dans l'environnement d'exécution Agent Engine. La facturation est arrondie à la seconde d'utilisation la plus proche. Le temps d'inactivité d'un agent n'est pas facturé.
Pour vous aider à vous lancer, nous proposons une version gratuite mensuelle.
Une fois que votre utilisation mensuelle dépasse le niveau gratuit, la facturation commence selon les tarifs ci-dessous.
Ressource | Prix (USD) |
|---|---|
vCPU | 0 hour to 50 hour 0,00 $US (Free) / 3,600 second, per 1 month / project 50 hour and above 0,0994 $US / 3,600 second, per 1 month / project |
RAM | 0 gigabyte hour to 100 gigabyte hour 0,00 $US (Free) / 3,600 gibibyte second, per 1 month / project 100 gigabyte hour and above 0,0105 $US / 3,600 gibibyte second, per 1 month / project |
Depuis le 6 novembre 2025, la tarification de l'environnement d'exécution Agent Engine a été simplifiée et un tarif unique s'applique dans toutes les régions où l'environnement d'exécution Agent Engine est disponible.
Formation
Les tableaux ci-dessous indiquent le coût par heure approximatif des différentes configurations d'entraînement. Vous pouvez choisir une configuration personnalisée pour les types de machines sélectionnés. Pour calculer les prix, additionnez les coûts des machines virtuelles que vous utilisez.
Si vous utilisez des types de machines Compute Engine et que vous y associez des accélérateurs, les frais qui y sont liés sont distincts. Pour calculer ces frais, multipliez les tarifs indiqués dans le tableau sur les accélérateurs ci-dessous par le nombre d'heures-machine de chaque type d'accélérateur utilisé.
Types de machines
Type de machine | Prix (USD) |
|---|---|
n1-standard-4 | 0,2279988 $US / 1 hour |
n1-standard-8 | 0,4559976 $US / 1 hour |
n1-standard-16 | 0,9119952 $US / 1 hour |
n1-standard-32 | 1,8239904 $US / 1 hour |
n1-standard-64 | 3,6479808 $US / 1 hour |
n1-standard-96 | 5,4719712 $US / 1 hour |
n1-highmem-2 | 0,1419636 $US / 1 hour |
n1-highmem-4 | 0,2839272 $US / 1 hour |
n1-highmem-8 | 0,5678544 $US / 1 hour |
n1-highmem-16 | 1,1357088 $US / 1 hour |
n1-highmem-32 | 2,2714176 $US / 1 hour |
n1-highmem-64 | 4,5428352 $US / 1 hour |
n1-highmem-96 | 6,8142528 $US / 1 hour |
n1-highcpu-16 | 0,68014656 $US / 1 hour |
n1-highcpu-32 | 1,36029312 $US / 1 hour |
n1-highcpu-64 | 2,72058624 $US / 1 hour |
n1-highcpu-96 | 4,08087936 $US / 1 hour |
a2-highgpu-1g* | 4,408062 $US / 1 hour |
a2-highgpu-2g* | 8,816124 $US / 1 hour |
a2-highgpu-4g* | 17,632248 $US / 1 hour |
a2-highgpu-8g* | 35,264496 $US / 1 hour |
a2-highgpu-16g* | 70,528992 $US / 1 hour |
a3-highgpu-8g* | 105,39898088 $US / 1 hour |
a3-megagpu-8g* | 110,65714224 $US / 1 hour |
a4-highgpu-8g* | 148,212 $US / 1 hour |
e2-standard-4 | 0,16082748 $US / 1 hour |
e2-standard-4 | 0,32165496 $US / 1 hour |
e2-standard-16 | 0,64330992 $US / 1 hour |
e2-standard-32 | 1,28661984 $US / 1 hour |
e2-highmem-2 | 0,10847966 $US / 1 hour |
e2-highmem-4 | 0,21695932 $US / 1 hour |
e2-highmem-8 | 0,43391864 $US / 1 hour |
e2-highmem-16 | 0,86783728 $US / 1 hour |
e2-highcpu-16 | 0,4749144 $US / 1 hour |
e2-highcpu-32 | 0,9498288 $US / 1 hour |
n2-standard-4 | 0,2330832 $US / 1 hour |
n2-standard-8 | 0,4661664 $US / 1 hour |
n2-standard-16 | 0,9323328 $US / 1 hour |
n2-standard-32 | 1,8646656 $US / 1 hour |
n2-standard-48 | 2,7969984 $US / 1 hour |
n2-standard-64 | 3,7293312 $US / 1 hour |
n2-standard-80 | 4,661664 $US / 1 hour |
n2-highmem-2 | 0,1572168 $US / 1 hour |
n2-highmem-4 | 0,3144336 $US / 1 hour |
n2-highmem-8 | 0,6288672 $US / 1 hour |
n2-highmem-16 | 1,2577344 $US / 1 hour |
n2-highmem-32 | 2,5154688 $US / 1 hour |
n2-highmem-48 | 3,7732032 $US / 1 hour |
n2-highmem-64 | 5,0309376 $US / 1 hour |
n2-highmem-80 | 6,288672 $US / 1 hour |
n2-highcpu-16 | 0,6882816 $US / 1 hour |
n2-highcpu-32 | 1,3765632 $US / 1 hour |
n2-highcpu-48 | 2,0648448 $US / 1 hour |
n2-highcpu-64 | 2,7531264 $US / 1 hour |
n2-highcpu-80 | 3,441408 $US / 1 hour |
c2-standard-4 | 0,2505696 $US / 1 hour |
c2-standard-8 | 0,5011392 $US / 1 hour |
c2-standard-16 | 1,0022784 $US / 1 hour |
c2-standard-30 | 1,879272 $US / 1 hour |
c2-standard-60 | 3,758544 $US / 1 hour |
m1-ultramem-40 | 7,55172 $US / 1 hour |
m1-ultramem-80 | 15,10344 $US / 1 hour |
m1-ultramem-160 | 30,20688 $US / 1 hour |
m1-megamem-96 | 12,782592 $US / 1 hour |
cloud-tpu | Les tarifs sont déterminés par le type d'accélérateur (voir "Accélérateurs"). |
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
Accélérateurs
Type de GPU | Prix (USD) |
|---|---|
NVIDIA_TESLA_A100 | 3,5206896 $US / 1 hour |
NVIDIA_TESLA_A100_80GB | 4,517292 $US / 1 hour |
NVIDIA_H100_80GB | 11,75586073 $US / 1 hour |
NVIDIA_TESLA_P4 | 0,72 $US / 1 hour |
NVIDIA_TESLA_P100 | 1,752 $US / 1 hour |
NVIDIA_TESLA_T4 | 0,42 $US / 1 hour |
NVIDIA_TESLA_V100 | 2,976 $US / 1 hour |
TPU_V2 Single (8 cœurs) | 5,40 $US / 1 hour |
Pod TPU_V2 (32 cœurs)* | 28,80 $US / 1 hour |
TPU_V3 Single (8 cœurs) | 9,60 $US / 1 hour |
Pod TPU_V3 (32 cœurs)* | 38,40 $US / 1 hour |
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
* Le prix de l'entraînement avec un pod Cloud TPU est basé sur le nombre de cœurs du pod. Le nombre de cœurs d'un pod est toujours un multiple de 32. Pour déterminer le prix de l'entraînement sur un pod comportant plus de 32 cœurs, prenez le prix d'un pod à 32 cœurs et multipliez-le par le nombre de cœurs divisé par 32. Par exemple, pour un pod à 128 cœurs, le prix est de (prix d'un pod à 32 cœurs) * (128/32). Pour en savoir plus sur les pods Cloud TPU disponibles pour une région donnée, consultez Architecture du système dans la documentation Cloud TPU.
Disques
Type de disque | Prix (USD) |
|---|---|
pd-standard | 0,000065753 $US / 1 gibibyte hour |
pd-ssd | 0,000279452 $US / 1 gibibyte hour |
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
L'entraînement de vos modèles vous est facturé à partir du moment où les ressources sont provisionnées pour un job et jusqu'à la fin de celui-ci.
Avertissement : Vos jobs d'entraînement sont limités par les règles de quotas de Vertex AI. Si vous choisissez un cluster de traitement très puissant pour vos premières tâches d'entraînement, vous dépasserez probablement votre quota.
Les tableaux suivants indiquent le coût par heure-nœud des prédictions par lot et en ligne, ainsi que des explications en ligne. Les heures-nœud correspondent au temps durant lequel une machine virtuelle exécute un job de prédiction ou durant lequel elle attend dans un état actif (un point de terminaison comportant un ou plusieurs modèles déployés) pour traiter les requêtes de prédiction ou d'explication.
Vous pouvez utiliser des VM Spot avec Vertex AI Inference.Les VM Spot sont facturées conformément aux tarifs des VM Spot Compute Engine. Des frais de gestion de l'inférence Vertex AI, décrits dans les tableaux ci-dessous, viennent s'ajouter à votre utilisation de l'infrastructure.
Vous pouvez utiliser des réservations Compute Engine avec Vertex AI Inference. Lorsque vous utilisez des réservations Compute Engine, vous êtes facturé selon les tarifs de Compute Engine, y compris les remises sur engagement d'utilisation applicables. Des frais de gestion de l'inférence Vertex AI, décrits dans les tableaux ci-dessous, viennent s'ajouter à votre utilisation de l'infrastructure.
Série E2
Type de machine | Prix (USD) |
|---|---|
e2-standard-2 | 0,0770564 $US / 1 hour |
e2-standard-4 | 0,1541128 $US / 1 hour |
e2-standard-8 | 0,3082256 $US / 1 hour |
e2-standard-16 | 0,6164512 $US / 1 hour |
e2-standard-32 | 1,2329024 $US / 1 hour |
e2-highmem-2 | 0,1039476 $US / 1 hour |
e2-highmem-4 | 0,2078952 $US / 1 hour |
e2-highmem-8 | 0,4157904 $US / 1 hour |
e2-highmem-16 | 0,8315808 $US / 1 hour |
e2-highcpu-2 | 0,056888 $US / 1 hour |
e2-highcpu-4 | 0,113776 $US / 1 hour |
e2-highcpu-8 | 0,227552 $US / 1 hour |
e2-highcpu-16 | 0,455104 $US / 1 hour |
e2-highcpu-32 | 0,910208 $US / 1 hour |
Série N1
Type de machine | Prix (USD) |
|---|---|
n1-standard-2 | 0,1095 $US / 1 hour |
n1-standard-4 | 0,219 $US / 1 hour |
n1-standard-8 | 0,438 $US / 1 hour |
n1-standard-16 | 0,876 $US / 1 hour |
n1-standard-32 | 1,752 $US / 1 hour |
n1-highmem-2 | 0,137 $US / 1 hour |
n1-highmem-4 | 0,274 $US / 1 hour |
n1-highmem-8 | 0,548 $US / 1 hour |
n1-highmem-16 | 1,096 $US / 1 hour |
n1-highcpu-2 | 0,081 $US / 1 hour |
n1-highcpu-4 | 0,162 $US / 1 hour |
n1-highcpu-8 | 0,324 $US / 1 hour |
n1-highcpu-16 | 0,648 $US / 1 hour |
n1-highcpu-32 | 1,296 $US / 1 hour |
Série N2
Type de machine | Prix (USD) |
|---|---|
n2-standard-2 | 0,1116854 $US / 1 hour |
n2-standard-4 | 0,2233708 $US / 1 hour |
n2-standard-8 | 0,4467416 $US / 1 hour |
n2-standard-16 | 0,8934832 $US / 1 hour |
n2-standard-32 | 1,7869664 $US / 1 hour |
n2-highmem-2 | 0,1506654 $US / 1 hour |
n2-highmem-4 | 0,3013308 $US / 1 hour |
n2-highmem-8 | 0,6026616 $US / 1 hour |
n2-highmem-16 | 1,2053232 $US / 1 hour |
n2-highcpu-2 | 0,0824504 $US / 1 hour |
n2-highcpu-4 | 0,1649008 $US / 1 hour |
n2-highcpu-8 | 0,3298016 $US / 1 hour |
n2-highcpu-16 | 0,6596032 $US / 1 hour |
n2-highcpu-32 | 1,3192064 $US / 1 hour |
Série N2D
Type de machine | Prix (USD) |
|---|---|
n2d-standard-2 | 0,0971658 $US / 1 hour |
n2d-standard-4 | 0,1943316 $US / 1 hour |
n2d-standard-8 | 0,3886632 $US / 1 hour |
n2d-standard-16 | 0,7773264 $US / 1 hour |
n2d-standard-32 | 1,5546528 $US / 1 hour |
n2d-highmem-2 | 0,131077 $US / 1 hour |
n2d-highmem-4 | 0,262154 $US / 1 hour |
n2d-highmem-8 | 0,524308 $US / 1 hour |
n2d-highmem-16 | 1,048616 $US / 1 hour |
n2d-highcpu-2 | 0,0717324 $US / 1 hour |
n2d-highcpu-4 | 0,1434648 $US / 1 hour |
n2d-highcpu-8 | 0,2869296 $US / 1 hour |
n2d-highcpu-16 | 0,5738592 $US / 1 hour |
n2d-highcpu-32 | 1,1477184 $US / 1 hour |
Série C2
Type de machine | Prix (USD) |
|---|---|
c2-standard-4 | 0,240028 $US / 1 hour |
c2-standard-8 | 0,480056 $US / 1 hour |
c2-standard-16 | 0,960112 $US / 1 hour |
c2-standard-30 | 1,80021 $US / 1 hour |
c2-standard-60 | 3,60042 $US / 1 hour |
Série C2D
Type de machine | Prix (USD) |
|---|---|
c2d-standard-2 | 0,1044172 $US / 1 hour |
c2d-standard-4 | 0,2088344 $US / 1 hour |
c2d-standard-8 | 0,4176688 $US / 1 hour |
c2d-standard-16 | 0,8353376 $US / 1 hour |
c2d-standard-32 | 1,6706752 $US / 1 hour |
c2d-standard-56 | 2,9236816 $US / 1 hour |
c2d-standard-112 | 5,8473632 $US / 1 hour |
c2d-highmem-2 | 0,1408396 $US / 1 hour |
c2d-highmem-4 | 0,2816792 $US / 1 hour |
c2d-highmem-8 | 0,5633584 $US / 1 hour |
c2d-highmem-16 | 1,1267168 $US / 1 hour |
c2d-highmem-32 | 2,2534336 $US / 1 hour |
c2d-highmem-56 | 3,9435088 $US / 1 hour |
c2d-highmem-112 | 7,8870176 $US / 1 hour |
c2d-highcpu-2 | 0,086206 $US / 1 hour |
c2d-highcpu-4 | 0,172412 $US / 1 hour |
c2d-highcpu-8 | 0,344824 $US / 1 hour |
c2d-highcpu-16 | 0,689648 $US / 1 hour |
c2d-highcpu-32 | 1,379296 $US / 1 hour |
c2d-highcpu-56 | 2,413768 $US / 1 hour |
c2d-highcpu-112 | 4,827536 $US / 1 hour |
Série C3
Type de machine | Prix (USD) |
|---|---|
c3-highcpu-4 | 0,19824 $US / 1 hour |
c3-highcpu-8 | 0,39648 $US / 1 hour |
c3-highcpu-22 | 1,09032 $US / 1 hour |
c3-highcpu-44 | 2,18064 $US / 1 hour |
c3-highcpu-88 | 4,36128 $US / 1 hour |
c3-highcpu-176 | 8,72256 $US / 1 hour |
Série A2
Type de machine | Prix (USD) |
|---|---|
a2-highgpu-1g | 4,2244949 $US / 1 hour |
a2-highgpu-2g | 8,4489898 $US / 1 hour |
a2-highgpu-4g | 16,8979796 $US / 1 hour |
a2-highgpu-8g | 33,7959592 $US / 1 hour |
a2-megagpu-16g | 64,1020592 $US / 1 hour |
a2-ultragpu-1g | 5,7818474 $US / 1 hour |
a2-ultragpu-2g | 11,5636948 $US / 1 hour |
a2-ultragpu-4g | 23,1273896 $US / 1 hour |
a2-ultragpu-8g | 46,2547792 $US / 1 hour |
Lorsque vous utilisez une réservation ou une capacité Spot, la facturation est répartie entre deux SKU : le SKU GCE avec l'étiquette "vertex-ai-online-prediction" et le SKU de frais de gestion Vertex AI. Vous pouvez ainsi utiliser vos remises pour engagement d'utilisation dans Vertex AI.
Série A3
Type de machine | Prix (USD) |
|---|---|
a3-ultragpu-8g | 96,015616 $US / 1 hour |
a3-megagpu-8g | 106,65474 $US / 1 hour |
Lorsque vous utilisez une réservation ou une capacité Spot, la facturation est répartie entre deux SKU : le SKU GCE avec l'étiquette "vertex-ai-online-prediction" et le SKU de frais de gestion Vertex AI. Vous pouvez ainsi utiliser vos remises pour engagement d'utilisation dans Vertex AI.
Série A4
Type de machine | Prix (USD) |
|---|---|
a4-highgpu-8g | 148,212 $US / 1 hour |
Lorsque vous utilisez une réservation ou une capacité Spot, la facturation est répartie entre deux SKU : le SKU GCE avec l'étiquette "vertex-ai-online-prediction" et le SKU de frais de gestion Vertex AI. Vous pouvez ainsi utiliser vos remises pour engagement d'utilisation dans Vertex AI.
Série A4X
Type de machine | Prix (USD) |
|---|---|
a4x-highgpu-4g | 74,75 $US / 1 hour |
Lorsque vous utilisez une réservation ou une capacité Spot, la facturation est répartie entre deux SKU : le SKU GCE avec l'étiquette "vertex-ai-online-prediction" et le SKU de frais de gestion Vertex AI. Vous pouvez ainsi utiliser vos remises pour engagement d'utilisation dans Vertex AI.
a4x-highgpu-4g nécessite au moins 18 VM.
Série G2
Type de machine | Prix (USD) |
|---|---|
g2-standard-4 | 0,81293 $US / 1 hour |
g2-standard-8 | 0,98181 $US / 1 hour |
g2-standard-12 | 1,15069 $US / 1 hour |
g2-standard-16 | 1,31957 $US / 1 hour |
g2-standard-24 | 2,30138 $US / 1 hour |
g2-standard-32 | 1,99509 $US / 1 hour |
g2-standard-48 | 4,60276 $US / 1 hour |
g2-standard-96 | 9,20552 $US / 1 hour |
Lorsque vous utilisez une réservation ou une capacité Spot, la facturation est répartie entre deux SKU : le SKU GCE avec l'étiquette "vertex-ai-online-prediction" et le SKU de frais de gestion Vertex AI. Vous pouvez ainsi utiliser vos remises pour engagement d'utilisation dans Vertex AI.
Série G4
Type de machine | Prix (USD) |
|---|---|
g4-standard-48 | 5,17508763 $US / 1 hour |
g4-standard-96 | 10,35017526 $US / 1 hour |
g4-standard-192 | 20,70035052 $US / 1 hour |
g4-standard-384 | 41,40070104 $US / 1 hour |
Tarifs des TPU v5e
Type de machine | Prix (USD) |
|---|---|
ct5lp-hightpu-1t | 1,38 $US / 1 hour |
ct5lp-hightpu-4t | 5,52 $US / 1 hour |
ct5lp-hightpu-8t | 5,52 $US / 1 hour |
Chaque type de machine est facturé avec les SKU suivants sur votre facture Google Cloud :
Les tarifs des types de machines servent à approximer le coût horaire total pour chaque nœud de prédiction d'une version de modèle utilisant ce type de machine.
Par exemple, un type de machine n1-highcpu-32 contient 32 vCPU et 32 Go de RAM. De ce fait, son tarif horaire est égal à 32 processeurs virtuels-heure + 32 Go-heure.
Série E2
Élément | Prix (USD) |
|---|---|
vCPU | 0,0250826 $US / 1 hour |
RAM | 0,0033614 $US / 1 gibibyte hour |
Série N1
Élément | Prix (USD) |
|---|---|
vCPU | 0,036 $US / 1 hour |
RAM | 0,005 $US / 1 gibibyte hour |
Série N2
Élément | Prix (USD) |
|---|---|
vCPU | 0,0363527 $US / 1 hour |
RAM | 0,0048725 $US / 1 gibibyte hour |
Série N2D
Élément | Prix (USD) |
|---|---|
vCPU | 0,0316273 $US / 1 hour |
RAM | 0,0042389 $US / 1 gibibyte hour |
Série C2
Élément | Prix (USD) |
|---|---|
vCPU | 0,039077 $US / 1 hour |
RAM | 0,0052325 $US / 1 gibibyte hour |
Série C2D
Élément | Prix (USD) |
|---|---|
vCPU | 0,0339974 $US / 1 hour |
RAM | 0,0045528 $US / 1 gibibyte hour |
Série C3
Élément | Prix (USD) |
|---|---|
vCPU | 0,03908 $US / 1 hour |
RAM | 0,00524 $US / 1 gibibyte hour |
Série A2
Élément | Prix (USD) |
|---|---|
vCPU | 0,0363527 $US / 1 hour |
RAM | 0,0048725 $US / 1 gibibyte hour |
GPU (A100 40 Go) | 3,3741 $US / 1 hour |
GPU (A100 80 Go) | 4,51729 $US / 1 hour |
Série A3
Élément | Prix (USD) |
|---|---|
vCPU | 0,0293227 $US / 1 hour |
RAM | 0,0025534 $US / 1 gibibyte hour |
GPU (H100 80 Go) | 11,2660332 $US / 1 hour |
GPU (H200) | 10,708501 $US / 1 hour |
Série G2
Élément | Prix (USD) |
|---|---|
vCPU | 0,02874 $US / 1 hour |
RAM | 0,00337 $US / 1 gibibyte hour |
GPU (L4) | 0,64405 $US / 1 hour |
Certains types de machines vous permettent d'ajouter des accélérateurs GPU facultatifs pour la prédiction. Les GPU facultatifs entraînent des frais supplémentaires en plus de ceux décrits dans le tableau précédent. Consultez chacune des grilles tarifaires, qui décrivent les tarifs de chaque type de GPU facultatif.
Accélérateurs – Prix par heure
Type de GPU | Prix (USD) |
|---|---|
NVIDIA_TESLA_P4 | 0,69 $US / 1 hour |
NVIDIA_TESLA_P100 | 1,679 $US / 1 hour |
NVIDIA_TESLA_T4 | 0,402 $US / 1 hour |
NVIDIA_TESLA_V100 | 2,852 $US / 1 hour |
Le prix s'entend par GPU. Si vous utilisez plusieurs GPU par nœud de prédiction (ou si votre version évolue pour utiliser plusieurs nœuds),les coûts évoluent en conséquence.
AI Platform Prediction diffuse des prédictions à partir de votre modèle en exécutant plusieurs machines virtuelles ("nœuds"). Par défaut, Vertex AI ajuste automatiquement le nombre de nœuds en cours d'exécution à tout moment. Pour la prédiction en ligne, le nombre de nœuds s'adapte en fonction de la demande. Chaque nœud peut répondre à plusieurs requêtes de prédiction. Pour la prédiction par lot, le nombre de nœuds s'adapte afin de réduire la durée totale d'exécution de la tâche. Vous pouvez personnaliser le scaling des nœuds de prédiction.
Pour votre modèle, la durée d'exécution de chaque nœud vous est facturée, y compris dans les cas suivants :
Une heure-nœud correspond au coût d'exécution d'un nœud durant une heure. Le tableau des tarifs relatifs aux prédictions indique le prix d'une heure de nœud, qui varie selon les régions et le type de prédiction (en ligne ou par lot).
Les nœuds-heure peuvent être fractionnés afin d'être consommés par tranches. Par exemple, l'exécution d'un nœud durant 30 minutes coûte 0,5 heure-nœud.
Calcul des coûts pour les types de machines Compute Engine (N1)
Informations supplémentaires sur le scaling automatique des nœuds de prédiction
Prédiction en ligne | Prédiction par lot |
|---|---|
La priorité du scaling est de réduire la latence des requêtes individuelles. Le service permet à votre modèle de rester disponible pendant quelques minutes d'inactivité après le traitement d'une requête. | La priorité du scaling est de réduire le temps total de la tâche. |
Le scaling a un effet sur le montant total qui vous est facturé chaque mois : plus vos requêtes sont nombreuses et fréquentes, plus le volume de nœuds utilisés est important. | Le scaling doit avoir peu d'effet sur le prix de votre job, même si la création d'un nœud engendre des frais. |
Vous pouvez choisir de laisser le service s'adapter en fonction du trafic(scaling automatique) ou définir un nombre de nœuds à exécuter en permanence pour éviter la latence(scaling manuel).
| Vous pouvez modifier le scaling en définissant un nombre maximal de nœuds à utiliser pour un job de prédiction par lot et en définissant le nombre de nœuds à exécuter pour un modèle lorsque vous le déployez. |
Les jobs de prédiction par lot sont facturés une fois qu'ils sont terminés
Les jobs de prédiction par lot sont facturés une fois qu'ils sont terminés, et non de manière incrémentielle au cours du job. Les alertes budgétaires Cloud Billing que vous avez configurées ne sont pas déclenchées lorsqu'un job est en cours d'exécution. Avant de démarrer un job volumineux, nous vous recommandons d'exécuter d'abord des jobs d'analyse comparative des coûts avec de petites données d'entrée.
Exemple de calcul de frais liés aux prédictions
Une agence immobilière implantée dans la région des Amériques exécute une prédiction hebdomadaire de la valeur des biens immobiliers dans les zones qu'elle couvre. En un mois, elle exécute des prédictions pour quatre semaines par lots de 3920, 4277, 3849 et 3961. Les jobs sont traités par un seul nœud, et chaque instance nécessite en moyenne 0,72 seconde de traitement.
Commencez par calculer la durée d'exécution de chaque tâche :
L'exécution de chaque tâche a duré plus de 10 minutes, et sera donc facturée à la minute de traitement :
Le coût total s'élève à 0,26 $ pour le mois.
Dans cet exemple, nous avons supposé que les tâches s'exécutaient sur un seul nœud et prenaient le même temps pour chaque instance d'entrée. En situation réelle, veillez à prendre en compte plusieurs nœuds et à utiliser le temps d'exécution effectif de chacun d'eux dans vos calculs.
Frais pour Vertex Explainable AI
Explications basées sur les caractéristiques
Les explications basées sur les caractéristiques sont disponibles sans frais supplémentaires pour les prédictions. Cependant, le traitement des explications est plus long que celui des prédictions standards. L'utilisation intensive de Vertex Explainable AI avec l'autoscaling peut donc entraîner le démarrage de davantage de nœuds, et ainsi augmenter les frais encourus pour les prédictions.
Explications basées sur des exemples
La tarification des explications basées sur des exemples comprend les éléments suivants :
Les tableaux suivants récapitulent les tarifs associés à chaque région où Neural Architecture Search est disponible.
Prix
Les tableaux suivants indiquent le coût par heure de différentes configurations.
Vous pouvez choisir un niveau d'évolutivité prédéfini ou une configuration personnalisée pour les types de machines sélectionnés. Si vous optez pour une configuration personnalisée, vous devez additionner les coûts des machines virtuelles que vous utilisez.
Les tarifs des anciens types de machines utilisant des accélérateurs incluent les frais liés à ces accélérateurs. Si vous utilisez des types de machines Compute Engine et que vous y associez des accélérateurs, les frais qui y sont liés sont distincts. Pour calculer ces frais, multipliez les tarifs indiqués dans le tableau sur les accélérateurs ci-dessous par le nombre d'accélérateurs de chaque type utilisés.
Types de machines
Type de machine | Prix (USD) |
|---|---|
n1-standard-4 | 0,2849985 $US / 1 hour |
n1-standard-8 | 0,569997 $US / 1 hour |
n1-standard-16 | 1,139994 $US / 1 hour |
n1-standard-32 | 2,279988 $US / 1 hour |
n1-standard-64 | 4,559976 $US / 1 hour |
n1-standard-96 | 6,839964 $US / 1 hour |
n1-highmem-2 | 0,1774545 $US / 1 hour |
n1-highmem-4 | 0,1774545 $US / 1 hour |
n1-highmem-8 | 0,709818 $US / 1 hour |
n1-highmem-16 | 1,419636 $US / 1 hour |
n1-highmem-32 | 2,839272 $US / 1 hour |
n1-highmem-64 | 5,678544 $US / 1 hour |
n1-highmem-96 | 8,517816 $US / 1 hour |
n1-highcpu-16 | 0,8501832 $US / 1 hour |
n1-highcpu-32 | 1,7003664 $US / 1 hour |
n1-highcpu-64 | 3,4007328 $US / 1 hour |
n1-highcpu-96 | 5,1010992 $US / 1 hour |
a2-highgpu-1g | 5,641070651 $US / 1 hour |
a2-highgpu-2g | 11,282141301 $US / 1 hour |
a2-highgpu-4g | 22,564282603 $US / 1 hour |
a2-highgpu-8g | 45,128565205 $US / 1 hour |
a2-highgpu-16g | 90,257130411 $US / 1 hour |
e2-standard-4 | 0,20103426 $US / 1 hour |
e2-standard-8 | 0,40206852 $US / 1 hour |
e2-standard-16 | 0,80413704 $US / 1 hour |
e2-standard-32 | 1,60827408 $US / 1 hour |
e2-highmem-2 | 0,13559949 $US / 1 hour |
e2-highmem-4 | 0,27119898 $US / 1 hour |
e2-highmem-8 | 0,54239796 $US / 1 hour |
e2-highmem-16 | 1,08479592 $US / 1 hour |
e2-highcpu-16 | 0,59364288 $US / 1 hour |
e2-highcpu-32 | 1,18728576 $US / 1 hour |
n2-standard-4 | 0,291354 $US / 1 hour |
n2-standard-8 | 0,582708 $US / 1 hour |
n2-standard-16 | 1,165416 $US / 1 hour |
n2-standard-32 | 2,330832 $US / 1 hour |
n2-standard-48 | 3,496248 $US / 1 hour |
n2-standard-64 | 4,661664 $US / 1 hour |
n2-standard-80 | 5,82708 $US / 1 hour |
n2-highmem-2 | 0,196521 $US / 1 hour |
n2-highmem-4 | 0,393042 $US / 1 hour |
n2-highmem-8 | 0,786084 $US / 1 hour |
n2-highmem-16 | 1,572168 $US / 1 hour |
n2-highmem-32 | 3,144336 $US / 1 hour |
n2-highmem-48 | 4,716504 $US / 1 hour |
n2-highmem-64 | 6,288672 $US / 1 hour |
n2-highmem-80 | 7,86084 $US / 1 hour |
n2-highcpu-16 | 0,860352 $US / 1 hour |
n2-highcpu-32 | 1,720704 $US / 1 hour |
n2-highcpu-64 | 3,441408 $US / 1 hour |
n2-highcpu-80 | 4,30176 $US / 1 hour |
c2-standard-4 | 0,313212 $US / 1 hour |
c2-standard-8 | 0,626424 $US / 1 hour |
c2-standard-16 | 1,252848 $US / 1 hour |
c2-standard-30 | 2,34909 $US / 1 hour |
c2-standard-60 | 4,69818 $US / 1 hour |
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
Les tarifs des instances a2-highgpu incluent les frais liés aux accélérateurs NVIDIA_TESLA_A100 associés.
Accélérateurs
Type de GPU | Prix (USD) |
|---|---|
NVIDIA_TESLA_A100 | 4,400862 $US / 1 hour |
NVIDIA_TESLA_P4 | 0,90 $US / 1 hour |
NVIDIA_TESLA_P100 | 2,19 $US / 1 hour |
NVIDIA_TESLA_T4 | 0,525 $US / 1 hour |
NVIDIA_TESLA_V100 | 3,72 $US / 1 hour |
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
Disques
Type de disque | Prix (USD) |
|---|---|
pd-standard | 0,000082192 $US / 1 gibibyte hour |
pd-ssd | 0,000349315 $US / 1 gibibyte hour |
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
Remarques :
Utilisation obligatoire de Cloud Storage
En plus des coûts décrits dans ce document, vous devez stocker vos données et vos fichiers de programme dans des buckets Cloud Storage pendant le cycle de vie de Neural Architecture Search. Ce stockage est soumis aux règles de tarification de Cloud Storage.
L'utilisation obligatoire de Cloud Storage comprend ce qui suit :
Remarque : Vous pouvez stocker vos données d'entrée dans un autre service Google Cloud, tel que BigQuery, qui applique des tarifs spécifiques.
Opérations gratuites pour la gestion de vos ressources
Les opérations de gestion des ressources proposées par Neural Architecture Search sont disponibles sans frais. Les règles de quotas de Neural Architecture Search limitent certaines de ces opérations.
Ressource | Opérations gratuites |
|---|---|
jobs | get, list et cancel |
opérations | get, list, cancel et delete |
Vertex AI Pipelines facture des frais d'exécution de 0,03 $ par exécution de pipeline. Les frais d'exécution ne vous sont pas facturés pendant la version preview. Vous payez également les ressources Google Cloud que vous utilisez avec Vertex AI Pipelines, telles que les ressources Compute Engine utilisées par les composants du pipeline (facturées au même tarif que pour l'entraînement Vertex AI). Enfin, vous êtes responsable du coût des services (tels que Dataflow) appelés par votre pipeline.
Vertex AI Feature Store est en disponibilité générale (DG) depuis novembre 2023. Pour obtenir des informations sur la version précédente du produit, consultez Vertex AI Feature Store (ancien).
Nouveau Vertex AI Feature Store
Le nouveau produit Vertex AI Feature Store offre des fonctions pour deux types d'opérations :
Tarifs des opérations hors connexion
Du fait que BigQuery est utilisé pour les opérations hors connexion, veuillez consulter la tarification de BigQuery au sujet de fonctionnalités telles que l'ingestion dans le magasin hors connexion, l'envoi de requêtes à ce magasin et le stockage hors connexion.
Tarifs des opérations en ligne
Pour les opérations en ligne, Vertex AI Feature Store facture toute fonctionnalité en DG de transfert de données vers le magasin en ligne, de livraison de données ou de stockage de données. Les heures-nœud correspondent au temps durant lequel une machine virtuelle exécute une opération, facturé à la minute.
Opération | Prix (USD) |
|---|---|
Nœud de traitement des données Traitement des données (par exemple, ingestion dans un stockage, surveillance, etc.) | 0,08 $US / 1 hour |
Nœud de livraison en ligne optimisée Livraison à faible latence et livraison d'embeddings Chaque nœud inclut 200 Go d'espace de stockage | 0,30 $US / 1 hour |
Nœud de livraison en ligne Bigtable Diffusion avec Cloud Bigtable | 0,94 $US / 1 hour |
Stockage pour la livraison en ligne Bigtable Stockage pour la diffusion avec Cloud Bigtable | 0,000342466 $US / 1 gibibyte hour |
La livraison en ligne optimisée et la livraison en ligne Bigtable utilisent des architectures différentes et leurs nœuds ne sont donc pas comparables.
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
Estimations des charges de travail des opérations en ligne
Pour estimer vos charges de travail, tenez compte des instructions suivantes. Le nombre de nœuds requis pour une charge de travail donnée peut différer selon l'approche de livraison.
Vous pouvez afficher le nombre de nœuds (avec réplicas) dans l'explorateur de métriques :

Exemples de scénarios mensuels (partant du principe que la région est us-central1)
Charge de travail de diffusion d'un flux de données – Livraison en ligne Bigtable avec 2,5 To de données (1 Go actualisé quotidiennement) et 1 200 RPS
Opérations | Utilisation mensuelle | Coût mensuel |
|---|---|---|
Nœud de traitement des données | (1 Go/jour) x (30 jours/mois) x (1 000 Mo/Go) x (1 heure-nœud / 100 Mo) = 300 heures-nœud | 300 heures-nœud x (0,08 $ par heure-nœud) = 24 $ |
Nœud de livraison en ligne optimisée | N/A | N/A |
Nœud de livraison en ligne Bigtable | (1 nœud) x (24 heures/jour) x (30 jours/mois) = 720 heures-nœud | 720 heures-nœud x (0,94 $ par heure-nœud) = 677 $ |
Stockage pour la livraison en ligne Bigtable | (2,5 To-mois) x (1 000 Go/To) = 2 500 Go-mois | 2 500 Go-mois x (0,25 $ par Go-mois) = 625 $ |
Total | 1 326 $ |
Charge de travail à nombre élevé de requêtes par seconde – Livraison en ligne optimisée avec 10 Go de données sans embeddings (5 Go actualisés quotidiennement) et 2 000 RPS
Opérations | Utilisation mensuelle | Coût mensuel |
|---|---|---|
Nœud de traitement des données | (5 Go/jour) x (30 jours/mois) x (1 000 Mo/Go) x (1 heure-nœud / 100 Mo) = 1 500 heures-nœud | 1 500 heures-nœud x (0,08 $ par heure-nœud) = 120 $ |
Nœud de livraison en ligne optimisée | Arrondi supérieur(10 Go * (1 nœud / 200 Go)) = 1 * max(2 réplicas par défaut, 2 000 RPS * (1 réplica / 500 RPS)) = 4 nœuds au total * (24 heures/jour) * (30 jours/mois) =2 880 heures-nœud | 2 880 heures-nœud x (0,30 $ par heure-nœud) = 864 $ |
Nœud de livraison en ligne Bigtable | N/A | N/A |
Stockage pour la livraison en ligne Bigtable | N/A | N/A |
Total | 984$ |
Charge de travail de livraison d'embeddings – Livraison en ligne optimisée avec 20 Go de données d'embeddings (2 Go actualisés quotidiennement) et 800 RPS
Opérations | Utilisation mensuelle | Coût mensuel |
|---|---|---|
Nœud de traitement des données | (2 Go/jour) x (30 jours/mois) x (1 000 Mo/Go) x (1 heure-nœud / 100 Mo) = 600 heures-nœud | 600 heures-nœud x (0,08 $ par heure-nœud) = 48 $ |
Nœud de livraison en ligne optimisée | Arrondi supérieur(20 Go* (1 nœud / 4 Go) = 5 * max(2 réplicas par défaut, 800 RPS * (1 réplica / 500 RPS)) = 10 nœuds au total * (24 heures/jour) * (30 jours/mois) = 7 200 heures-nœud | 7 200 heures-nœud x (0,30 $ par heure-nœud) = 2 160 $ |
Nœud de livraison en ligne Bigtable | N/A | N/A |
Stockage pour la livraison en ligne Bigtable | N/A | N/A |
Total | 2 208$ |
Vertex AI Feature Store (ancien)
Les tarifs de Vertex AI Feature Store (ancien) sont basés sur la quantité de données de caractéristiques stockées en ligne et hors connexion, ainsi que sur la disponibilité de la livraison en ligne. Les nœuds par heure correspondent au temps qu'une machine virtuelle passe à livrer des données de caractéristiques ou durant lequel elle est disponible pour traiter les requêtes de données de caractéristiques.
Opération | Prix (USD) |
|---|---|
Stockage en ligne | 0,25 $ par Go/mois |
Stockage hors connexion | 0,023 $ par Go/mois |
Livraison en ligne | 0,94 $ par nœud et par heure |
Exportation par lot | 0,005 $ par Go |
Ingestion en flux continu | 0,10 $ par Go ingéré |
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page relative aux SKU de Cloud Platform s'appliquent.
Lorsque vous activez la surveillance des valeurs des caractéristiques, la facturation inclut les frais applicables ci-dessus, ainsi que les frais applicables suivants :
Exemple d'analyse d'instantané
Un data scientist active la surveillance des valeurs des caractéristiques pour son Vertex AI Feature Store (ancien) et active la surveillance pour une analyse d'instantané quotidienne. Un pipeline s'exécute quotidiennement pour la surveillance des types d'entités. Le pipeline analyse 2 Go de données dans Vertex AI Feature Store (ancien) et exporte un instantané contenant 0,1 Go de données. Le coût total de analyse effectuée pour une journée s'élève à :
(0,1 Go x 3,50 $) + (2 Go x 0,005 $) = 0,36 $
Exemple d'analyse de l'ingestion
Un data scientist active la surveillance des valeurs des caractéristiques pour son Vertex AI Feature Store (ancien) et active la surveillance pour les opérations d'ingestion. Une opération d'ingestion importe 1 Go de données dans Vertex AI Feature Store (ancien). Le coût total de la surveillance des valeurs des caractéristiques s'élève à :
(1 Go * 3,50 $) = 3,50 $
Le stockage de métadonnées est mesuré en gigaoctets binaires (Gio) ; 1 Gio correspond à 1 073 741 824 octets. Cette unité de mesure est parfois appelée gibioctet.
Vertex ML Metadata facture 10 $par gibioctet (Gio) par mois pour le stockage des métadonnées. Les prix sont appliqués au prorata par mégaoctet (Mo). Par exemple, si vous stockez 10 Mo de métadonnées, vous êtes facturé 0,10 $par mois pour ces 10 Mo de métadonnées.
Les prix sont identiques dans toutes les régions où Vertex ML Metadata est disponible.
Pour utiliser Vertex AI TensorBoard, demandez à l'administrateur IAM du projet de vous attribuer le rôle Utilisateur de l'application Web Vertex AI TensorBoard. Le rôle Administrateur Vertex AI dispose également d'un accès.
À partir d'août 2023, la tarification de Vertex AI TensorBoard est passée d'une licence mensuelle par utilisateur de 300 $par mois à 10 $par Gio par mois pour le stockage des journaux et des métriques. Cela signifie qu'il n'y a plus de frais d'abonnement. Vous ne payez que pour l'espace de stockage utilisé. Consultez le tutoriel Vertex AI TensorBoard : Supprimer des tests TensorBoard obsolètes pour apprendre comment gérer le stockage.
Vertex AI Vizier est un service d'optimisation par boîte noire intégré à Vertex AI. Le modèle de tarification de Vertex AI Vizier comprend les éléments suivants :
La tarification du service plus proches voisins approximatifs de Vector Search comprend les éléments suivants :
Les données traitées lors de la création et de la mise à jour des index sont mesurées en gigaoctets binaires (Gio) ; 1 Gio correspond à 1 073 741 824 octets. Cette unité de mesure est parfois appelée gibioctet.
Vector Search facture 3,00 $par gibioctet (Gio) de données traitées dans toutes les régions. Vector Search facture 0,45 $par Gio ingéré pour les insertions de mise à jour en continu.
Les tableaux suivants récapitulent les tarifs appliqués pour la livraison d'un index dans chaque région où Vector Search est disponible. Le prix correspond au type de machine, par région, et est facturé par heure-nœud.
Type de machine | Prix (USD) |
|---|---|
e2-standard-2 | 0,0938084 $US / 1 hour |
e2-standard-16 | 0,7504672 $US / 1 hour |
e2-highmem-16 | 1,012368 $US / 1 hour |
n2d-standard-32 | 1,8926208 $US / 1 hour |
n1-standard-16 | 1,0639944 $US / 1 hour |
n1-standard-32 | 2,1279888 $US / 1 hour |
Exemples de tarification pour Vector Search
Le coût d'utilisation de Vector Search est déterminé par la taille de vos données, le nombre de requêtes par seconde (RPS) que vous souhaitez exécuter, et le nombre de nœuds que vous utilisez. Pour obtenir une estimation de vos coûts de livraison, vous devez calculer la taille totale de vos données. La taille de vos données est calculée comme le nombre de vos représentations vectorielles continues/vecteurs x le nombre de dimensions dont vous disposez x 4 octets par dimension. Une fois que vous connaissez la taille de vos données, vous pouvez calculer le coût de livraison et le coût de création. Votre coût total mensuel est la somme du coût de livraison et du coût de création.
Mise à jour en continu : Vector Search utilise des métriques basées sur l'heuristique pour déterminer à quel moment déclencher le compactage. Si les données non compactées les plus anciennes datent de cinq jours, le compactage est toujours déclenché. Vous êtes facturé pour le coût de la recompilation de l'index au même tarif que la mise à jour groupée, en plus des coûts de mise à jour en continu.
Nombre de représentations vectorielles continues/vecteurs | Nombre de dimensions | Requêtes par seconde (RPS) | Type de machine | Nœuds | Coût de livraison mensuel estimé (USD) |
|---|---|---|---|---|---|
2 millions | 128 | 100 | e2-standard-2 | 1 | 68 $ |
20 millions | 256 | 1 000 | e2-standard-16 | 1 | 547 $ |
20 millions | 256 | 3 000 | e2-standard-16 | 3 | 1 642 $ |
100 millions | 256 | 500 | e2-highmem-16 | 2 | 1 477 $ |
1 milliard | 100 | 500 | e2-highmem-16 | 8 | 5 910 $ |
Tous les exemples sont basés sur des types de machines de la région us-central1. Les coûts engendrés varient selon les exigences de taux de rappel et de latence. Le coût de livraison mensuel estimé est directement lié au nombre de nœuds utilisé dans la console. Pour en savoir plus sur les paramètres de configuration affectant le coût, consultez la page sur les paramètres de configuration affectant le rappel et la latence.
Si vous avez un nombre élevé de requêtes par seconde (RPS), traiter ces requêtes par lot peut permettre d'obtenir jusqu'à 30 voire 40 % de réduction des coûts totaux.
Niveau de recherche vectorielle optimisé pour le stockage
Au lieu de gérer et de payer des VM individuelles et des jobs de compactage distincts, il existe deux SKU :
Unité | Prix |
|---|---|
Unité de capacité optimisée pour le stockage | 2,30 $US / 1 hour |
Unité d'écriture | 0,45 $US / 1 gibibyte |
Vertex AI Model Registry est un dépôt central qui suit et répertorie vos modèles et versions de modèle. Vous pouvez importer des modèles dans Vertex AI, et ceux-ci apparaissent alors dans Vertex AI Model Registry. Le stockage de modèles dans Model Registry ne fait l'objet d'aucune facturation. Des coûts ne sont facturés que lorsque vous déployez le modèle sur un point de terminaison ou quand vous effectuez une prédiction par lot sur le modèle. Le coût est déterminé par le type de modèle que vous déployez.
Pour en savoir plus sur la tarification du déploiement de modèles personnalisés à partir de Vertex AI Model Registry, consultez Modèles entraînés personnalisés. Pour en savoir plus sur la tarification du déploiement de modèles AutoML, consultez Tarifs des modèles AutoML.
Vertex AI vous permet de surveiller l'efficacité continue de votre modèle après son déploiement en production. Pour plus d'informations, consultez la Présentation de Vertex AI Model Monitoring.
Lorsque vous utilisez Vertex AI Model Monitoring, vous êtes facturé pour les éléments suivants :
Vertex AI Model Monitoring est disponible dans les régions suivantes : us-central1, europe-west4, asia-east1 et asia-southeast1. Les prix sont les mêmes dans toutes les régions.
Les tailles des données sont mesurées après leur conversion au format TfRecord.
Les ensembles de données d'entraînement génèrent des frais uniques lorsque vous configurez un job Vertex AI Model Monitoring.
Les ensembles de données de prédiction sont constitués de journaux collectés à partir du service de prédiction en ligne. Au fur et à mesure que les requêtes de prédiction arrivent au cours de différentes fenêtres temporelles, les données pour chaque fenêtre temporelle sont collectées et la somme des données analysée pour chaque fenêtre de prédiction est utilisée pour calculer les frais.
Exemple : Un data scientist exécute une surveillance de modèle sur le trafic de prédiction appartenant à son modèle.
Sélectionnez les instances, les notebooks gérés ou les notebooks gérés par l'utilisateur pour afficher leurs tarifs.
Instances
Les tableaux ci-dessous indiquent le coût par heure approximatif des différentes configurations de VM. Vous pouvez choisir une configuration personnalisée pour les types de machines sélectionnés. Pour calculer les prix, additionnez les coûts des machines virtuelles que vous utilisez.
Si vous utilisez des types de machines Compute Engine et que vous y associez des accélérateurs, les frais qui y sont liés sont distincts. Pour calculer ces frais, multipliez les tarifs indiqués dans le tableau sur les accélérateurs ci-dessous par le nombre d'heures-machine de chaque type d'accélérateur utilisé.
Processeurs
Type de machine | Prix par vCPU (USD) |
|---|---|
N1 | 0,0379332 $US / 1 hour |
N2 | 0,0379332 $US / 1 hour |
E2 | 0,026173908 $US / 1 hour |
A2 | 0,0379332 $US / 1 hour |
Mémoire
Type de machine | Prix (USD) |
|---|---|
N1 | 0,0050844 $US / 1 gibibyte hour |
N2 | 0,0050844 $US / 1 gibibyte hour |
E2 | 0,003508236 $US / 1 gibibyte hour |
A2 | 0,0050844 $US / 1 gibibyte hour |
Accélérateurs
Type de machine | Prix (USD) |
|---|---|
Nvidia Tesla A100 | 4,400862 $US / 1 hour |
Nvidia Tesla A100 80 Go | 4,51729 $US / 1 hour |
Nvidia Tesla T4 | 0,525 $US / 1 hour |
Nvidia Tesla V100 | 3,72 $US / 1 hour |
Nvidia Tesla P100 | 2,19 $US / 1 hour |
Disques
Type de machine | Prix (USD) |
|---|---|
Espace provisionné Hyperdisk Extreme | 0,000205479 $US / 1 gibibyte hour |
Espace équilibré provisionné | 0,000164384 $US / 1 gibibyte hour |
Espace extrême provisionné | 0,000205479 $US / 1 gibibyte hour |
Espace SSD provisionné | 0,000279452 $US / 1 gibibyte hour |
Espace standard provisionné | 0,000065753 $US / 1 gibibyte hour |
Votre instance Vertex AI Workbench génère des frais comme suit :
Notebooks gérés
La tarification est constituée des ressources de calcul et de stockage que vous utilisez, des frais de gestion liés à vos instances Vertex AI Workbench, et de toutes les ressources cloud supplémentaires que vous utilisez. Pour plus de détails, consultez les sections suivantes.
Ressources de calcul et de stockage
Les ressources de calcul et de stockage sont facturées au même tarif que pour Compute Engine et Cloud Storage.
Frais de gestion
Des frais de gestion Vertex AI Workbench, décrits dans les tableaux ci-dessous, viennent s'ajouter à votre utilisation de l'infrastructure.
SKU | Prix (USD) |
|---|---|
vCPU | 0,05 $ par processeur virtuel |
T4 et P4 (GPU standard) | 0,35 $ par GPU |
GPU P100, V100, L4 et A100 (GPU premium) | 2,48 $ par GPU |
Notebooks gérés par l'utilisateur
La tarification est constituée des ressources de calcul et de stockage que vous utilisez, des frais de gestion liés à vos instances Vertex AI Workbench, et de toutes les ressources cloud supplémentaires que vous utilisez. Pour plus de détails, consultez les sections suivantes.
Ressources de calcul et de stockage
Les ressources de calcul et de stockage sont facturées au même tarif que pour Compute Engine et Cloud Storage.
Frais de gestion
Des frais de gestion Vertex AI Workbench, décrits dans les tableaux ci-dessous, viennent s'ajouter à votre utilisation de l'infrastructure.
SKU | Prix (USD) |
|---|---|
vCPU | 0,005 $ par processeur virtuel |
T4 et P4 (GPU standard) | 0,035 $ par GPU |
GPU P100, V100 et A100 (GPU premium) | 0,25 $ par GPU |
Ressources Google Cloud supplémentaires
Outre les coûts déjà mentionnés, vous payez également les ressources Google Cloud que vous utilisez. Exemple :
Pour en savoir plus sur les tarifs de Colab Enterprise, consultez la page Tarifs de Colab Enterprise.
La tarification des conteneurs de deep learning, de Deep Learning VM Image et d'AI Platform Pipelines est calculée en fonction des ressources de calcul et de stockage que vous utilisez. Ces ressources sont facturées au même tarif que pour Compute Engine et Cloud Storage.
En plus des coûts de calcul et de stockage, vous payez également les ressources Google Cloud que vous utilisez. Exemple :
Vertex AI vous permet de demander l'ajout manuel d'étiquettes sur une collection de données que vous prévoyez d'utiliser pour entraîner un modèle de machine learning personnalisé. Les prix applicables à ce service sont calculés en fonction de la tâche d'étiquetage.
Le tableau ci-dessous présente les tarifs pour 1 000 unités par étiqueteur manuel, en fonction de l'unité indiquée pour chaque objectif. La tarification de niveau 1 s'applique aux 50 000 premières unités comptabilisées par mois pour chaque projet Google Cloud. La tarification de niveau 2 s'applique aux 950 000 unités suivantes comptabilisées par mois pour le projet (dans la limite de 1 000 000 d'unités). Contactez-nous pour connaître les tarifs au-delà de 1 000 000 d'unités par mois.
Type de données | Objectif | Unité | Prix du niveau 1 (USD) | Prix du niveau 2 (USD) |
|---|---|---|---|---|
Image | Classification | Image | 35 $ | 25 $ |
Cadre de délimitation | Cadre de délimitation | 63 $ | 49 $ | |
Segmentation | Segment | 870 $ | 850 $ | |
Cadre en rotation | Cadre de délimitation | 86 $ | 60 $ | |
Polygone/Polyligne | Polygone/Polyligne | 257 $ | 180 $ | |
Vidéo | Classification | Vidéo de 5 secondes | 86 $ | 60 $ |
Suivi des objets | Cadre de délimitation | 86 $ | 60 $ | |
Reconnaissance des actions | Événement d'une vidéo de 30 secondes | 214 $ | 150 $ | |
Texte | Classification | 50 mots | 129 $ | 90 $ |
Sentiment | 50 mots | 200 $ | 140 $ | |
Extraction d'entités | Entité | 86 $ | 60 $ | |
Apprentissage actif | Tous | Élément de données | 80 $ | 56 $ |
Étiqueteur personnalisé | Tous | Élément de données | 80 $ | 56 $ |
En plus des coûts décrits dans ce document, vous devez stocker vos données et vos fichiers de programme dans des buckets Cloud Storage pendant le cycle de vie de Vertex AI. Ce stockage est soumis aux règles de tarification de Cloud Storage.
L'utilisation obligatoire de Cloud Storage comprend ce qui suit :
Les opérations de gestion des ressources proposées par AI Platform sont disponibles sans frais. Les règles relatives aux quotas d'AI Platform limitent certaines de ces opérations.
Ressource | Opérations gratuites |
|---|---|
modèles | create, get, list et delete |
versions | create, get, list, delete et setDefault |
jobs | get, list et cancel |
opérations | get, list, cancel et delete |
Si vous stockez des images à analyser dans Cloud Storage ou si vous utilisez d'autres ressources Google Cloud avec Vertex AI, l'utilisation de ces services vous sera également facturée.
Pour consulter votre état de facturation, y compris votre utilisation et votre facture actuelle, consultez la page Facturation dans la console Google Cloud. Pour en savoir plus sur la gestion de votre compte, consultez la documentation Cloud Billing ou contactez l'assistance pour la facturation et les paiements.