Tarification de Vertex AI
Les tarifs sont indiqués en dollars américains (USD). Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU Cloud Platform s'appliquent.
Tarifs de Vertex AI par rapport aux tarifs de l'ancienne version d'AI Platform
Les coûts de Vertex AI restent identiques à ceux des produits existants remplacés par Vertex AI. Par exemple, les coûts associés à l'entraînement d'un modèle de classification d'images AutoML sont identiques, que vous l'entraîniez avec Vertex AI ou AutoML Vision.
Si vous utilisez d'anciens produits AI Platform, votre facturation peut être exprimée en termes d'unités de ML.
Tarifs des modèles AutoML
Pour les modèles Vertex AI AutoML, vous payez pour trois activités principales:
- Entraîner le modèle
- Déployer le modèle sur un point de terminaison
- Utiliser le modèle pour effectuer des prédictions
Vertex AI utilise des configurations de machine prédéfinies pour les modèles AutoML Vertex, et le tarif horaire pour ces activités reflète l'utilisation des ressources.
La durée requise dépend de la taille et de la complexité de vos données d'entraînement. Les modèles doivent être déployés avant de pouvoir fournir des prédictions ou des explications en ligne.
Vous payez pour chaque modèle déployé sur un point de terminaison, même si aucune prédiction n'est effectuée. Vous devez annuler le déploiement de votre modèle pour ne pas générer de frais supplémentaires. Les modèles qui ne sont pas déployés ou dont le déploiement a échoué ne sont pas facturés.
Vous ne payez que pour les heures de calcul utilisées. Si l'entraînement échoue pour une raison autre qu'une annulation déclenchée par l'utilisateur, le temps ne vous est pas facturé. Si vous annulez l'opération, le temps d'entraînement vous sera facturé.
Sélectionnez un type de modèle ci-dessous pour accéder aux informations tarifaires.
Données d'image
Operation | Prix par nœud-heure (classification) | Prix par nœud-heure (détection d'objets) |
---|---|---|
Formation | 3,465 $ | 3,465 $ |
Entraînement (modèle Edge sur appareil) | 18,00 $ | 18,00 $ |
Déploiement et prédiction en ligne | 1,375 $ | 2,002 $ |
Prédiction par lot | 2,222 $ | 2,222 $ |
Statistiques relatives aux vidéos
Opération | Prix par nœud-heure (classification, suivi des objets) | Prix par nœud-heure (reconnaissance des actions) |
---|---|---|
Entraînement | 3,234 $ | 3,300 $ |
Entraînement (modèle Edge sur appareil) | 10,78 $ | 11,00 $ |
Prédictions | 0,462 $ | 0,550 $ |
Données tabulaires
Operation | Prix par nœud-heure pour la classification/régression | Prix des prévisions |
---|---|---|
Formation | 21,252 $ | Consultez la page Prévisions Vertex AI. |
Prédiction | Même prix que les prédictions pour les modèles entraînés personnalisés | Consultez la page Prévisions Vertex AI. |
Text data
Operation | Prix |
---|---|
Ancienne importation de données (fichiers PDF uniquement) |
1 000 premières pages gratuites chaque mois 1,50 $ les 1 000 pages 0,60 $ les 1 000 pages lorsque le nombre de pages est supérieur à 5 000 000 |
Entraînement | 3,30 $ par heure |
Deployment | 0,05 $ par heure |
Prédiction |
5,00 $ par tranche de 1 000 enregistrements texte 25 $ par tranche de 1 000 pages de document, comme les fichiers PDF (version antérieure uniquement) |
Les prix des requêtes de prédiction de texte AutoML Vertex sont calculés en fonction du nombre d'enregistrements texte que vous envoyez pour analyse. Un enregistrement texte correspond à du texte brut qui contient jusqu'à 1 000 caractères Unicode (espaces blancs et caractères de balisage tels que les balises HTML ou XML inclus).
Si le texte fourni dans une requête de prédiction contient plus de 1 000 caractères, chaque bloc de 1 000 caractères est compté comme un enregistrement texte. Par exemple, si vous envoyez trois requêtes contenant respectivement 800, 1 500 et 600 caractères, quatre enregistrements texte vous seront facturés : un pour la première requête (800), deux pour la deuxième (1 500) et un pour la troisième requête (600).
Frais de prédiction pour Vertex Explainable AI
Les calculs associés à Vertex Explainable AI sont facturés au même tarif que la prédiction. Cependant, le traitement des explications est plus long que celui des prédictions standards. L'utilisation intensive de Vertex Explainable AI avec l'autoscaling peut donc entraîner le démarrage de davantage de nœuds, et ainsi augmenter les frais encourus pour les prédictions.
Vertex AI Forecast
AutoML
Étape | Tarifs |
---|---|
Prédiction | 0,2 $ pour 1 000 points de données* (0-1 million de points) 0,1$pour 1 000 points de données* (1 million à 50 millions de points) 0,02$pour 1 000 points de données* (>50 millions de points) |
Entraînement | 21,25 $/h dans toutes les régions |
Explicabilité à l'aide de valeurs de Shapley. Veuillez consulter la page des tarifs de Vertex AI Prediction et Explications. |
* Un point de données de prédiction est un point temporel de l'horizon de prévision. Par exemple, avec une précision quotidienne, un horizon de sept jours correspond à sept points par série temporelle.
- Vous pouvez inclure jusqu'à cinq quantiles de prédiction sans frais supplémentaires.
- Le nombre de points de données consommés par niveau est actualisé tous les mois.
ARIMA+
Étape | Tarifs |
---|---|
Prédiction | 5,00 $ par To |
Entraînement | 250,00$par To x Nombre de modèles candidats x Nombre de périodes de tests* |
L'explicabilité de la décomposition des séries temporelles n'entraîne aucun coût supplémentaire. L'explicabilité à l'aide de valeurs de Shapley n'est pas acceptée. |
Pour en savoir plus, consultez la page des tarifs de BigQuery ML. Chaque tâche d'entraînement et de prédiction entraîne le coût d'une exécution de pipeline géré, comme décrit dans la section Tarifs de Vertex AI.
* Une fenêtre de backtesting est créée pour chaque période de l'ensemble de test. AUTO_ARIMA_MAX_ORDER détermine le nombre de modèles candidats. Elle est comprise entre 6 et 42 pour les modèles comportant plusieurs séries temporelles.
Modèles entraînés personnalisés
Entraînement
Les tableaux ci-dessous indiquent le coût par heure approximatif des différentes configurations de l'entraînement. Vous pouvez choisir une configuration personnalisée pour les types de machines sélectionnés. Pour calculer les prix, additionnez les coûts des machines virtuelles que vous utilisez.
Si vous utilisez des types de machines Compute Engine et que vous y associez des accélérateurs, les frais qui y sont liés sont distincts. Pour calculer ces frais, multipliez les tarifs indiqués dans le tableau sur les accélérateurs ci-dessous par le nombre d'accélérateurs de chaque type utilisés.
Types de machine
Amériques
Europe
Asie-Pacifique
Accélérateurs
Amériques
Europe
Asie-Pacifique
* Le prix de l'entraînement à l'aide d'un pod Cloud TPU est basé sur le nombre de cœurs du pod. Le nombre de cœurs d'un pod est toujours un multiple de 32. Pour déterminer le prix d'un entraînement sur un pod de plus de 32 cœurs, multipliez le prix d'un pod de 32 cœurs par le nombre de cœurs, divisé par 32. Par exemple, pour un pod de 128 cœurs, le prix est de (32-core Pod price) * (128/32)
. Pour en savoir plus sur les pods Cloud TPU disponibles pour une région spécifique, consultez la page Architecture système de la documentation Cloud TPU.
Disques
Amériques
Europe
Asie-Pacifique
- Toute utilisation est soumise aux règles de quotas de Vertex AI.
- Vous devez stocker vos données et vos fichiers de programme dans des buckets Google Cloud Storage pendant le cycle de vie de Vertex AI. En savoir plus sur l'utilisation de Cloud Storage
L'entraînement de vos modèles vous est facturé à partir du moment où les ressources sont provisionnées pour une tâche et jusqu'à la fin de celle-ci.
Niveaux d'évolutivité pour les configurations prédéfinies (AI Platform Training)
Vous pouvez contrôler le type de cluster de traitement à utiliser pour l'entraînement de votre modèle. La méthode la plus simple consiste à choisir parmi l'une des configurations prédéfinies appelées niveaux d'évolutivité. En savoir plus sur les niveaux d'évolutivité
Types de machines pour les configurations personnalisées
Si vous utilisez Vertex AI ou sélectionnez CUSTOM
comme niveau d'évolutivité pour AI Platform Training, vous contrôlez le nombre et le type de machines virtuelles à utiliser pour le maître du cluster, le nœud de calcul et le serveur de paramètres. Apprenez-en plus sur les types de machines pour Vertex AI et les types de machines pour AI Platform Training.
Le coût de l'entraînement avec un cluster de traitement personnalisé correspond à la somme de toutes les machines que vous indiquez. La durée totale de la tâche, et non le temps de traitement actif de chaque machine, vous est facturée.
Calculer le coût de l'entraînement à l'aide du nombre d'unités de ML consommées
Les unités ML consommées (unités de machine learning consommées) indiquées sur la page Informations sur la tâche correspondent aux unités d'entraînement pour la durée de la tâche prise en compte. Pour effectuer vos calculs avec des unités ML consommées, utilisez la formule suivante :
(Consumed ML units) * (Machine type cost)
Exemple :
Un data scientist exécute une tâche d'entraînement sur une instance de machine
e2-standard-4
dans la région us-west1 (Oregon). Le champ Unités de ML consommées de la page Informations sur la tâche indique 55,75. Le calcul est le suivant :55.75 consumed ML units * 0.154114
Pour un total de 8,59 $pour la tâche.
Pour accéder à la page Informations sur la tâche, consultez la liste des tâches et cliquez sur le lien correspondant à la tâche concernée.
Prédiction et explication
Le tableau suivant indique le coût par nœud-heure des prédictions par lot et en ligne ainsi que des explications en ligne. Les nœuds-heure correspondent au temps durant lequel une machine virtuelle exécute une tâche de prédiction ou durant lequel elle est disponible pour traiter les requêtes de prédiction ou d'explication.
Amériques
Prédiction | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Prédictions et explications |
|
Europe
Prédiction | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Prédictions et explications |
|
Asie-Pacifique
Prédiction | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Prédictions et explications |
|
Chaque type de machine est facturé comme deux codes SKU distincts sur votre facture Google Cloud:
- Coût du processeur virtuel, mesuré en processeurs virtuels-heure
- Coût de la mémoire RAM, mesurée en Go-heure
Les tarifs des types de machines indiqués dans le tableau précédent sont basés sur une approximation du coût horaire total pour chaque nœud de prédiction d'une version de modèle utilisant ce type de machine. Par exemple, étant donné qu'un type de machine n1-highcpu-32
inclut 32 processeurs virtuels et 28,8 Go de mémoire RAM, le tarif horaire par nœud est égal à 32 processeurs virtuels-heure + 28,8 Go-heure.
Les tarifs indiqués dans le tableau précédent sont fournis pour vous aider à estimer vos coûts de prédiction. Le tableau suivant indique les tarifs des processeurs virtuels et de la mémoire RAM pour les types de machines de prédiction, qui reflètent plus précisément les codes SKU qui vous seront facturés:
Amériques
Codes SKU des types de machines de prédiction | |||||||
---|---|---|---|---|---|---|---|
Processeur virtuel |
|
||||||
RAM |
|
Europe
Codes SKU des types de machines de prédiction | |||||
---|---|---|---|---|---|
Processeur virtuel |
|
||||
RAM |
|
Asie-Pacifique
Codes SKU des types de machines de prédiction | |||||||||
---|---|---|---|---|---|---|---|---|---|
Processeur virtuel |
|
||||||||
RAM |
|
Vous pouvez également utiliser des accélérateurs GPU pour les prédictions. Les GPU entraînent des frais supplémentaires en plus de ceux décrits dans le tableau précédent. Le tableau suivant indique les tarifs pour chaque type de GPU :
Amériques
Accélérateurs – Prix par heure | |||||||
---|---|---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
|
||||||
NVIDIA_TESLA_P4
|
|
||||||
NVIDIA_TESLA_P100
|
|
||||||
NVIDIA_TESLA_T4
|
|
||||||
NVIDIA_TESLA_V100
|
|
Europe
Accélérateurs – Prix par heure | |||||
---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
|
||||
NVIDIA_TESLA_P4
|
|
||||
NVIDIA_TESLA_P100
|
|
||||
NVIDIA_TESLA_T4
|
|
||||
NVIDIA_TESLA_V100
|
|
Asie-Pacifique
Accélérateurs – Prix par heure | |||||||
---|---|---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
|
||||||
NVIDIA_TESLA_P4
|
|
||||||
NVIDIA_TESLA_P100
|
|
||||||
NVIDIA_TESLA_T4
|
|
||||||
NVIDIA_TESLA_V100
|
Non disponible |
Les tarifs sont indiqués par GPU. Aussi, si vous utilisez plusieurs GPU par nœud de prédiction (ou si votre version évolue pour utiliser plusieurs nœuds), les coûts évoluent en conséquence.
AI Platform Prediction réalise des prédictions à partir de votre modèle en exécutant plusieurs machines virtuelles ("nœuds"). Par défaut, Vertex AI ajuste automatiquement le nombre de nœuds en cours d'exécution à tout moment. Pour la prédiction en ligne, le nombre de nœuds s'adapte en fonction de la demande. Chaque nœud peut répondre à plusieurs requêtes de prédiction. Pour la prédiction par lot, le nombre de nœuds s'adapte afin de réduire la durée totale d'exécution de la tâche. Vous pouvez personnaliser le scaling des nœuds de prédiction.
Pour votre modèle, la durée d'exécution de chaque nœud vous est facturée, y compris dans les cas suivants :
- Lorsque le nœud traite une tâche de prédiction par lot
- Lorsque le nœud traite une requête de prédiction en ligne
- Lorsque le nœud est disponible pour les prédictions en ligne
L'heure de nœud correspond au coût d'exécution d'un nœud durant une heure. Le tableau des tarifs relatifs aux prédictions indique le prix d'un nœud-heure, qui varie selon les régions et le type de prédiction (en ligne ou par lot).
Les nœuds-heure peuvent être fractionnés afin d'être consommés par tranches. Par exemple, l'exécution d'un nœud durant 30 minutes coûte 0,5 nœud-heure.
Calcul des coûts pour les anciens types de machines (MLS1) et la prédiction par lot
- La durée d'exécution d'un nœud se mesure par tranches d'une minute et est arrondie à la minute supérieure. Par exemple, si un nœud s'exécute durant 20,1 minutes, son coût d'exécution sera calculé sur la base de 21 minutes.
- Les durées d'exécution de nœud inférieures à 10 minutes sont arrondies à 10 minutes. Par exemple, si un nœud s'exécute durant 3 minutes seulement, son coût d'exécution sera calculé sur la base de 10 minutes.
Calcul des coûts pour les types de machines Compute Engine (N1)
- La durée d'exécution d'un nœud est facturée par tranches de 30 secondes. Ainsi, toutes les 30 secondes, votre projet est facturé pour 30 secondes d'utilisation des processeurs virtuels, de la mémoire RAM et des ressources GPU alors utilisés par votre nœud.
Informations supplémentaires sur le scaling automatique des nœuds de prédiction
Prédiction en ligne | Prédiction par lot |
---|---|
La priorité du scaling est de réduire la latence des requêtes individuelles. Le service permet à votre modèle de rester disponible pendant quelques minutes d'inactivité après le traitement d'une requête. | La priorité du scaling est de réduire le temps total de la tâche. |
Le scaling a un effet sur le montant total qui vous est facturé chaque mois : plus vos requêtes sont nombreuses et fréquentes, plus le volume de nœuds utilisés est important. | Le scaling doit avoir peu d'effet sur le prix de votre tâche, même si la création d'un nœud engendre des frais. |
Vous pouvez choisir de laisser le service s'adapter en fonction du trafic (scaling automatique) ou définir un nombre de nœuds à exécuter en permanence pour éviter la latence (scaling manuel).
|
Vous pouvez modifier le scaling en définissant un nombre maximal de nœuds à utiliser pour une tâche de prédiction par lot et en définissant le nombre de nœuds à exécuter pour un modèle lorsque vous le déployez. |
Coût minimal de 10 minutes
Souvenez-vous que si un nœud s'exécute pendant moins de 10 minutes, vous serez quand même facturé 10 minutes. Par exemple, supposons que vous utilisiez le scaling automatique. Pendant une période sans trafic, si vous utilisez un ancien type de machine (MLS1) dans AI Platform Prediction, aucun nœud n'est utilisé. Si vous utilisez Vertex AI ou d'autres types de machines dans AI Platform Prediction, au moins un nœud est toujours utilisé. La réception d'une seule requête de prédiction en ligne déclenche l'exécution d'un nœud pour traiter la requête. Après avoir traité la requête, le nœud continue de s'exécuter et reste disponible quelques minutes. Ensuite, il s'arrête. Même si le nœud a fonctionné moins de 10 minutes, son exécution vous est facturée 10 minutes de nœud (0,17 nœud-heure).
De même, si un nœud est ajouté pour traiter plusieurs requêtes de prédiction en ligne pendant 10 minutes avant de s'arrêter, vous serez facturé 10 minutes de nœud.
Vous pouvez utiliser le scaling manuel pour contrôler précisément le nombre de nœuds à exécuter durant une période donnée. Toutefois, si un nœud s'exécute pendant moins de 10 minutes, vous êtes quand même facturé 10 minutes.
En savoir plus sur l'attribution et le scaling des nœuds
Les tâches de prédiction par lot sont facturées une fois qu'elles sont terminées
Les tâches de prédiction par lot sont facturées une fois qu'elles sont terminées, et non de manière incrémentielle au cours de la tâche. Les alertes budgétaires Cloud Billing que vous avez configurées ne sont pas déclenchées lorsqu'une tâche est en cours d'exécution. Avant de démarrer une tâche volumineuse, nous vous recommandons d'abord d'exécuter des tâches de benchmark des coûts avec de petites données d'entrée.
Exemple de calcul de frais liés aux prédictions
Une agence immobilière implantée dans la région des Amériques exécute une prédiction hebdomadaire de la valeur des biens immobiliers dans la zone qu'elle couvre. En un mois, elle exécute des prédictions pendant quatre semaines, par lots de 3920
, 4277
, 3849
et 3961
. Les tâches sont traitées par un seul nœud, et chaque instance nécessite en moyenne 0.72
seconde de traitement.
Commencez par calculer la durée d'exécution de chaque tâche :
3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes 4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes 3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes 3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes
L'exécution de chaque tâche a duré plus de 10 minutes, et sera donc facturée à la minute de traitement.
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.0685711 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.061977725 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964
Le coût total s'élève à 0,26 $ pour le mois.
Dans cet exemple, nous avons supposé que les tâches s'exécutaient sur un seul nœud et prenaient le même temps pour chaque instance d'entrée. En utilisation réelle, veillez à prendre en compte plusieurs nœuds et à utiliser le temps d'exécution effectif de chacun d'eux dans vos calculs.
Frais pour Vertex Explainable AI
Vertex Explainable AI est disponible sans frais supplémentaires pour les prédictions. Cependant, le traitement des explications est plus long que celui des prédictions standards. L'utilisation intensive de Vertex Explainable AI avec l'autoscaling peut donc entraîner le démarrage de davantage de nœuds, et ainsi augmenter vos frais pour les prédictions.
Vertex AI Pipelines
Vertex AI Pipelines facture des frais d'exécution de 0,03 $ par exécution de pipeline. Les frais d'exécution ne vous sont pas facturés pendant la version bêta. Vous payez également les ressources Google Cloud que vous utilisez avec Vertex AI Pipelines, telles que les ressources Compute Engine utilisées par les composants du pipeline (facturées au même tarif que pour l'entraînement Vertex AI.) Enfin, vous êtes responsable du coût des services (tels que Dataflow) appelés par votre pipeline.
Feature Store Vertex AI
Les tarifs du Feature Store Vertex AI sont basés sur la quantité de données de caractéristiques stockées en ligne et hors connexion, ainsi que sur la disponibilité de la diffusion en ligne. Les nœuds-heure correspondent au temps qu'une machine virtuelle passe à diffuser des données de caractéristiques ou durant lequel elle est disponible pour traiter les requêtes de données de caractéristiques.
Operation | Price |
---|---|
Stockage en ligne | 0,25 $ par Go/mois |
Stockage hors connexion | 0,023 $ par Go/mois |
Diffusion en ligne | 0,94 $ par nœud et par heure |
Exportation par lot | 0,005 $ par Go |
Ingestion en flux continu | 0,10 $ par Go d'ingestion Vous n'êtes pas facturé pendant la version bêta. |
Lorsque vous activez la surveillance de la valeur des caractéristiques, la facturation inclut les frais applicables ci-dessus, en plus des frais applicables suivants:
- 3,50 $ par Go pour toutes les données analysées. Lorsque l'analyse des instantanés est activée, les instantanés sont pris pour les données dans Vertex AI Feature Store. Lorsque l'analyse des caractéristiques d'importation est activée, des lots de données ingérées sont inclus.
- D'autres opérations Vertex AI Feature Store utilisées pour la surveillance des valeurs des caractéristiques sont facturées comme suit :
- La fonctionnalité d'analyse d'instantanés prend régulièrement un instantané des valeurs des caractéristiques en fonction de votre configuration pour l'intervalle de surveillance.
- Les frais d'exportation d'un instantané sont identiques à ceux d'une exportation par lot standard.
Exemple d'analyse d'instantanés
Un data scientist active la surveillance des valeurs des caractéristiques de Vertex AI Feature Store et active la surveillance pour une analyse d'instantanés quotidienne. Un pipeline s'exécute quotidiennement pour la surveillance des types d'entités. Le pipeline analyse 2 Go de données dans Vertex AI Feature Store et exporte un instantané de 0,1 Go de données. Frais totaux pour l'analyse d'une journée:
(0.1 GB * $3.50) + (2 GB * $0.005) = $0.36
Exemple d'analyse de l'ingestion
Un data scientist active la surveillance de la valeur des caractéristiques pour Vertex AI Feature Store et active la surveillance des opérations d'ingestion. Une opération d'ingestion importe 1 Go de données dans Vertex AI Feature Store. Le coût total de la surveillance de la valeur des caractéristiques est le suivant:
(1 GB * $3.50) = $3.50
Vertex ML Metadata
Le stockage de métadonnées est mesuré en gigaoctets binaires (Gio), et 1 Gio correspond à 1 073 741 824 octets. Cette unité de mesure est parfois appelée gibibyte
.
Vertex ML Metadata facture 10 $ par gibioctet (Gio) par mois pour le stockage de métadonnées. Les prix sont calculés au prorata par mégaoctet (Mo). Par exemple, si vous stockez 10 Mo de métadonnées, vous payez 0,10 $par mois.
Les prix sont les mêmes dans toutes les régions où les métadonnées de Vertex ML sont acceptées.
Vertex AI TensorBoard
Pour utiliser Vertex AI TensorBoard, demandez à l'administrateur IAM du projet de vous attribuer le rôle "Vertex AI TensorBoard Web App User". Le rôle d'administrateur Vertex AI a également accès.
Vertex AI TensorBoard facture des frais mensuels de 300 $ par utilisateur actif unique. Les utilisateurs actifs sont mesurés via l'interface utilisateur Vertex AI TensorBoard. Vous payez également les ressources Google Cloud que vous utilisez avec Vertex AI TensorBoard, telles que les journaux TensorBoard stockés dans Cloud Storage.
Vertex AI Vizier
Vertex AI Vizier est un service d'optimisation par boîte noire intégré à Vertex AI. Le modèle de tarification de Vertex AI Vizier comprend les éléments suivants :
- Aucuns frais ne s'appliquent pour les essais qui utilisent
RANDOM_SEARCH
etGRID_SEARCH
. En savoir plus sur les algorithmes de recherche - Les 100 premiers essais de Vertex AI Vizier par mois civil sont disponibles gratuitement. Les essais utilisant
RANDOM_SEARCH
etGRID_SEARCH
ne sont pas pris en compte dans ce total. - Après 100 essais de Vertex AI Vizier, les essais ultérieurs effectués au cours du même mois calendaire sont facturés 1 $ par essai (les essais utilisant
RANDOM_SEARCH
ouGRID_SEARCH
n'entraînent aucuns frais).
Vertex AI Matching Engine
La tarification du service plus proches voisins approximatifs de Vertex AI Matching Engine comprend les éléments suivants :
- Tarifs par nœud-heure pour chaque VM utilisée pour héberger un index déployé.
- Coût de la création d'index, de la mise à jour d'index existants et de l'utilisation des mises à jour d'index en flux continu.
Les données traitées lors de la création et de la mise à jour des index sont mesurées en gigaoctets binaires (Gio) ; 1 Gio correspond à 1 073 741 824 octets. Cette unité de mesure est parfois appelée gibibyte
.
Vertex AI Matching Engine facture 3,00 $par gibioctet (Gio) de données traitées dans toutes les régions. Vertex AI Matching Engine facture 0,45 $/Go ingéré pour les insertions en flux continu. Pour les mises à jour en flux continu, ces frais ne vous sont pas facturés pendant la version bêta.
Les tableaux suivants récapitulent la tarification de la diffusion d'index dans chaque région où le moteur de correspondance est disponible.
Amériques
Type de machine — Région — Prix par nœud-heure | |||||||||
---|---|---|---|---|---|---|---|---|---|
n1-standard-16
|
|
||||||||
n1-standard-32
|
|
Europe
Type de machine — Région — Prix par nœud-heure | |||
---|---|---|---|
n1-standard-16
|
|
||
n1-standard-32
|
|
Asie-Pacifique
Type de machine — Région — Prix par nœud-heure | |||
---|---|---|---|
n1-standard-16
|
|
||
n1-standard-32
|
|
Exemples de tarifs de moteur correspondants
La tarification de Vertex AI Matching Engine est déterminée par la taille de vos données, le nombre de requêtes par seconde (RPS) que vous souhaitez exécuter et le nombre de nœuds que vous utilisez. Pour obtenir le coût de diffusion estimé, vous devez calculer la taille totale des données. La taille de vos données correspond au nombre de représentations vectorielles continues/vecteurs* du nombre de dimensions disponibles* 4 octets par dimension. Une fois que vous avez la taille de vos données, vous pouvez calculer le coût de diffusion et le coût du bâtiment. Le coût de diffusion plus le coût de la construction sont équivalents au coût total mensuel.
- Coût de diffusion: # instance dupliquée/séculaire * segment
- Coût du bâtiment: taille des données(en Go) x 3 $/Go x nombre de mises à jour/mois
Le coût mensuel de création d'un index correspond à la taille des données x 3,00 par gigaoctet. La fréquence de mise à jour n'affecte pas le coût de diffusion, mais uniquement le coût du bâtiment. Si vous utilisez les mises à jour des index de flux, votre index est recréé lorsque le volume de données par flux atteint 1 Go ou au bout de trois jours, selon la première échéance atteinte. Ces paramètres seront ajustés à mesure que nous approcherons de la disponibilité mondiale de la fonctionnalité pour réduire davantage la fréquence de recompilation de l'index. La tâche de recréation d'index complète pour les mises à jour en flux continu est facturée au prix de l'indexation par lot de 3 $/Go.
Nombre de représentations vectorielles continues/vecteurs | Nombre de dimensions | Requêtes par seconde (RPS) | Fréquence de mise à jour | Coût mensuel estimé de création d'un index | Nœuds | Coût de diffusion mensuel estimé |
---|---|---|---|---|---|---|
20 millions | 128 | 1 000 | Mensuelle | $30 | 1 | 766 $ |
100 millions | 256 | 3 000 | Hebdomadaire | 1 200 $ | 15 | 11 491 $ |
500 millions | 128 | 20 000 | Hebdomadaire | 3 000 $ | 260 | 199 160 $ |
1 milliard | 512 | 5 000 | Mensuelle | 6 000 $ | 500 | 383 000 $ |
Tous les exemples sont basés sur n1-standard-16
dans us-central1
.
Le coût qui vous est facturé dépend des exigences liées au taux de rappel et à la latence. Le coût de diffusion mensuel estimé est directement lié au nombre de nœuds utilisés dans la console.
Pour en savoir plus sur les paramètres de configuration qui ont une incidence sur les coûts, consultez la section Paramètres de configuration ayant une incidence sur le rappel et la latence.
Si le nombre de requêtes par seconde (RPS) est élevé, le traitement par lot de requêtes peut réduire les coûts totaux de 30 à 40 %.
Vertex AI Model Registry
Vertex AI Model Registry est un dépôt central qui suit et répertorie vos modèles et leurs versions. Vous pouvez importer des modèles dans Vertex AI. Ils apparaissent dans le registre de modèles Vertex AI. L'intégration de vos modèles dans le registre de modèles Vertex AI n'engendre aucun coût. Les coûts ne sont facturés que lorsque vous déployez le modèle sur un point de terminaison ou que vous effectuez une prédiction par lot sur le modèle. Ce coût est déterminé par le type de modèle que vous déployez.
Pour en savoir plus sur la tarification du déploiement de modèles personnalisés à partir du registre de modèles Vertex AI, consultez la page Modèles entraînés personnalisés. Pour en savoir plus sur la tarification du déploiement de modèles AutoML, consultez la page Tarifs des modèles AutoML.
Vertex AI Model Monitoring
Vertex AI vous permet de surveiller l'efficacité continue de votre modèle après son déploiement en production. Pour plus d'informations, consultez la page Présentation de Vertex AI Model Monitoring.
Lorsque vous utilisez Vertex AI Model Monitoring, vous êtes facturé pour les éléments suivants :
- 3,50 $ par Go pour toutes les données analysées, y compris les données d'entraînement fournies et les données de prédiction enregistrées dans une table BigQuery.
- Frais pour les autres produits Google Cloud que vous utilisez avec Model Monitoring, tels que le stockage BigQuery ou Batch Explain lorsque la surveillance de l'attribution est activée.
Vertex AI Model Monitoring est compatible avec les régions suivantes : us-central1
, europe-west4
, asia-east1
et asia-southeast1
. Les prix sont les mêmes dans toutes les régions.
Les tailles des données sont mesurées après leur conversion au format TfRecord.
Les ensembles de données d'entraînement entraînent des frais uniques lorsque vous configurez une tâche Vertex AI Model Monitoring.
Les ensembles de données de prédiction sont constitués de journaux collectés à partir du service de prédiction en ligne. Au fur et à mesure que les requêtes de prédiction arrivent au cours de différentes fenêtres temporelles, les données pour chaque fenêtre temporelle sont collectées et la somme des données analysée pour chaque fenêtre de prédiction est utilisée pour calculer les frais.
Exemple : un data scientist exécute une surveillance de modèle sur le trafic de prédiction appartenant à son modèle.
- Le modèle est entraîné à partir d'un ensemble de données BigQuery. La taille des données après la conversion au format TfRecord est de 1,5 Go.
- Les données de prédiction enregistrées entre 13h00 et 14h00 représentent 0,1 Go, et 0,2 Go entre 15h00 et 16h00.
Le prix total pour la configuration de la tâche de surveillance du modèle se présente comme suit :
(1.5 GB * $3.50) + ((0.1 GB + 0.2 GB) * $3.50) = $6.30
Vertex AI Workbench
La tarification se compose des ressources de calcul et de stockage que vous utilisez, des frais de gestion de vos instances Vertex AI Workbench et de toute autre ressource Google Cloud que vous utilisez. Pour en savoir plus, consultez les sections suivantes.
Ressources de calcul et de stockage
Les ressources de calcul et de stockage sont facturées au même tarif que vous payez actuellement pour Compute Engine et Cloud Storage.
Frais de gestion
Des frais de gestion Vertex AI Workbench s'appliquent en plus de votre utilisation de l'infrastructure, comme indiqué dans les tableaux ci-dessous.
Sélectionnez les notebooks gérés ou les notebooks gérés par l'utilisateur pour afficher leurs tarifs.
Notebooks gérés
Code SKU | Frais de gestion par heure |
---|---|
vCPU | 0,05 $ par vCore |
T4, K80 et P4 (GPU standard) | 0,35 $ par GPU |
GPU P100, V100 et A100 (GPU Premium) | 2,48 $ par GPU |
Notebooks gérés par l'utilisateur
Code SKU | Frais de gestion par heure |
---|---|
vCPU | 0,005 $ par vCore |
T4, K80 et P4 (GPU standard) | 0,035 $ par GPU |
GPU P100, V100 et A100 (GPU Premium) | 0,25 $ par GPU |
Ressources Google Cloud supplémentaires
En plus des coûts mentionnés précédemment, vous payez également les ressources Google Cloud que vous utilisez. Exemple :
Services d'analyse de données : des frais BigQuery vous sont facturés lors de l'envoi de requêtes SQL dans un notebook (consultez la page Tarifs de BigQuery).
Clés de chiffrement gérées par le client : l'utilisation de ces clés engendre des frais. Chaque fois que votre instance de notebooks gérés ou de notebooks gérés par l'utilisateur utilise une clé Cloud Key Management Service, cette opération est facturée selon les tarifs des opérations de clé Cloud KMS (consultez les tarifs de Cloud Key Management Service).
Conteneurs de deep learning, deep learning et AI Platform Pipelines
Pour les conteneurs de deep learning, les images de VM de deep learning et AI Platform Pipelines, la tarification est calculée en fonction des ressources de calcul et de stockage que vous utilisez. Ces ressources sont facturées au même tarif que vous payez actuellement pour Compute Engine et Cloud Storage.
En plus des coûts de calcul et de stockage, les ressources Google Cloud que vous utilisez vous sont facturées. Exemple :
Services d'analyse de données : des frais BigQuery vous sont facturés lors de l'envoi de requêtes SQL dans un notebook (consultez la page Tarifs de BigQuery).
Clés de chiffrement gérées par le client : l'utilisation de ces clés engendre des frais. Chaque fois que votre instance de notebooks gérés ou de notebooks gérés par l'utilisateur utilise une clé Cloud Key Management Service, cette opération est facturée selon les tarifs des opérations de clé Cloud KMS (consultez les tarifs de Cloud Key Management Service).
Ajout d'étiquettes aux données
Vertex AI vous permet de demander l'ajout manuel d'étiquettes sur une collection de données que vous prévoyez d'utiliser pour entraîner un modèle de machine learning personnalisé. Les prix applicables à ce service sont calculés en fonction de la tâche d'étiquetage.
- Pour les tâches d'étiquetage standards, les prix sont déterminés par le nombre d'unités d'annotation.
- Pour une tâche de classification d'image, les unités sont déterminées par le nombre d'images et le nombre d'étiqueteurs manuels. Par exemple, une image avec trois étiqueteurs manuels compte pour 1 x 3 = 3 unités. Le prix est le même pour une classification à étiquette unique et une classification multi-étiquette.
- Pour une tâche de cadre de délimitation d'image, les unités sont déterminées par le nombre de cadres de délimitation identifiés dans les images et le nombre d'étiqueteurs manuels. Par exemple, une image avec deux cadres de délimitation et trois étiqueteurs humains compte pour 2 * 3 = 6 unités. Les images sans cadre de délimitation ne sont pas facturées.
- Pour une tâche de segmentation/cadre en rotation/polyligne/polygone d'image, les unités sont déterminées de la même manière qu'une tâche de cadre de délimitation d'image.
- Pour une tâche de classification de vidéo, les unités sont déterminées par la durée de la vidéo (une unité tarifaire correspond à environ cinq secondes) et le nombre d'étiqueteurs manuels. Par exemple, une vidéo de 25 secondes avec 3 étiqueteurs manuels compte pour 25 / 5 x 3 = 15 unités. Le prix est le même pour une classification à étiquette unique et une classification multi-étiquette.
- Pour une tâche de suivi d'objet vidéo, les unités sont déterminées par le nombre d'objets identifiés dans la vidéo et par le nombre d'étiqueteurs manuels. Par exemple, une vidéo comportant deux objets et trois étiqueteurs manuels compte pour 2 x 3 = 6 unités. Une vidéo sans objet n'est pas facturée.
- Pour une tâche de reconnaissance d'actions dans des vidéos, les unités sont déterminées de la même manière qu'une tâche de suivi d'objet vidéo.
- Pour une tâche de classification de texte, les unités sont déterminées par la longueur du texte (une unité tarifaire correspond à environ 50 mots) et le nombre d'étiqueteurs manuels. Par exemple, un texte avec 100 mots et 3 étiqueteurs manuels compte pour 100 / 50 x 3 = 6 unités. Le prix est le même pour une classification à étiquette unique et une classification multi-étiquette.
- Pour une tâche d'analyse de sentiment d'un texte, les unités sont déterminées de la même manière qu'une tâche de classification de texte.
- Pour une tâche d'extraction d'entité de texte, les unités sont déterminées par la longueur du texte (une unité tarifaire correspond à environ 50 mots), le nombre d'entités identifiées et le nombre d'étiqueteurs manuels. Par exemple, un texte contenant 100 mots, 2 entités identifiées et 3 étiqueteurs manuels compte pour 100 / 50 x 2 x 3 = 12 unités. Les textes sans entité ne sont pas facturés.
Pour les tâches d'analyse de sentiment d'un texte et de classification d'images, de vidéos et de texte, les étiqueteurs humains peuvent perdre la trace des classes si la taille de l'ensemble d'étiquettes est trop importante. Par conséquent, nous envoyons au maximum 20 classes à la fois aux étiqueteurs manuels. Par exemple, si la taille de l'ensemble d'étiquettes d'une tâche d'étiquetage est de 40, chaque élément de données est envoyé 40 / 20 = 2 fois pour examen manuel, et nous vous facturons deux fois le prix ( calculé ci-dessus).
Pour une tâche d'étiquetage qui active la fonctionnalité d'étiqueteur personnalisé, chaque élément de données est comptabilisé comme une unité d'étiqueteur personnalisé.
Pour une tâche d'ajout d'étiquettes d'apprentissage actif pour les éléments de données comportant des annotations générées par des modèles (sans l'aide d'un étiqueteur manuel), chaque élément de données est comptabilisé comme une unité d'apprentissage actif.
Pour une tâche d'ajout d'étiquettes d'apprentissage actif pour les éléments de données comportant des annotations générées par des étiqueteurs manuels, chaque élément de données est comptabilisé comme une tâche d'ajout d'étiquettes standard, comme décrit ci-dessus.
Le tableau ci-dessous présente les tarifs pour 1 000 unités par étiqueteur manuel, en fonction de l'unité indiquée pour chaque objectif. La tarification de niveau 1 s'applique aux 50 000 premières unités comptabilisées par mois pour chaque projet Google Cloud. La tarification de niveau 2 s'applique aux 950 000 unités suivantes comptabilisées par mois pour le projet (dans la limite de 1 000 000 d'unités). Contactez-nous pour connaître les tarifs au-delà de 1 000 000 d'unités par mois.
Type de données | Objectif | Unité | Niveau 1 | Niveau 2 |
---|---|---|---|---|
Image | Classification | Image | 35 $ | 25 $ |
Cadre de délimitation | Cadre de délimitation | 63 $ | 49 $ | |
Segmentation | Segment | 870 $ | 850 $ | |
Cadre en rotation | Cadre de délimitation | 86 $ | 60 $ | |
Polygone/Polyligne | Polygone/Polyligne | 257 $ | 180 $ | |
Vidéo | Classification | Vidéo de 5 secondes | 86 $ | 60 $ |
Suivi des objets | Cadre de délimitation | 86 $ | 60 $ | |
Reconnaissance des actions | Événement d'une vidéo de 30 secondes | 214 $ | 150 $ | |
Texte | Classification | 50 mots | 129 $ | 90 $ |
Sentiment | 50 mots | 200 $ | 140 $ | |
Extraction d'entités | Entité | 86 $ | 60 $ | |
Apprentissage actif | Tout | Élément de données | 80 $ | 56 $ |
Étiqueteur personnalisé | Tout | Élément de données | 80 $ | 56 $ |
Utilisation obligatoire de Cloud Storage
En plus des coûts décrits dans ce document, vous devez stocker vos données et vos fichiers de programme dans des buckets Cloud Storage pendant le cycle de vie de Vertex AI. Ce stockage est soumis aux règles de tarification de Cloud Storage.
L'utilisation obligatoire de Cloud Storage comprend ce qui suit :
Préproduction de votre package d'application d'entraînement pour des modèles entraînés personnalisés
Stockage des données d'entrée d'entraînement
Stockage des résultats de vos tâches d'entraînement Vertex AI ne nécessite pas le stockage à long terme de ces éléments. vous pouvez supprimer les fichiers dès que l'opération est terminée)
Opérations gratuites pour la gestion de vos ressources
Les opérations de gestion des ressources proposées par AI Platform sont disponibles gratuitement. Les règles relatives aux quotas d'AI Platform limitent certaines de ces opérations.
Ressource | Opérations gratuites |
---|---|
modèles | create, get, list et delete |
versions | create, get, list, delete et setDefault |
tâches | get, list et cancel |
opérations | get, list, cancel et delete |
Frais liés à Google Cloud
Si vous stockez des images à analyser dans Cloud Storage ou si vous utilisez d'autres ressources Google Cloud avec Vertex AI, l'utilisation de ces services vous sera également facturée.
Pour afficher votre état de facturation actuel dans Google Cloud Console, y compris votre utilisation et votre facture en cours, consultez la page Facturation. Pour en savoir plus sur la gestion de votre compte, consultez la documentation Cloud Billing ou contactez l'assistance pour la facturation et les paiements.
Étapes suivantes
- Consultez la documentation de Vertex AI.
- Découvrez les solutions et cas d'utilisation de Vertex AI.
Demander un devis personnalisé
Avec le paiement à l'usage de Google Cloud, vous ne payez que les services que vous utilisez. Contactez notre équipe commerciale pour obtenir un devis personnalisé pour votre entreprise.Contacter le service commercial