Precios de Vertex AI

Los precios de esta página están en dólares estadounidenses (USD). Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKUs de Cloud Platform.

Precios de Vertex AI comparados con los precios antiguos de AI Platform

Los costes de la versión de Vertex AI no varían con respecto a los de los productos actuales que sustituye Vertex AI. Por ejemplo, el coste que conlleva entrenar un modelo de clasificación de imágenes de AutoML es el mismo si lo entrenas con Vertex AI o con AutoML Vision.

Precios de los modelos de AutoML

En los modelos de Vertex AI AutoML, pagas por tres actividades principales:

  • Entrenar el modelo
  • Desplegar el modelo en un punto de conexión
  • Usar el modelo para hacer predicciones

Vertex AI usa configuraciones de máquina predefinidas para los modelos de AutoML de Vertex, y la tarifa por hora de estas actividades refleja el uso de recursos.

El tiempo necesario para entrenar el modelo depende del tamaño y de la complejidad de los datos de entrenamiento. Los modelos deben desplegarse para poder hacer predicciones o dar explicaciones online.

Pagas por cada modelo desplegado en un punto final, aunque no se haga ninguna predicción. Si no quieres incurrir en más gastos, anula el despliegue de tu modelo. No se cobran los modelos que no se hayan desplegado o no se hayan podido desplegar.

Solo pagas por las horas de procesamiento que utilices. Si el entrenamiento falla por cualquier motivo que no sea la cancelación iniciada por el usuario, no se te cobrará por el tiempo. Si cancelas la operación, se te cobrará el tiempo de entrenamiento.

Selecciona un tipo de modelo a continuación para consultar información sobre los precios.

Datos de imagen

Operación Precio por hora de nodo (clasificación) Precio por hora de nodo (detección de objetos)
Formación 3,465 USD 3,465 USD
Entrenamiento (modelo perimetral en el dispositivo) 18,00 USD 18,00 USD
Despliegue y predicción online 1,375 USD 2,002 USD
Predicción por lotes 2,222 USD 2,222 USD

Datos de vídeo

Operación Precio por hora de nodo (clasificación y seguimiento de objetos) Precio por hora de nodo (reconocimiento de acción)
Formación 3,234 USD 3,300 USD
Entrenamiento (modelo perimetral en el dispositivo) 10,78 USD 11,00 USD
Predictions 0,462 USD 0,550 USD

Datos tabulares

Operación Precio por hora de nodo para la clasificación o la regresión Precio de las previsiones
Formación 21,252 USD Consulta Vertex AI Forecast.
Predicción El mismo precio que las predicciones para modelos con entrenamiento personalizado Consulta Vertex AI Forecast.

Datos de texto

Operación Precio
Subida de datos antiguos (solo en PDF)

Primeras 1000 páginas gratis cada mes

1,50 USD por cada 1000 páginas

0,60 USD por cada 1000 páginas si se superan los 5.000.000

Formación 3,30 USD por hora
Despliegue 0,05 USD por hora
Predicción

5,00 USD por cada 1000 registros de texto

25,00 USD por cada 1000 páginas de documentos, como archivos PDF (solo versiones antiguas)

Los precios de las solicitudes de predicción de texto de AutoML se calculan en función de la cantidad de registros de texto que envías para analizar. Un registro de texto es un documento de texto sin formato de hasta 1000 caracteres Unicode (incluidos los espacios y caracteres de marcado, como las etiquetas HTML o XML).

Si el texto incluido en una solicitud de predicción contiene más de 1000 caracteres, se cuenta otro registro de texto por cada 1000 caracteres. Por ejemplo, si envías tres solicitudes que contengan 800, 1500 y 600 caracteres respectivamente, se te cobrarán cuatro registros de texto: uno por la primera solicitud (800), dos por la segunda (1500) y uno por la tercera (600).

Cargos de predicción de Vertex Explainable AI

Los costes de computación asociados a Vertex Explainable AI se cobran al mismo precio que las predicciones. No obstante, las explicaciones tardan más tiempo en procesarse que las predicciones normales. Por eso, si Vertex Explainable AI se usa de forma intensiva junto con el autoescalado, pueden iniciarse más nodos y, como consecuencia, incrementarse los cargos de predicción.

Previsión de Vertex AI

AutoML

Fase Precios
Predicción 0,2 USD por cada 1000 datos** (de 1 a 50 M de datos)
0,02 USD por cada 1000 datos* (>50 M de datos)
Formación 21,25 USD por hora en todas las regiones
IA explicable Explicación con los valores de Shapley. Consulta la página de precios de Vertex AI Prediction y Explanation.

* Un dato de predicción es un punto en el tiempo de la previsión. Por ejemplo, con una granularidad diaria a un horizonte de 7 días, 7 puntos por cada serie temporal.

  • Puedes incluir hasta 5 cuantiles de predicción sin coste adicional.
  • El número de datos que se consumen por nivel se actualiza una vez al mes.

ARIMA+

Fase Precios
Predicción 5 USD por TB
Formación 250,00 USD por TB x número de modelos candidatos x número de ventanas de prueba entrantes*
IA explicable La explicación con la descomposición de series temporales no añade ningún coste adicional. No se admiten explicaciones en las que se utilicen valores de Shapley.

Consulta la página de precios de BigQuery ML para obtener más información. Cada tarea de entrenamiento y predicción conlleva el coste de una ejecución de flujo de procesamiento gestionada, tal como se describe en los precios de Vertex AI.

* Se crea una ventana de prueba retrospectiva para cada periodo del conjunto de pruebas. El parámetro AUTO_ARIMA_MAX_ORDER que se usa determina el número de modelos candidatos. Va de 6 a 42 modelos con varias series temporales.

Modelos con entrenamiento personalizado

Formación

En las tablas que aparecen más abajo figura el precio por hora aproximado de diversas configuraciones de entrenamiento. Puedes elegir una configuración personalizada de los tipos de máquinas que selecciones. Para calcular los precios, suma los costes de las máquinas virtuales que uses.

Sin embargo, si usas tipos de máquina de Compute Engine y añades aceleradores, el coste de estos últimos se cobrará aparte. Para calcular este coste, multiplica el precio correspondiente de la tabla de aceleradores que encontrarás más abajo por el número de aceleradores de cada tipo que utilices.

Tipos de máquina

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform

Aceleradores

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform

* El precio del entrenamiento con un pod de TPU de Cloud se basa en el número de núcleos que tiene el pod. El número de núcleos de un pod es siempre un múltiplo de 32. Para determinar el precio del entrenamiento en un pod con más de 32 núcleos, toma el precio de un pod de 32 núcleos y multiplica por el número de núcleos, dividido por 32. Por ejemplo, en un pod de 128 núcleos, el precio es (32-core Pod price) * (128/32). Para saber qué pods de TPU de Cloud están disponibles en una región concreta, consulta la arquitectura del sistema en la documentación de las TPU de Cloud.

Discos

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform

Se te cobrará por entrenar los modelos desde el momento en que se aprovisionen los recursos de una tarea hasta que esa tarea termine.

Niveles de escala para configuraciones predefinidas (entrenamiento de AI Platform)

Cuando entrenas tu modelo, puedes elegir el tipo de clúster de procesamiento que se debe utilizar. Lo más sencillo es elegir una de las configuraciones predefinidas, llamadas niveles de escalabilidad. Más información sobre los niveles de escalabilidad

Tipos de máquinas con configuraciones personalizadas

Si usas Vertex AI o seleccionas CUSTOM como nivel de escalabilidad para AI Platform Training, puedes controlar el número y el tipo de máquinas virtuales que se deben utilizar para la instancia maestra, el trabajador y el parámetro del clúster. Consulta más información sobre los tipos de máquinas de Vertex AI y los tipos de máquina de AI Platform Training.

El coste del entrenamiento con un clúster de procesamiento personalizado es la suma del coste de todas las máquinas que especifiques. Se te cobrará por el tiempo total de la tarea y no por el tiempo de procesamiento activo de cada máquina.

Predicción y explicación

En las tablas siguientes se muestran los precios de la predicción por lotes, la predicción online y la explicación online por hora de nodo. Una hora de nodo representa el tiempo que una máquina virtual pasa ejecutando tu tarea de predicción o esperando a que esté lista para gestionar las solicitudes de predicción o explicación. Para ver las tablas de precios, haz clic en el hotspot expandible correspondiente:

Cada tipo de máquina se cobra como dos SKU independientes en tu factura de Google Cloud:

  • Coste de vCPU calculado en vCPU por hora
  • Coste de RAM calculado en GB por hora

Los precios de los tipos de máquinas que figuran en la tabla anterior son un cálculo aproximado del coste total por hora de cada nodo de predicción de la versión del modelo que usa el tipo de máquina en cuestión. Por ejemplo, el tipo de máquina n1-highcpu-32 incluye 32 vCPU y 28,8 GB de RAM; por lo tanto, el precio por hora y nodo equivale a 32 vCPU por hora + 28,8 GB por hora.

Los precios de la tabla anterior te sirven para calcular el coste de la predicción. En la tabla siguiente se muestran los precios de vCPU y RAM de los tipos de máquinas de predicción, que reflejan de forma más precisa los SKUs que se te cobrarán. Para ver las tablas de precios, haz clic en el hotspot expandible correspondiente:

También puedes usar aceleradores de GPU para hacer predicciones. Las GPU se cobran aparte de los precios que figuran en la tabla anterior. En la tabla siguiente se indican los precios de cada tipo de GPU. Para ver las tablas de precios, haz clic en el hotspot expandible correspondiente:

Los precios se determinan por GPU; por lo tanto, si usas varias en cada nodo de predicción o si tu versión se escala para utilizar varios nodos, el coste aumenta proporcionalmente.

Para servir predicciones de tu modelo, AI Platform Prediction ejecuta varias máquinas virtuales llamadas "nodos". Vertex AI escala de forma predeterminada y automática el número de nodos que se ejecutan en cada momento. En el caso de la predicción online, dicho número se escala según la demanda. Cada nodo puede responder a varias solicitudes de predicción. Al realizar predicciones por lotes, el número de nodos se escala para reducir el tiempo total que se tarda en ejecutar una tarea. Si quieres, puedes personalizar cómo se escalan los nodos de predicción.

Se te cobrará por el tiempo de ejecución de cada nodo dentro de tu modelo, incluidas las siguientes situaciones:

  • Cuando el nodo procesa una tarea de predicción por lotes
  • Cuando el nodo procesa una solicitud de predicción online
  • Cuando el nodo se mantiene listo para servir predicciones online.

Una hora de nodo representa el coste de ejecutar un nodo durante una hora. En la tabla de precios de predicción se detalla cuánto cuesta una hora de nodo, lo cual varía según la región y si la tarea de predicción es online o por lotes.

Las horas de nodo se pueden consumir en incrementos fraccionarios; por ejemplo, si ejecutas un nodo durante 30 minutos, se te cobrará como 0,5 horas de nodo.

Cálculo de los costes de los tipos de máquinas antiguos (MLS1) y de la predicción por lotes

  • El tiempo de ejecución de un nodo se mide en incrementos de un minuto, que se redondean al alza. Por ejemplo, si un nodo se ejecuta durante 20,1 minutos, el coste se debe calcular como si fueran 21 minutos.
  • El tiempo de ejecución de los nodos que se ejecutan durante menos de 10 minutos se redondea a dicha cifra. Por ejemplo, si un nodo solo se ejecuta durante 3 minutos, el coste se calcula como una ejecución de 10 minutos.

Cálculo de los costes de los tipos de máquinas N1 de Compute Engine

  • El tiempo de ejecución de un nodo se factura en incrementos de 30 segundos. Esto significa que, cada 30 segundos, te cobraremos lo que cuesten los recursos de vCPU, RAM o GPU que use el nodo de tu proyecto durante ese intervalo.

Más información sobre el escalado automático de los nodos de predicción

Predicción online Predicción por lotes
La prioridad del escalado es reducir la latencia de cada solicitud. El servicio se encarga de que tu modelo se mantenga listo durante unos minutos de inactividad tras servir una solicitud. La prioridad del escalado es reducir el tiempo que dura la tarea en total.
El escalado afecta al total de los cargos mensuales, ya que, cuanto más numerosas y frecuentes son tus solicitudes, más nodos se utilizan. El escalado apenas debería afectar al precio de la tarea; sin embargo, activar nodos nuevos conlleva algunos gastos indirectos.

Puedes permitir que el servicio se escale en función del tráfico (escalado automático) o, si quieres evitar la latencia, especificar el número de nodos que se deben ejecutar de forma constante (escalado manual).

  • Si eliges el escalado automático, la cantidad de nodos aumentará y disminuirá automáticamente. En el caso de los despliegues de tipos de máquinas antiguos de AI Platform Prediction (MLS1), el número de nodos puede reducirse verticalmente a cero durante periodos sin tráfico. En los despliegues de Vertex AI y otros tipos de despliegues de AI Platform Prediction, los nodos no pueden reducirse verticalmente a cero.
  • Con el escalado manual, especificas un número concreto de nodos que se mantendrán en ejecución constante. En este caso, se te cobrará por el tiempo total de ejecución de dichos nodos, desde el momento del despliegue hasta que elimines la versión del modelo en cuestión.
Puedes influir en el escalado si defines un número máximo de nodos para una tarea de predicción por lotes o si estableces el número de nodos que se seguirán ejecutando para un modelo cuando lo despliegues.

Cargo mínimo de 10 minutos

Si un nodo se ejecuta durante menos de 10 minutos, el coste se calcula como si la ejecución hubiera durado 10 minutos. Por ejemplo, si utilizas el escalado automático, no se usa ningún nodo en los periodos en los que no hay tráfico si utilizas un tipo de máquina antiguo (MLS1) en AI Platform Prediction. (Si utilizas otros tipos de máquinas en AI Platform Prediction o si usas Vertex AI, siempre se utiliza al menos un nodo). sin embargo, si recibes una única solicitud de predicción online, se escala un nodo para procesarla. Una vez hecho esto, el nodo se mantiene listo y en ejecución durante unos minutos antes de detenerse. Si este nodo se ejecuta durante menos de 10 minutos, se te cobran 10 minutos de nodo (es decir, 0,17 horas de nodo) por esta operación.

Por otra parte, si un solo nodo se escala y procesa muchas solicitudes de predicción online durante un periodo de 10 minutos antes de detenerse, también se te cobran 10 minutos de nodo.

Puedes utilizar el escalado manual para controlar exactamente cuántos nodos se ejecutan durante una cantidad determinada de tiempo. Sin embargo, si uno se ejecuta durante menos de 10 minutos, se te cobra lo mismo que si se hubiera ejecutado durante dicho tiempo.

Más información sobre la asignación y el escalado de nodos

Las tareas de predicción de Batch se cobran una vez completadas

Las tareas de predicción de Batchse cobran después de completarse, no de forma incremental durante la tarea. Las alertas de presupuesto de Facturación de Cloud que hayas configurado no se activarán mientras se esté ejecutando una tarea. Antes de iniciar una tarea grande, te recomendamos que ejecutes algunas tareas de comparativa de costes con pequeños datos de entrada.

Ejemplo de cálculo de la predicción

Una agencia inmobiliaria de una región de América realiza una predicción semanal del valor de la vivienda en las zonas donde presta servicio. En el transcurso de un mes, ejecuta las predicciones de cuatro semanas en lotes de 3920, 4277, 3849 y 3961. Estas tareas tienen un límite de un nodo y cada instancia tarda en procesarse una media de 0.72 segundos.

Primero, se debe calcular lo que dura la ejecución de cada tarea:

3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes
4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes
3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes
3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes

Como cada tarea se ejecuta durante más de 10 minutos, se cobrará cada minuto de procesamiento:

($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.0685711
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.061977725
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964

El coste total del mes es de 0,26 USD.

En este ejemplo, se presupone que las tareas se ejecutan en un solo nodo y que el tiempo que tarda cada instancia de entrada es uniforme. A la hora de calcular los costes de un caso de uso real, se deben contabilizar varios nodos y utilizar el tiempo de ejecución total de cada uno.

Cargos de Vertex Explainable AI

Vertex Explainable AI se puede usar sin coste adicional para los precios de predicción. No obstante, las explicaciones tardan más tiempo en procesarse que las predicciones normales. Por eso, si Vertex Explainable AI se usa de forma intensiva junto con el autoescalado, pueden iniciarse más nodos y, como consecuencia, incrementarse los cargos de predicción.

Vertex AI Pipelines

Vertex AI Pipelines cobra una tarifa de ejecución de 0,03 USD por cada ejecución de flujo de procesamiento. No se le cobrará la tarifa de ejecución durante la versión de vista previa. También pagas por los recursos de Google Cloud que uses con Vertex AI Pipelines, como los recursos de Compute Engine que consumen los componentes de los flujos de procesamiento (se cobran al mismo precio que los de la entrenamiento de Vertex AI). Por último, eres responsable de los costes de todos los servicios (como Dataflow) a los que llama tu flujo de procesamiento.

Vertex AI Feature Store

Los precios de Vertex AI Feature Store se basan en la cantidad de datos que ofrecen las funciones de almacenamiento online y offline, así como en la disponibilidad de servicios online. Una hora de nodo representa el tiempo que emplea una máquina virtual para servir datos de funciones o para mantenerse lista a la espera de gestionar solicitudes de datos de funciones.

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.

Cuando habilitas la supervisión del valor de las funciones, la facturación incluye los cargos aplicables anteriores, además de los cargos aplicables que siguen:

  • 3,50 USD por GB para todos los datos analizados. Si el análisis de capturas está habilitado, se incluirán las instantáneas hechas en los datos de Vertex AI Feature Store. Si el análisis de funciones de importación está habilitado, se incluyen en lote lotes de datos ingeridos.
  • Estos son algunos de los cargos adicionales que se aplican a otras operaciones de Vertex AI Feature Store que se usan con la monitorización del valor de las funciones:
    • La función de análisis de instantáneas realiza periódicamente una captura de los valores de función según tu configuración del intervalo de monitorización.
    • El cargo por una exportación de capturas es el mismo que el de una exportación por lotes normal.

Ejemplo de análisis de un instante

Un científico de datos habilita la monitorización de valores de funciones en su almacén de funciones de Vertex AI y activa la monitorización para obtener un análisis diario de las instantáneas. Se ejecuta un flujo de procesamiento a diario para la monitorización de los tipos de entidades. El flujo de procesamiento analiza 2 GB de datos en el almacén de funciones de Vertex AI y exporta una captura que contiene 0,1 GB de datos. El cargo total por realizar un análisis de un día es:

(0.1 GB * $3.50) + (2 GB * $0.005) = $0.36

Ejemplo de análisis de la ingestión

Un científico de datos habilita la monitorización del valor de las funciones en su almacén de funciones de Vertex AI y activa la monitorización de las operaciones de ingestión. Una operación de ingestión importa 1 GB de datos a Vertex AI Feature Store. El cargo total de la supervisión del valor de las funciones es el siguiente:

(1 GB * $3.50) = $3.50

Vertex ML Metadata

El almacenamiento de datos se mide en gigabytes binarios (GiB), donde 1 GiB equivale a 1.073.741.824 bytes. Esta unidad de medida también se denomina gibibyte.

Vertex ML Metadata cobran 10 USD por gibibyte (GiB) al mes por el almacenamiento de metadatos. Los precios se prorratean por megabyte (MB). Por ejemplo, si almacenas 10 MB de metadatos, se te cobrarán 0,10 USD al mes por esos 10 MB de metadatos.

Los precios son los mismos en todas las regiones donde se admiten los metadatos de Vertex ML.

Vertex AI TensorBoard

Para usar Vertex AI TensorBoard, solicita que el administrador de IAM del proyecto te asigne el rol "Vertex AI TensorBoard Web App User. El rol de administrador de Vertex AI también tiene acceso.

Vertex AI TensorBoard cobra una cuota mensual de 300 USD por usuario activo único. Los usuarios activos se miden a través de la interfaz de usuario de Vertex AI TensorBoard. También pagas por los recursos de Google Cloud que utilices con Vertex AI TensorBoard, como los registros de TensorBoard almacenados en Cloud Storage.

Vertex AI Vizier

Vertex AI Vizier es un servicio de optimización de caja negra que se incluye en Vertex AI. El modelo de precios de Vertex AI Vizier consta de los siguientes elementos:

  • Las pruebas que utilizan RANDOM_SEARCH y GRID_SEARCH no tienen ningún coste. Más información sobre los algoritmos de búsqueda
  • Las primeras 100 pruebas de Vertex AI Vizier por mes natural están disponibles de forma gratuita (las pruebas que utilicen RANDOM_SEARCH y GRID_SEARCH no se incluyen en este total).
  • Después de 100 pruebas de Vertex AI Vizier, las pruebas posteriores que se realicen durante el mismo mes natural se cobrarán en 1 USD por prueba. Las pruebas que utilicen RANDOM_SEARCH o GRID_SEARCH no conllevan ningún cargo.

Vertex AI Matching Engine

Los precios del servicio Approximate Nearest Neighbor de Vertex AI Matching Engine son los siguientes:

  • Precio por hora de nodo de cada máquina virtual que se utilice para alojar un índice desplegado.
  • Un coste por crear nuevos índices, actualizar los actuales y utilizar actualizaciones de índices de streaming.

Los datos procesados durante la creación y la actualización de los índices se miden en gigabytes (GiB) binarios, donde 1 GiB equivale a 1.073.741.824 bytes. Esta unidad de medida también se denomina gibibyte.

El motor de coincidencias de Vertex AI cobra 3,00 USD por gibibyte (GiB) de datos procesados en todas las regiones. El motor de coincidencias de Vertex AI cobra 0,45 USD por GB ingerido por las inserciones de actualización de streaming. En el caso de las actualizaciones de streaming, no se te cobrará esta tarifa durante la versión de vista previa.

En las tablas siguientes se resumen los precios del servicio de indexación en cada región en la que esté disponible el motor de coincidencia. Para ver las tablas de precios, haz clic en el hotspot expandible correspondiente:

Ejemplos de precios coincidentes con buscadores

Los precios de Vertex AI Matching Engine se determinan según el tamaño de los datos, la cantidad de consultas por segundo (CPS) que quieras ejecutar y la cantidad de nodos que utilices. Para calcular el coste de publicación estimado, debes calcular el tamaño total de los datos. Tu tamaño de datos es el número de inserciones o vectores* que tiene tu dimensión*, que es de 4 bytes por dimensión. Una vez que tengas el tamaño de los datos, puedes calcular el coste de publicación y el coste de creación. El coste de publicación más el coste del edificio equivale al coste total mensual.

  • Coste de servicio: # réplicas/shard * # fragmentación (~datos de tamaño/20 GB) * 1,064 $/h * 24 h/día * 30 días/mes
  • Coste de construcción: tamaño de los datos en GB * 3 USD/GB * número de actualizaciones al mes

El coste mensual de la creación de índices es el tamaño de los datos * 3,00 por gigabyte. La frecuencia de actualización no afecta al coste de publicación, solo al coste de creación. Si usas las actualizaciones de indexación de streaming, el índice se reconstruirá cuando los datos emitidos alcancen 1 GB o transcurridos 3 días, lo que ocurra primero. Estos parámetros se ajustarán a medida que se acerque la disponibilidad global de la función para reducir aún más la frecuencia de reconstrucción del índice. La tarea completa de reconstrucción del índice de Actualizaciones de streaming se cobra al precio de creación del índice por lotes de 3 $/GB.

Número de inserciones o vectores Número de dimensiones Consultas por segundo (CPS) Frecuencia de actualización Coste de creación de índice mensual estimado Nodos Coste estimado por publicación mensual
20 millones 128 1000 Cada mes 30 USD 1 766 USD
100 millones 256 3000 Cada semana 1200 USD 15 11.491 $
500 millones 128 20.000 Cada semana 3000 USD 260 199.160 $
1000 millones 512 5000 Cada mes 6000 EUR 500 383.000 €

Todos los ejemplos están basados en n1-standard-16 del us-central1. El coste que se te aplicará dependerá de la tasa de retirada y de los requisitos de latencia. El coste mensual de servicio estimado está directamente relacionado con el número de nodos utilizados en la consola. Para obtener más información sobre los parámetros de configuración que afectan al coste, consulta el capítulo sobre los parámetros que afectan al recuerdo del anuncio y a la latencia.

Si el número de consultas por segundo es alto, combinarlas en un lote puede reducir el coste total hasta un 30 % o un 40%.

Vertex AI Model Registry

El Vertex AI Model Registry es un repositorio central que monitoriza y enumera los modelos y las versiones de tus modelos. Puedes importar modelos a Vertex AI y estos aparecen en el Registro de modelos de Vertex AI. Tener los modelos en el registro de modelos de Vertex AI no conlleva ningún coste. Solo se cobra cuando despliegas el modelo en un punto final o haces una predicción por lotes en el modelo. Este coste lo determina el tipo de modelo que vas a desplegar.

Para obtener más información sobre los precios de despliegue de modelos personalizados en Vertex AI Model Registry, consulta los modelos entrenados personalizados. Para obtener más información sobre los precios de los modelos de AutoML, consulta esta página.

Vertex AI Model Monitoring

Vertex AI te permite monitorizar la efectividad continua de tu modelo después de desplegarlo en producción. Para obtener más información, consulta la introducción a Vertex AI Model Monitoring.

Cuando usas Vertex Model AI Monitoring, se te cobra por lo siguiente:

  • 3,50 USD por GB para todos los datos analizados, incluidos los de entrenamiento y de predicción registrados en una tabla de BigQuery.
  • Los cargos por otros productos de Google Cloud que uses con Monitoring de modelos, como BigQuery Storage o Batch Explain, están habilitados.

Vertex AI Model Monitoring se admite en las siguientes regiones: us-central1, europe-west4, asia-east1 y asia-southeast1. Los precios son los mismos en todas las regiones.

Los tamaños de datos se miden una vez que se convierten a formato TfRecord.

Los conjuntos de datos de entrenamiento generan un cargo único cuando configuras una tarea de Vertex AI Model Monitoring.

Los conjuntos de datos de predicción constan de registros recogidos en el servicio de predicción online. Como las solicitudes de predicción llegan durante diferentes periodos, se recogen los datos de cada periodo y la suma de los datos analizados de cada periodo de predicción se utiliza para calcular el cargo.

Ejemplo: Un científico de datos ejecuta la supervisión de modelos en el tráfico de predicción que pertenece a su modelo.

  • El modelo se entrena a partir de un conjunto de datos de BigQuery. El tamaño de los datos tras la conversión a TfRecord es de 1,5 GB.
  • Los datos de predicción registrados entre las 13:00 y las 14:00 son de 0,1 GB; entre las 15:00 y las 16:00 son 0,2 GB.
  • El precio total para configurar la tarea de supervisión de modelos es el siguiente:

    (1.5 GB * $3.50) + ((0.1 GB + 0.2 GB) * $3.50) = $6.30

Vertex AI Workbench

Los precios constan de los recursos de computación y de almacenamiento que utilizas, las tarifas de gestión de las instancias de Vertex AI Workbench y los recursos adicionales de Google Cloud que utilices. Consulta las siguientes secciones para obtener más información.

Recursos de computación y de almacenamiento

Los recursos de computación y de almacenamiento se cobran a la misma tarifa que pagas actualmente por Compute Engine y Cloud Storage.

Comisiones de gestión

En la tabla siguiente se indican las tarifas de gestión de Vertex AI Workbench, además del uso de la infraestructura.

Selecciona cuadernos gestionados o cuadernos gestionados por usuarios para obtener información sobre los precios.

Cuadernos gestionados

SKU Tarifa de gestión por hora
vCPU 0,05 USD por vCore
T4, K80 y P4 (GPU estándar) 0,35 USD por GPU
GPU P100, V100 y A100 (GPU premium) 2,48 USD por GPU

Cuadernos gestionados por usuarios

SKU Tarifa de gestión por hora
vCPU 0,005 USD por vCore
T4, K80 y P4 (GPU estándar) 0,035 USD por GPU
GPU P100, V100 y A100 (GPU premium) 0,25 USD por GPU

Recursos adicionales de Google Cloud

Además de los costes mencionados anteriormente, también pagas por los recursos de Google Cloud que utilices. Por ejemplo:

  • Servicios de análisis de datos: se aplican cargos de BigQuery cuando envías consultas de SQL dentro de un cuaderno (consulta los precios de BigQuery).

  • Claves de encriptado gestionadas por los clientes: se aplican cargos cuando usas estas claves. Cada vez que tus instancias de cuadernos gestionados o de cuadernos gestionados por usuarios utilizan claves de Cloud Key Management Service, se usan los precios de las operaciones con claves de Cloud KMS (consulta los precios correspondientes).

Contenedores de aprendizaje profundo, máquina virtual de aprendizaje profundo y flujos de procesamiento de AI Platform

En el caso de los contenedores de aprendizaje profundo, las imágenes de máquina virtual de aprendizaje profundo y los flujos de procesamiento de AI Platform, el precio se calcula en función de los recursos de computación y de almacenamiento que uses. Estos recursos se cobran al mismo precio que pagas actualmente por Compute Engine y Cloud Storage.

Además de los costes de computación y de almacenamiento, también pagas por cualquier recurso de Google Cloud que utilices. Por ejemplo:

  • Servicios de análisis de datos: se aplican cargos de BigQuery cuando envías consultas de SQL dentro de un cuaderno (consulta los precios de BigQuery).

  • Claves de encriptado gestionadas por los clientes: se aplican cargos cuando usas estas claves. Cada vez que tus instancias de cuadernos gestionados o de cuadernos gestionados por usuarios utilizan claves de Cloud Key Management Service, se usan los precios de las operaciones con claves de Cloud KMS (consulta los precios correspondientes).

Etiquetado de datos

Vertex AI te permite solicitar que una serie de personas etiqueten conjuntos de datos que quieras utilizar para entrenar modelos de aprendizaje automático personalizados. Los precios del servicio se calculan en función del tipo de tarea de etiquetado.

  • En el caso de las tareas de etiquetado normal, los precios se determinan según el número de unidades de anotación.
    • En las tareas de clasificación de imágenes, las unidades se determinan según el número de imágenes y la cantidad de etiquetadores. Por ejemplo, en una imagen con 3 etiquetadores, las unidades se calculan de la siguiente forma: 1 * 3 = 3. El precio es idéntico para la clasificación con una sola etiqueta o con varias.
    • En las tareas de cuadros delimitadores en imágenes, las unidades se determinan según el número de cuadros delimitadores identificados en las imágenes y la cantidad de etiquetadores. Por ejemplo, en una imagen con 2 cuadros delimitadores y 3 etiquetadores, las unidades se calculan de la siguiente manera: 2 * 3 = 6. No se cobran las imágenes sin cuadros delimitadores.
    • En las tareas de segmentación, cuadros girados, polilíneas o polígonos en imágenes, las unidades se determinan de la misma manera que en las tareas de cuadros delimitadores en imágenes.
    • En las tareas de clasificación de vídeos, las unidades se determinan en función de la duración del vídeo (cada 5 segundos es una unidad de precio) y del número de etiquetadores. Por ejemplo, en un vídeo de 25 segundos con tres etiquetadores, las unidades se calculan de la siguiente forma: 25 / 5 * 3 = 15. El precio es idéntico para la clasificación con una sola etiqueta o con varias.
    • En las tareas de seguimiento de objetos en vídeos, las unidades se calculan en función del número de objetos que se identifican en el vídeo y de la cantidad de etiquetadores. Por ejemplo, en un vídeo con 2 objetos y 3 etiquetadores, las unidades se calculan de la siguiente forma: 2 * 3 = 6. No se cobran los vídeos sin objetos.
    • Tareas de reconocimiento de acciones en vídeos: las unidades se determinan de la misma forma que las tareas de seguimiento de objetos de vídeo.
    • En las tareas de clasificación de textos, las unidades se determinan según la longitud del texto (cada 50 palabras es una unidad tarifaria) y el número de etiquetadores. Por ejemplo, en un texto con 100 palabras y 3 etiquetadores, las unidades calculan así: 100 / 50 * 3 = 6. El precio es idéntico para la clasificación con una sola etiqueta o con varias.
    • En las tareas de opiniones en textos, las unidades se determinan de la misma forma que en las tareas de clasificación de textos.
    • En las tareas de extracción de entidades en textos, las unidades se determinan según la longitud del texto (cada 50 palabras es una unidad tarifaria), el número de entidades identificadas y la cantidad de etiquetadores. Por ejemplo, en un fragmento de texto con 100 palabras, 2 entidades identificadas y 3 etiquetadores, las unidades se calculan de la siguiente forma: 100 / 50 * 2 * 3 = 12. No se cobran los textos sin entidades.
  • En las tareas de opiniones en textos y de clasificación de textos, vídeos e imágenes, los etiquetadores pueden perder el seguimiento de las clases si el tamaño del conjunto de etiquetas es demasiado grande. En consecuencia, enviamos un máximo de 20 clases de forma simultánea a los etiquetadores. Por ejemplo, si el tamaño del conjunto de etiquetas de una tarea de etiquetado es 40, las veces que se enviará cada elemento de datos para que lo revise una persona se calcularán mediante esta fórmula: 40 / 20 = 2. Por tanto, se cobrará el doble del precio (calculado anteriormente).

  • Tareas de etiquetado en las que se habilita la función de etiquetador personalizado: cada elemento de datos se cuenta como una unidad de etiquetador personalizado.

  • Tareas de etiquetado de elementos de datos para entrenamiento activo con anotaciones generadas por modelos (sin ayuda de personas): cada elemento de datos se cuenta como una unidad de entrenamiento activo.

  • Tareas de etiquetado de elementos de datos para entrenamiento activo con anotaciones generadas por personas: cada elemento de datos se cuenta como una tarea de etiquetado normal con las características descritas anteriormente.

En la tabla que aparece a continuación se muestran los precios por cada 1000 unidades por persona que etiqueta, según la unidad de cada objetivo. Los precios de nivel 1 corresponden a las primeras 50.000 unidades de cada proyecto de Google Cloud mensuales, mientras que los de nivel 2 se aplican a las siguientes 950.000 unidades de cada proyecto en ese mes, hasta llegar al límite de 1.000.000 unidades. Ponte en contacto con nosotros para obtener más información sobre los precios de los volúmenes superiores a 1.000.000 unidades al mes.

Tipo de dato Objetivo Unidad Nivel 1 Nivel 2
Imagen Clasificación Imagen 35 USD 25 USD
Cuadro delimitador Cuadro delimitador 63 USD 49 USD
Segmentación Segmento 870 USD 850 USD
Cuadro rotado Cuadro delimitador 86 USD 60 USD
Polígono/Polilínea Polígono/Polilínea 257 USD 180 USD
Vídeo Clasificación 5 s de vídeo 86 USD 60 USD
Monitorización de objetos Cuadro delimitador 86 USD 60 USD
Reconocimiento de acciones Evento en 30 s de vídeo 214 USD 150 USD
Texto Clasificación 50 palabras 129 USD 90 USD
Opinión 50 palabras 200 USD 140 USD
Extracción de entidades Entidad 86 USD 60 USD
Entrenamiento activo Todo Elemento de datos 80 USD 56 USD
Etiquetador personalizado Todo Elemento de datos 80 USD 56 USD

Uso obligatorio de Cloud Storage

Además de los costes descritos en este documento, debes almacenar los datos y los archivos de programa en segmentos de Cloud Storage durante el ciclo de vida de Vertex AI. Ese espacio de almacenamiento está sujeto a la política de precios de Cloud Storage.

Es obligatorio usar Cloud Storage para lo siguiente:

  • Almacenar en área de stage el paquete de aplicaciones de entrenamiento de los modelos con entrenamiento personalizado.

  • Almacenar tus datos de entrada para el entrenamiento.

  • Almacenar los resultados de las tareas de entrenamiento. Vertex AI no exige que estos elementos se almacenen a largo plazo. Puedes quitar los archivos en cuanto se complete la operación.

Operaciones gratuitas para gestionar recursos

Puedes realizar operaciones de gestión de recursos con AI Platform de forma gratuita. No obstante, la política de cuotas de AI Platform limita algunas de ellas.

Recurso Operaciones gratuitas
modelos create, get, list, delete
versiones create, get, list, delete, setDefault
tareas get, list, cancel
operaciones get, list, cancel, delete

Costes de Google Cloud

Si almacenas imágenes en Cloud Storage para analizarlas o utilizas otros recursos de Google Cloud junto con Vertex AI, también se te cobrará por el uso de esos servicios.

Para consultar tu estado de facturación en la consola de Google Cloud, incluidos el uso y la factura actual, visita la página Facturación. Si quieres obtener más información sobre cómo gestionar tu cuenta, consulta la documentación de Facturación de Cloud o la página de asistencia para pagos y facturación.

Siguientes pasos