Precios de Vertex AI
Los precios de esta página están en dólares estadounidenses (USD). Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKUs de Cloud Platform.
Precios de Vertex AI comparados con los precios antiguos de AI Platform
Los costes de la versión de Vertex AI no varían con respecto a los de los productos actuales que sustituye Vertex AI. Por ejemplo, el coste que conlleva entrenar un modelo de clasificación de imágenes de AutoML es el mismo si lo entrenas con Vertex AI o con AutoML Vision.
Precios de los modelos de AutoML
En los modelos de Vertex AI AutoML, pagas por tres actividades principales:
- Entrenar el modelo
- Desplegar el modelo en un punto de conexión
- Usar el modelo para hacer predicciones
Vertex AI usa configuraciones de máquina predefinidas para los modelos de AutoML de Vertex, y la tarifa por hora de estas actividades refleja el uso de recursos.
El tiempo necesario para entrenar el modelo depende del tamaño y de la complejidad de los datos de entrenamiento. Los modelos deben desplegarse para poder hacer predicciones o dar explicaciones online.
Pagas por cada modelo desplegado en un punto final, aunque no se haga ninguna predicción. Si no quieres incurrir en más gastos, anula el despliegue de tu modelo. No se cobran los modelos que no se hayan desplegado o no se hayan podido desplegar.
Solo pagas por las horas de procesamiento que utilices. Si el entrenamiento falla por cualquier motivo que no sea la cancelación iniciada por el usuario, no se te cobrará por el tiempo. Si cancelas la operación, se te cobrará el tiempo de entrenamiento.
Selecciona un tipo de modelo a continuación para consultar información sobre los precios.
Datos de imagen
Operación | Precio por hora de nodo (clasificación) | Precio por hora de nodo (detección de objetos) |
---|---|---|
Formación | 3,465 USD | 3,465 USD |
Entrenamiento (modelo perimetral en el dispositivo) | 18,00 USD | 18,00 USD |
Despliegue y predicción online | 1,375 USD | 2,002 USD |
Predicción por lotes | 2,222 USD | 2,222 USD |
Datos de vídeo
Operación | Precio por hora de nodo (clasificación y seguimiento de objetos) | Precio por hora de nodo (reconocimiento de acción) |
---|---|---|
Formación | 3,234 USD | 3,300 USD |
Entrenamiento (modelo perimetral en el dispositivo) | 10,78 USD | 11,00 USD |
Predictions | 0,462 USD | 0,550 USD |
Datos tabulares
Operación | Precio por hora de nodo para la clasificación o la regresión | Precio de las previsiones |
---|---|---|
Formación | 21,252 USD | Consulta Vertex AI Forecast. |
Predicción | El mismo precio que las predicciones para modelos con entrenamiento personalizado | Consulta Vertex AI Forecast. |
Datos de texto
Operación | Precio |
---|---|
Subida de datos antiguos (solo en PDF) |
Primeras 1000 páginas gratis cada mes 1,50 USD por cada 1000 páginas 0,60 USD por cada 1000 páginas si se superan los 5.000.000 |
Formación | 3,30 USD por hora |
Despliegue | 0,05 USD por hora |
Predicción |
5,00 USD por cada 1000 registros de texto 25,00 USD por cada 1000 páginas de documentos, como archivos PDF (solo versiones antiguas) |
Los precios de las solicitudes de predicción de texto de AutoML se calculan en función de la cantidad de registros de texto que envías para analizar. Un registro de texto es un documento de texto sin formato de hasta 1000 caracteres Unicode (incluidos los espacios y caracteres de marcado, como las etiquetas HTML o XML).
Si el texto incluido en una solicitud de predicción contiene más de 1000 caracteres, se cuenta otro registro de texto por cada 1000 caracteres. Por ejemplo, si envías tres solicitudes que contengan 800, 1500 y 600 caracteres respectivamente, se te cobrarán cuatro registros de texto: uno por la primera solicitud (800), dos por la segunda (1500) y uno por la tercera (600).
Cargos de predicción de Vertex Explainable AI
Los costes de computación asociados a Vertex Explainable AI se cobran al mismo precio que las predicciones. No obstante, las explicaciones tardan más tiempo en procesarse que las predicciones normales. Por eso, si Vertex Explainable AI se usa de forma intensiva junto con el autoescalado, pueden iniciarse más nodos y, como consecuencia, incrementarse los cargos de predicción.
Previsión de Vertex AI
AutoML
Fase | Precios |
---|---|
Predicción | 0,2 USD por cada 1000 datos** (de 1 a 50 M de datos) 0,02 USD por cada 1000 datos* (>50 M de datos) |
Formación | 21,25 USD por hora en todas las regiones |
Explicación con los valores de Shapley. Consulta la página de precios de Vertex AI Prediction y Explanation. |
* Un dato de predicción es un punto en el tiempo de la previsión. Por ejemplo, con una granularidad diaria a un horizonte de 7 días, 7 puntos por cada serie temporal.
- Puedes incluir hasta 5 cuantiles de predicción sin coste adicional.
- El número de datos que se consumen por nivel se actualiza una vez al mes.
ARIMA+
Fase | Precios |
---|---|
Predicción | 5 USD por TB |
Formación | 250,00 USD por TB x número de modelos candidatos x número de ventanas de prueba entrantes* |
La explicación con la descomposición de series temporales no añade ningún coste adicional. No se admiten explicaciones en las que se utilicen valores de Shapley. |
Consulta la página de precios de BigQuery ML para obtener más información. Cada tarea de entrenamiento y predicción conlleva el coste de una ejecución de flujo de procesamiento gestionada, tal como se describe en los precios de Vertex AI.
* Se crea una ventana de prueba retrospectiva para cada periodo del conjunto de pruebas. El parámetro AUTO_ARIMA_MAX_ORDER que se usa determina el número de modelos candidatos. Va de 6 a 42 modelos con varias series temporales.
Modelos con entrenamiento personalizado
Formación
En las tablas que aparecen más abajo figura el precio por hora aproximado de diversas configuraciones de entrenamiento. Puedes elegir una configuración personalizada de los tipos de máquinas que selecciones. Para calcular los precios, suma los costes de las máquinas virtuales que uses.
Sin embargo, si usas tipos de máquina de Compute Engine y añades aceleradores, el coste de estos últimos se cobrará aparte. Para calcular este coste, multiplica el precio correspondiente de la tabla de aceleradores que encontrarás más abajo por el número de aceleradores de cada tipo que utilices.
Tipos de máquina
Aceleradores
* El precio del entrenamiento con un pod de TPU de Cloud se basa en el número de núcleos que tiene el pod. El número de núcleos de un pod es siempre un múltiplo de 32. Para determinar el precio del entrenamiento en un pod con más de 32 núcleos, toma el precio de un pod de 32 núcleos y multiplica por el número de núcleos, dividido por 32. Por ejemplo, en un pod de 128 núcleos, el precio es (32-core Pod price) * (128/32)
. Para saber qué pods de TPU de Cloud están disponibles en una región concreta, consulta la arquitectura del sistema en la documentación de las TPU de Cloud.
Discos
- Todo uso está sujeto a la política de cuotas de Vertex AI.
- Durante el ciclo de vida de Vertex AI, debes almacenar tus datos y archivos de programa en segmentos de Google Cloud Storage. Más información sobre el uso de Cloud Storage
Se te cobrará por entrenar los modelos desde el momento en que se aprovisionen los recursos de una tarea hasta que esa tarea termine.
Niveles de escala para configuraciones predefinidas (entrenamiento de AI Platform)
Cuando entrenas tu modelo, puedes elegir el tipo de clúster de procesamiento que se debe utilizar. Lo más sencillo es elegir una de las configuraciones predefinidas, llamadas niveles de escalabilidad. Más información sobre los niveles de escalabilidad
Tipos de máquinas con configuraciones personalizadas
Si usas Vertex AI o seleccionas CUSTOM
como nivel de escalabilidad para AI Platform Training, puedes controlar el número y el tipo de máquinas virtuales que se deben utilizar para la instancia maestra, el trabajador y el parámetro del clúster. Consulta más información sobre los tipos de máquinas de Vertex AI y los tipos de máquina de AI Platform Training.
El coste del entrenamiento con un clúster de procesamiento personalizado es la suma del coste de todas las máquinas que especifiques. Se te cobrará por el tiempo total de la tarea y no por el tiempo de procesamiento activo de cada máquina.
Predicción y explicación
En las tablas siguientes se muestran los precios de la predicción por lotes, la predicción online y la explicación online por hora de nodo. Una hora de nodo representa el tiempo que una máquina virtual pasa ejecutando tu tarea de predicción o esperando a que esté lista para gestionar las solicitudes de predicción o explicación. Para ver las tablas de precios, haz clic en el hotspot expandible correspondiente:
Cada tipo de máquina se cobra como dos SKU independientes en tu factura de Google Cloud:
- Coste de vCPU calculado en vCPU por hora
- Coste de RAM calculado en GB por hora
Los precios de los tipos de máquinas que figuran en la tabla anterior son un cálculo aproximado del coste total por hora de cada nodo de predicción de la versión del modelo que usa el tipo de máquina en cuestión. Por ejemplo, el tipo de máquina n1-highcpu-32
incluye 32 vCPU y 28,8 GB de RAM; por lo tanto, el precio por hora y nodo equivale a 32 vCPU por hora + 28,8 GB por hora.
Los precios de la tabla anterior te sirven para calcular el coste de la predicción. En la tabla siguiente se muestran los precios de vCPU y RAM de los tipos de máquinas de predicción, que reflejan de forma más precisa los SKUs que se te cobrarán. Para ver las tablas de precios, haz clic en el hotspot expandible correspondiente:
También puedes usar aceleradores de GPU para hacer predicciones. Las GPU se cobran aparte de los precios que figuran en la tabla anterior. En la tabla siguiente se indican los precios de cada tipo de GPU. Para ver las tablas de precios, haz clic en el hotspot expandible correspondiente:
Los precios se determinan por GPU; por lo tanto, si usas varias en cada nodo de predicción o si tu versión se escala para utilizar varios nodos, el coste aumenta proporcionalmente.
Para servir predicciones de tu modelo, AI Platform Prediction ejecuta varias máquinas virtuales llamadas "nodos". Vertex AI escala de forma predeterminada y automática el número de nodos que se ejecutan en cada momento. En el caso de la predicción online, dicho número se escala según la demanda. Cada nodo puede responder a varias solicitudes de predicción. Al realizar predicciones por lotes, el número de nodos se escala para reducir el tiempo total que se tarda en ejecutar una tarea. Si quieres, puedes personalizar cómo se escalan los nodos de predicción.
Se te cobrará por el tiempo de ejecución de cada nodo dentro de tu modelo, incluidas las siguientes situaciones:
- Cuando el nodo procesa una tarea de predicción por lotes
- Cuando el nodo procesa una solicitud de predicción online
- Cuando el nodo se mantiene listo para servir predicciones online.
Una hora de nodo representa el coste de ejecutar un nodo durante una hora. En la tabla de precios de predicción se detalla cuánto cuesta una hora de nodo, lo cual varía según la región y si la tarea de predicción es online o por lotes.
Las horas de nodo se pueden consumir en incrementos fraccionarios; por ejemplo, si ejecutas un nodo durante 30 minutos, se te cobrará como 0,5 horas de nodo.
Cálculo de los costes de los tipos de máquinas antiguos (MLS1) y de la predicción por lotes
- El tiempo de ejecución de un nodo se mide en incrementos de un minuto, que se redondean al alza. Por ejemplo, si un nodo se ejecuta durante 20,1 minutos, el coste se debe calcular como si fueran 21 minutos.
- El tiempo de ejecución de los nodos que se ejecutan durante menos de 10 minutos se redondea a dicha cifra. Por ejemplo, si un nodo solo se ejecuta durante 3 minutos, el coste se calcula como una ejecución de 10 minutos.
Cálculo de los costes de los tipos de máquinas N1 de Compute Engine
- El tiempo de ejecución de un nodo se factura en incrementos de 30 segundos. Esto significa que, cada 30 segundos, te cobraremos lo que cuesten los recursos de vCPU, RAM o GPU que use el nodo de tu proyecto durante ese intervalo.
Más información sobre el escalado automático de los nodos de predicción
Predicción online | Predicción por lotes |
---|---|
La prioridad del escalado es reducir la latencia de cada solicitud. El servicio se encarga de que tu modelo se mantenga listo durante unos minutos de inactividad tras servir una solicitud. | La prioridad del escalado es reducir el tiempo que dura la tarea en total. |
El escalado afecta al total de los cargos mensuales, ya que, cuanto más numerosas y frecuentes son tus solicitudes, más nodos se utilizan. | El escalado apenas debería afectar al precio de la tarea; sin embargo, activar nodos nuevos conlleva algunos gastos indirectos. |
Puedes permitir que el servicio se escale en función del tráfico (escalado automático) o, si quieres evitar la latencia, especificar el número de nodos que se deben ejecutar de forma constante (escalado manual).
|
Puedes influir en el escalado si defines un número máximo de nodos para una tarea de predicción por lotes o si estableces el número de nodos que se seguirán ejecutando para un modelo cuando lo despliegues. |
Cargo mínimo de 10 minutos
Si un nodo se ejecuta durante menos de 10 minutos, el coste se calcula como si la ejecución hubiera durado 10 minutos. Por ejemplo, si utilizas el escalado automático, no se usa ningún nodo en los periodos en los que no hay tráfico si utilizas un tipo de máquina antiguo (MLS1) en AI Platform Prediction. (Si utilizas otros tipos de máquinas en AI Platform Prediction o si usas Vertex AI, siempre se utiliza al menos un nodo). sin embargo, si recibes una única solicitud de predicción online, se escala un nodo para procesarla. Una vez hecho esto, el nodo se mantiene listo y en ejecución durante unos minutos antes de detenerse. Si este nodo se ejecuta durante menos de 10 minutos, se te cobran 10 minutos de nodo (es decir, 0,17 horas de nodo) por esta operación.
Por otra parte, si un solo nodo se escala y procesa muchas solicitudes de predicción online durante un periodo de 10 minutos antes de detenerse, también se te cobran 10 minutos de nodo.
Puedes utilizar el escalado manual para controlar exactamente cuántos nodos se ejecutan durante una cantidad determinada de tiempo. Sin embargo, si uno se ejecuta durante menos de 10 minutos, se te cobra lo mismo que si se hubiera ejecutado durante dicho tiempo.
Más información sobre la asignación y el escalado de nodos
Las tareas de predicción de Batch se cobran una vez completadas
Las tareas de predicción de Batchse cobran después de completarse, no de forma incremental durante la tarea. Las alertas de presupuesto de Facturación de Cloud que hayas configurado no se activarán mientras se esté ejecutando una tarea. Antes de iniciar una tarea grande, te recomendamos que ejecutes algunas tareas de comparativa de costes con pequeños datos de entrada.
Ejemplo de cálculo de la predicción
Una agencia inmobiliaria de una región de América realiza una predicción semanal del valor de la vivienda en las zonas donde presta servicio. En el transcurso de un mes, ejecuta las predicciones de cuatro semanas en lotes de 3920
, 4277
, 3849
y 3961
. Estas tareas tienen un límite de un nodo y cada instancia tarda en procesarse una media de 0.72
segundos.
Primero, se debe calcular lo que dura la ejecución de cada tarea:
3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes 4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes 3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes 3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes
Como cada tarea se ejecuta durante más de 10 minutos, se cobrará cada minuto de procesamiento:
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.0685711 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.061977725 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964
El coste total del mes es de 0,26 USD.
En este ejemplo, se presupone que las tareas se ejecutan en un solo nodo y que el tiempo que tarda cada instancia de entrada es uniforme. A la hora de calcular los costes de un caso de uso real, se deben contabilizar varios nodos y utilizar el tiempo de ejecución total de cada uno.
Cargos de Vertex Explainable AI
Vertex Explainable AI se puede usar sin coste adicional para los precios de predicción. No obstante, las explicaciones tardan más tiempo en procesarse que las predicciones normales. Por eso, si Vertex Explainable AI se usa de forma intensiva junto con el autoescalado, pueden iniciarse más nodos y, como consecuencia, incrementarse los cargos de predicción.
Vertex AI Pipelines
Vertex AI Pipelines cobra una tarifa de ejecución de 0,03 USD por cada ejecución de flujo de procesamiento. No se le cobrará la tarifa de ejecución durante la versión de vista previa. También pagas por los recursos de Google Cloud que uses con Vertex AI Pipelines, como los recursos de Compute Engine que consumen los componentes de los flujos de procesamiento (se cobran al mismo precio que los de la entrenamiento de Vertex AI). Por último, eres responsable de los costes de todos los servicios (como Dataflow) a los que llama tu flujo de procesamiento.
Vertex AI Feature Store
Los precios de Vertex AI Feature Store se basan en la cantidad de datos que ofrecen las funciones de almacenamiento online y offline, así como en la disponibilidad de servicios online. Una hora de nodo representa el tiempo que emplea una máquina virtual para servir datos de funciones o para mantenerse lista a la espera de gestionar solicitudes de datos de funciones.
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Cuando habilitas la supervisión del valor de las funciones, la facturación incluye los cargos aplicables anteriores, además de los cargos aplicables que siguen:
- 3,50 USD por GB para todos los datos analizados. Si el análisis de capturas está habilitado, se incluirán las instantáneas hechas en los datos de Vertex AI Feature Store. Si el análisis de funciones de importación está habilitado, se incluyen en lote lotes de datos ingeridos.
- Estos son algunos de los cargos adicionales que se aplican a otras operaciones de Vertex AI Feature Store que se usan con la monitorización del valor de las funciones:
- La función de análisis de instantáneas realiza periódicamente una captura de los valores de función según tu configuración del intervalo de monitorización.
- El cargo por una exportación de capturas es el mismo que el de una exportación por lotes normal.
Ejemplo de análisis de un instante
Un científico de datos habilita la monitorización de valores de funciones en su almacén de funciones de Vertex AI y activa la monitorización para obtener un análisis diario de las instantáneas. Se ejecuta un flujo de procesamiento a diario para la monitorización de los tipos de entidades. El flujo de procesamiento analiza 2 GB de datos en el almacén de funciones de Vertex AI y exporta una captura que contiene 0,1 GB de datos. El cargo total por realizar un análisis de un día es:
(0.1 GB * $3.50) + (2 GB * $0.005) = $0.36
Ejemplo de análisis de la ingestión
Un científico de datos habilita la monitorización del valor de las funciones en su almacén de funciones de Vertex AI y activa la monitorización de las operaciones de ingestión. Una operación de ingestión importa 1 GB de datos a Vertex AI Feature Store. El cargo total de la supervisión del valor de las funciones es el siguiente:
(1 GB * $3.50) = $3.50
Vertex ML Metadata
El almacenamiento de datos se mide en gigabytes binarios (GiB), donde 1 GiB equivale a 1.073.741.824 bytes. Esta unidad de medida también se denomina gibibyte
.
Vertex ML Metadata cobran 10 USD por gibibyte (GiB) al mes por el almacenamiento de metadatos. Los precios se prorratean por megabyte (MB). Por ejemplo, si almacenas 10 MB de metadatos, se te cobrarán 0,10 USD al mes por esos 10 MB de metadatos.
Los precios son los mismos en todas las regiones donde se admiten los metadatos de Vertex ML.
Vertex AI TensorBoard
Para usar Vertex AI TensorBoard, solicita que el administrador de IAM del proyecto te asigne el rol "Vertex AI TensorBoard Web App User. El rol de administrador de Vertex AI también tiene acceso.
Vertex AI TensorBoard cobra una cuota mensual de 300 USD por usuario activo único. Los usuarios activos se miden a través de la interfaz de usuario de Vertex AI TensorBoard. También pagas por los recursos de Google Cloud que utilices con Vertex AI TensorBoard, como los registros de TensorBoard almacenados en Cloud Storage.
Vertex AI Vizier
Vertex AI Vizier es un servicio de optimización de caja negra que se incluye en Vertex AI. El modelo de precios de Vertex AI Vizier consta de los siguientes elementos:
- Las pruebas que utilizan
RANDOM_SEARCH
yGRID_SEARCH
no tienen ningún coste. Más información sobre los algoritmos de búsqueda - Las primeras 100 pruebas de Vertex AI Vizier por mes natural están disponibles de forma gratuita (las pruebas que utilicen
RANDOM_SEARCH
yGRID_SEARCH
no se incluyen en este total). - Después de 100 pruebas de Vertex AI Vizier, las pruebas posteriores que se realicen durante el mismo mes natural se cobrarán en 1 USD por prueba. Las pruebas que utilicen
RANDOM_SEARCH
oGRID_SEARCH
no conllevan ningún cargo.
Vertex AI Matching Engine
Los precios del servicio Approximate Nearest Neighbor de Vertex AI Matching Engine son los siguientes:
- Precio por hora de nodo de cada máquina virtual que se utilice para alojar un índice desplegado.
- Un coste por crear nuevos índices, actualizar los actuales y utilizar actualizaciones de índices de streaming.
Los datos procesados durante la creación y la actualización de los índices se miden en gigabytes (GiB) binarios, donde 1 GiB equivale a 1.073.741.824 bytes. Esta unidad de medida también se denomina gibibyte
.
El motor de coincidencias de Vertex AI cobra 3,00 USD por gibibyte (GiB) de datos procesados en todas las regiones. El motor de coincidencias de Vertex AI cobra 0,45 USD por GB ingerido por las inserciones de actualización de streaming. En el caso de las actualizaciones de streaming, no se te cobrará esta tarifa durante la versión de vista previa.
En las tablas siguientes se resumen los precios del servicio de indexación en cada región en la que esté disponible el motor de coincidencia. Para ver las tablas de precios, haz clic en el hotspot expandible correspondiente:
Ejemplos de precios coincidentes con buscadores
Los precios de Vertex AI Matching Engine se determinan según el tamaño de los datos, la cantidad de consultas por segundo (CPS) que quieras ejecutar y la cantidad de nodos que utilices. Para calcular el coste de publicación estimado, debes calcular el tamaño total de los datos. Tu tamaño de datos es el número de inserciones o vectores* que tiene tu dimensión*, que es de 4 bytes por dimensión. Una vez que tengas el tamaño de los datos, puedes calcular el coste de publicación y el coste de creación. El coste de publicación más el coste del edificio equivale al coste total mensual.
- Coste de servicio: # réplicas/shard * # fragmentación (~datos de tamaño/20 GB) * 1,064 $/h * 24 h/día * 30 días/mes
- Coste de construcción: tamaño de los datos en GB * 3 USD/GB * número de actualizaciones al mes
El coste mensual de la creación de índices es el tamaño de los datos * 3,00 por gigabyte. La frecuencia de actualización no afecta al coste de publicación, solo al coste de creación. Si usas las actualizaciones de indexación de streaming, el índice se reconstruirá cuando los datos emitidos alcancen 1 GB o transcurridos 3 días, lo que ocurra primero. Estos parámetros se ajustarán a medida que se acerque la disponibilidad global de la función para reducir aún más la frecuencia de reconstrucción del índice. La tarea completa de reconstrucción del índice de Actualizaciones de streaming se cobra al precio de creación del índice por lotes de 3 $/GB.
Número de inserciones o vectores | Número de dimensiones | Consultas por segundo (CPS) | Frecuencia de actualización | Coste de creación de índice mensual estimado | Nodos | Coste estimado por publicación mensual |
---|---|---|---|---|---|---|
20 millones | 128 | 1000 | Cada mes | 30 USD | 1 | 766 USD |
100 millones | 256 | 3000 | Cada semana | 1200 USD | 15 | 11.491 $ |
500 millones | 128 | 20.000 | Cada semana | 3000 USD | 260 | 199.160 $ |
1000 millones | 512 | 5000 | Cada mes | 6000 EUR | 500 | 383.000 € |
Todos los ejemplos están basados en n1-standard-16
del us-central1
.
El coste que se te aplicará dependerá de la tasa de retirada y de los requisitos de latencia. El coste mensual de servicio estimado está directamente relacionado con el número de nodos utilizados en la consola.
Para obtener más información sobre los parámetros de configuración que afectan al coste, consulta el capítulo sobre los parámetros que afectan al recuerdo del anuncio y a la latencia.
Si el número de consultas por segundo es alto, combinarlas en un lote puede reducir el coste total hasta un 30 % o un 40%.
Vertex AI Model Registry
El Vertex AI Model Registry es un repositorio central que monitoriza y enumera los modelos y las versiones de tus modelos. Puedes importar modelos a Vertex AI y estos aparecen en el Registro de modelos de Vertex AI. Tener los modelos en el registro de modelos de Vertex AI no conlleva ningún coste. Solo se cobra cuando despliegas el modelo en un punto final o haces una predicción por lotes en el modelo. Este coste lo determina el tipo de modelo que vas a desplegar.
Para obtener más información sobre los precios de despliegue de modelos personalizados en Vertex AI Model Registry, consulta los modelos entrenados personalizados. Para obtener más información sobre los precios de los modelos de AutoML, consulta esta página.
Vertex AI Model Monitoring
Vertex AI te permite monitorizar la efectividad continua de tu modelo después de desplegarlo en producción. Para obtener más información, consulta la introducción a Vertex AI Model Monitoring.
Cuando usas Vertex Model AI Monitoring, se te cobra por lo siguiente:
- 3,50 USD por GB para todos los datos analizados, incluidos los de entrenamiento y de predicción registrados en una tabla de BigQuery.
- Los cargos por otros productos de Google Cloud que uses con Monitoring de modelos, como BigQuery Storage o Batch Explain, están habilitados.
Vertex AI Model Monitoring se admite en las siguientes regiones: us-central1
, europe-west4
, asia-east1
y asia-southeast1
. Los precios son los mismos en todas las regiones.
Los tamaños de datos se miden una vez que se convierten a formato TfRecord.
Los conjuntos de datos de entrenamiento generan un cargo único cuando configuras una tarea de Vertex AI Model Monitoring.
Los conjuntos de datos de predicción constan de registros recogidos en el servicio de predicción online. Como las solicitudes de predicción llegan durante diferentes periodos, se recogen los datos de cada periodo y la suma de los datos analizados de cada periodo de predicción se utiliza para calcular el cargo.
Ejemplo: Un científico de datos ejecuta la supervisión de modelos en el tráfico de predicción que pertenece a su modelo.
- El modelo se entrena a partir de un conjunto de datos de BigQuery. El tamaño de los datos tras la conversión a TfRecord es de 1,5 GB.
- Los datos de predicción registrados entre las 13:00 y las 14:00 son de 0,1 GB; entre las 15:00 y las 16:00 son 0,2 GB.
El precio total para configurar la tarea de supervisión de modelos es el siguiente:
(1.5 GB * $3.50) + ((0.1 GB + 0.2 GB) * $3.50) = $6.30
Vertex AI Workbench
Los precios constan de los recursos de computación y de almacenamiento que utilizas, las tarifas de gestión de las instancias de Vertex AI Workbench y los recursos adicionales de Google Cloud que utilices. Consulta las siguientes secciones para obtener más información.
Recursos de computación y de almacenamiento
Los recursos de computación y de almacenamiento se cobran a la misma tarifa que pagas actualmente por Compute Engine y Cloud Storage.
Comisiones de gestión
En la tabla siguiente se indican las tarifas de gestión de Vertex AI Workbench, además del uso de la infraestructura.
Selecciona cuadernos gestionados o cuadernos gestionados por usuarios para obtener información sobre los precios.
Cuadernos gestionados
SKU | Tarifa de gestión por hora |
---|---|
vCPU | 0,05 USD por vCore |
T4, K80 y P4 (GPU estándar) | 0,35 USD por GPU |
GPU P100, V100 y A100 (GPU premium) | 2,48 USD por GPU |
Cuadernos gestionados por usuarios
SKU | Tarifa de gestión por hora |
---|---|
vCPU | 0,005 USD por vCore |
T4, K80 y P4 (GPU estándar) | 0,035 USD por GPU |
GPU P100, V100 y A100 (GPU premium) | 0,25 USD por GPU |
Recursos adicionales de Google Cloud
Además de los costes mencionados anteriormente, también pagas por los recursos de Google Cloud que utilices. Por ejemplo:
Servicios de análisis de datos: se aplican cargos de BigQuery cuando envías consultas de SQL dentro de un cuaderno (consulta los precios de BigQuery).
Claves de encriptado gestionadas por los clientes: se aplican cargos cuando usas estas claves. Cada vez que tus instancias de cuadernos gestionados o de cuadernos gestionados por usuarios utilizan claves de Cloud Key Management Service, se usan los precios de las operaciones con claves de Cloud KMS (consulta los precios correspondientes).
Contenedores de aprendizaje profundo, máquina virtual de aprendizaje profundo y flujos de procesamiento de AI Platform
En el caso de los contenedores de aprendizaje profundo, las imágenes de máquina virtual de aprendizaje profundo y los flujos de procesamiento de AI Platform, el precio se calcula en función de los recursos de computación y de almacenamiento que uses. Estos recursos se cobran al mismo precio que pagas actualmente por Compute Engine y Cloud Storage.
Además de los costes de computación y de almacenamiento, también pagas por cualquier recurso de Google Cloud que utilices. Por ejemplo:
Servicios de análisis de datos: se aplican cargos de BigQuery cuando envías consultas de SQL dentro de un cuaderno (consulta los precios de BigQuery).
Claves de encriptado gestionadas por los clientes: se aplican cargos cuando usas estas claves. Cada vez que tus instancias de cuadernos gestionados o de cuadernos gestionados por usuarios utilizan claves de Cloud Key Management Service, se usan los precios de las operaciones con claves de Cloud KMS (consulta los precios correspondientes).
Etiquetado de datos
Vertex AI te permite solicitar que una serie de personas etiqueten conjuntos de datos que quieras utilizar para entrenar modelos de aprendizaje automático personalizados. Los precios del servicio se calculan en función del tipo de tarea de etiquetado.
- En el caso de las tareas de etiquetado normal, los precios se determinan según el número de unidades de anotación.
- En las tareas de clasificación de imágenes, las unidades se determinan según el número de imágenes y la cantidad de etiquetadores. Por ejemplo, en una imagen con 3 etiquetadores, las unidades se calculan de la siguiente forma: 1 * 3 = 3. El precio es idéntico para la clasificación con una sola etiqueta o con varias.
- En las tareas de cuadros delimitadores en imágenes, las unidades se determinan según el número de cuadros delimitadores identificados en las imágenes y la cantidad de etiquetadores. Por ejemplo, en una imagen con 2 cuadros delimitadores y 3 etiquetadores, las unidades se calculan de la siguiente manera: 2 * 3 = 6. No se cobran las imágenes sin cuadros delimitadores.
- En las tareas de segmentación, cuadros girados, polilíneas o polígonos en imágenes, las unidades se determinan de la misma manera que en las tareas de cuadros delimitadores en imágenes.
- En las tareas de clasificación de vídeos, las unidades se determinan en función de la duración del vídeo (cada 5 segundos es una unidad de precio) y del número de etiquetadores. Por ejemplo, en un vídeo de 25 segundos con tres etiquetadores, las unidades se calculan de la siguiente forma: 25 / 5 * 3 = 15. El precio es idéntico para la clasificación con una sola etiqueta o con varias.
- En las tareas de seguimiento de objetos en vídeos, las unidades se calculan en función del número de objetos que se identifican en el vídeo y de la cantidad de etiquetadores. Por ejemplo, en un vídeo con 2 objetos y 3 etiquetadores, las unidades se calculan de la siguiente forma: 2 * 3 = 6. No se cobran los vídeos sin objetos.
- Tareas de reconocimiento de acciones en vídeos: las unidades se determinan de la misma forma que las tareas de seguimiento de objetos de vídeo.
- En las tareas de clasificación de textos, las unidades se determinan según la longitud del texto (cada 50 palabras es una unidad tarifaria) y el número de etiquetadores. Por ejemplo, en un texto con 100 palabras y 3 etiquetadores, las unidades calculan así: 100 / 50 * 3 = 6. El precio es idéntico para la clasificación con una sola etiqueta o con varias.
- En las tareas de opiniones en textos, las unidades se determinan de la misma forma que en las tareas de clasificación de textos.
- En las tareas de extracción de entidades en textos, las unidades se determinan según la longitud del texto (cada 50 palabras es una unidad tarifaria), el número de entidades identificadas y la cantidad de etiquetadores. Por ejemplo, en un fragmento de texto con 100 palabras, 2 entidades identificadas y 3 etiquetadores, las unidades se calculan de la siguiente forma: 100 / 50 * 2 * 3 = 12. No se cobran los textos sin entidades.
En las tareas de opiniones en textos y de clasificación de textos, vídeos e imágenes, los etiquetadores pueden perder el seguimiento de las clases si el tamaño del conjunto de etiquetas es demasiado grande. En consecuencia, enviamos un máximo de 20 clases de forma simultánea a los etiquetadores. Por ejemplo, si el tamaño del conjunto de etiquetas de una tarea de etiquetado es 40, las veces que se enviará cada elemento de datos para que lo revise una persona se calcularán mediante esta fórmula: 40 / 20 = 2. Por tanto, se cobrará el doble del precio (calculado anteriormente).
Tareas de etiquetado en las que se habilita la función de etiquetador personalizado: cada elemento de datos se cuenta como una unidad de etiquetador personalizado.
Tareas de etiquetado de elementos de datos para entrenamiento activo con anotaciones generadas por modelos (sin ayuda de personas): cada elemento de datos se cuenta como una unidad de entrenamiento activo.
Tareas de etiquetado de elementos de datos para entrenamiento activo con anotaciones generadas por personas: cada elemento de datos se cuenta como una tarea de etiquetado normal con las características descritas anteriormente.
En la tabla que aparece a continuación se muestran los precios por cada 1000 unidades por persona que etiqueta, según la unidad de cada objetivo. Los precios de nivel 1 corresponden a las primeras 50.000 unidades de cada proyecto de Google Cloud mensuales, mientras que los de nivel 2 se aplican a las siguientes 950.000 unidades de cada proyecto en ese mes, hasta llegar al límite de 1.000.000 unidades. Ponte en contacto con nosotros para obtener más información sobre los precios de los volúmenes superiores a 1.000.000 unidades al mes.
Tipo de dato | Objetivo | Unidad | Nivel 1 | Nivel 2 |
---|---|---|---|---|
Imagen | Clasificación | Imagen | 35 USD | 25 USD |
Cuadro delimitador | Cuadro delimitador | 63 USD | 49 USD | |
Segmentación | Segmento | 870 USD | 850 USD | |
Cuadro rotado | Cuadro delimitador | 86 USD | 60 USD | |
Polígono/Polilínea | Polígono/Polilínea | 257 USD | 180 USD | |
Vídeo | Clasificación | 5 s de vídeo | 86 USD | 60 USD |
Monitorización de objetos | Cuadro delimitador | 86 USD | 60 USD | |
Reconocimiento de acciones | Evento en 30 s de vídeo | 214 USD | 150 USD | |
Texto | Clasificación | 50 palabras | 129 USD | 90 USD |
Opinión | 50 palabras | 200 USD | 140 USD | |
Extracción de entidades | Entidad | 86 USD | 60 USD | |
Entrenamiento activo | Todo | Elemento de datos | 80 USD | 56 USD |
Etiquetador personalizado | Todo | Elemento de datos | 80 USD | 56 USD |
Uso obligatorio de Cloud Storage
Además de los costes descritos en este documento, debes almacenar los datos y los archivos de programa en segmentos de Cloud Storage durante el ciclo de vida de Vertex AI. Ese espacio de almacenamiento está sujeto a la política de precios de Cloud Storage.
Es obligatorio usar Cloud Storage para lo siguiente:
Almacenar en área de stage el paquete de aplicaciones de entrenamiento de los modelos con entrenamiento personalizado.
Almacenar tus datos de entrada para el entrenamiento.
Almacenar los resultados de las tareas de entrenamiento. Vertex AI no exige que estos elementos se almacenen a largo plazo. Puedes quitar los archivos en cuanto se complete la operación.
Operaciones gratuitas para gestionar recursos
Puedes realizar operaciones de gestión de recursos con AI Platform de forma gratuita. No obstante, la política de cuotas de AI Platform limita algunas de ellas.
Recurso | Operaciones gratuitas |
---|---|
modelos | create, get, list, delete |
versiones | create, get, list, delete, setDefault |
tareas | get, list, cancel |
operaciones | get, list, cancel, delete |
Costes de Google Cloud
Si almacenas imágenes en Cloud Storage para analizarlas o utilizas otros recursos de Google Cloud junto con Vertex AI, también se te cobrará por el uso de esos servicios.
Para consultar tu estado de facturación en la consola de Google Cloud, incluidos el uso y la factura actual, visita la página Facturación. Si quieres obtener más información sobre cómo gestionar tu cuenta, consulta la documentación de Facturación de Cloud o la página de asistencia para pagos y facturación.
Siguientes pasos
- Consulta la documentación de Vertex AI.
- Consulta más información sobre las soluciones y los casos prácticos de Vertex AI.
Solicitar un presupuesto personalizado
Gracias al pago por uso de Google Cloud, solo pagas por los servicios que utilizas. Ponte en contacto con nuestro equipo de ventas para solicitar un presupuesto personalizado para tu organización.Contactar con Ventas