Los precios de esta página están en dólares estadounidenses (USD). Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Los costes de Vertex AI no varían con respecto a los de los productos antiguos de AI Platform y AutoML que sustituye Vertex AI, con las siguientes excepciones:
Vertex AI también ofrece más formas de optimizar los costes, como las siguientes:
Para obtener información sobre los precios de la IA generativa en Vertex AI, consulta Precios de la IA generativa en Vertex AI.
En el caso de los modelos de AutoML de Vertex AI, pagas por tres actividades principales:
Vertex AI usa configuraciones de máquina predefinidas para los modelos de AutoML de Vertex, y la tarifa por hora de estas actividades refleja el uso de los recursos.
El tiempo necesario para entrenar el modelo depende del tamaño y de la complejidad de los datos de entrenamiento. Los modelos deben desplegarse para poder hacer predicciones o dar explicaciones online.
Pagas por cada modelo desplegado en un endpoint, aunque no se haga ninguna predicción. Si no quieres incurrir en más gastos, anula el despliegue de tu modelo. No se cobran los modelos que no se hayan desplegado o que no se hayan podido desplegar.
Solo pagas por las horas de procesamiento que utilices. Si el entrenamiento falla, no se te cobrará el tiempo empleado, a menos que hayas cancelado la operación por tu cuenta. En ese caso, sí deberás pagar por ese tiempo de entrenamiento.
Selecciona un tipo de modelo en la siguiente tabla para consultar información sobre los precios.
Datos de imagen
Operación | Precio (clasificación) (USD) | Precio (detección de objetos, en USD) |
|---|---|---|
Formación | 3,465 US$ / 1 hour | 3,465 US$ / 1 hour |
Entrenamiento (modelo Edge en el dispositivo) | 18,00 US$ / 1 hour | 18,00 US$ / 1 hour |
Despliegue y predicción online | 1,375 US$ / 1 hour | 2,002 US$ / 1 hour |
Predicción por lotes | 2,222 US$ / 1 hour | 2,222 US$ / 1 hour |
Datos tabulares
Operación | Precio por hora de nodo para la clasificación o la regresión | Precio de las previsiones |
|---|---|---|
Formación | 21,252 US$ / 1 hour | Consulta Vertex AI Forecast |
Predicción | El mismo precio que las predicciones para modelos con entrenamiento personalizado. Vertex AI lleva a cabo la predicción por lotes con 40 máquinas n1-highmem-8. | Consulta Vertex AI Forecast |
Cargos de predicción de Vertex Explainable AI
Los costes de computación asociados a Vertex Explainable AI se cobran al mismo precio que las predicciones. No obstante, las explicaciones tardan más tiempo en procesarse que las predicciones normales. Por eso, si Vertex Explainable AI se usa de forma intensiva junto con el autoescalado, pueden iniciarse más nodos y, como consecuencia, incrementarse los cargos de predicción.
AutoML
Escenario | Precios |
|---|---|
Predicción | 0 count to 1,000,000 count 0,20 US$ / 1,000 count, per 1 month / account 1,000,000 count to 50,000,000 count 0,10 US$ / 1,000 count, per 1 month / account 50,000,000 count and above 0,02 US$ / 1,000 count, per 1 month / account |
Formación | 21,252 US$ / 1 hour |
Explainable AI | Explicabilidad a través de valores de Shapley. Consulta la página de precios de Inferencia y explicación de Vertex AI. |
* Un punto de datos de predicción es un momento en el horizonte de previsión. Por ejemplo, con granularidad diaria, un horizonte de 7 días corresponde a 7 puntos por cada serie temporal.
ARIMA+
Escenario | Precios |
|---|---|
Predicción | 5,00 US$ / 1,000 count |
Formación | 250,00 USD por TB × Número de modelos posibles × Número de ventanas de backtesting* |
Explainable AI | La explicabilidad lograda por medio de la descomposición de series temporales no implica costes adicionales. No se admite la explicabilidad mediante valores de Shapley. |
Consulta la página de precios de BigQuery ML para obtener más información. Cada tarea de entrenamiento y predicción incurre en el coste de una ejecución de flujo de procesamiento gestionada, como se describe en la documentación sobre los precios de Vertex AI.
* Se crea una ventana de backtesting para cada periodo del conjunto de pruebas. El valor utilizado en AUTO_ARIMA_MAX_ORDER determina el número de modelos posibles. En el caso de los modelos con varias series temporales, el rango va de 6 a 42.
Formación
En las tablas que aparecen más abajo figura el precio por hora aproximado de diversas configuraciones de entrenamiento. Puedes elegir una configuración personalizada de los tipos de máquina que selecciones. Para calcular los precios, suma los costes de las máquinas virtuales que uses.
Sin embargo, si usas tipos de máquina de Compute Engine y añades aceleradores, el coste de estos últimos se cobra aparte. Para calcular este coste, multiplica el precio correspondiente de la tabla de aceleradores que encontrarás más abajo por el número de horas de máquina de cada tipo de acelerador que utilices.
Tipos de máquinas
Puedes usar máquinas virtuales de spot con el entrenamiento personalizado de Vertex AI.Las VMs de acceso puntual se facturan según los precios de las VMs de acceso puntual de Compute Engine. Además del uso de la infraestructura, se aplican tarifas de gestión de Vertex AI Custom Training, que se indican en las siguientes tablas.
Puedes usar reservas de Compute Engine con el entrenamiento personalizado de Vertex AI. Cuando usas reservas de Compute Engine, se te factura según los precios de Compute Engine, incluidos los descuentos por uso comprometido (CUDs) aplicables. Además del uso de la infraestructura, se aplican tarifas de gestión de Vertex AI Custom Training, que se indican en las siguientes tablas.
Tipo de máquina | Precio (USD) |
|---|---|
n1‑standard‑4 | 0,21849885 US$ / 1 hour |
n1‑standard‑8 | 0,4369977 US$ / 1 hour |
n1‑standard‑16 | 0,8739954 US$ / 1 hour |
n1‑standard‑32 | 1,7479908 US$ / 1 hour |
n1-standard-64 | 3,4959816 US$ / 1 hour |
n1-standard-96 | 5,2439724 US$ / 1 hour |
n1‑highmem‑2 | 0,13604845 US$ / 1 hour |
n1‑highmem‑4 | 0,2720969 US$ / 1 hour |
n1-highmem-8 | 0,5441938 US$ / 1 hour |
n1-highmem-16 | 1,0883876 US$ / 1 hour |
n1-highmem-32 | 2,1767752 US$ / 1 hour |
n1-highmem-64 | 4,3535504 US$ / 1 hour |
n1-highmem-96 | 6,5303256 US$ / 1 hour |
n1‑highcpu‑16 | 0,65180712 US$ / 1 hour |
n1-highcpu-32 | 1,30361424 US$ / 1 hour |
n1‑highcpu‑64 | 2,60722848 US$ / 1 hour |
n1-highcpu-96 | 3,91084272 US$ / 1 hour |
a2-highgpu-1g* | 4,425248914 US$ / 1 hour |
a2-highgpu-2g* | 8,850497829 US$ / 1 hour |
a2-highgpu-4g* | 17,700995658 US$ / 1 hour |
a2-highgpu-8g* | 35,401991315 US$ / 1 hour |
a2-megagpu-16g* | 65,707278915 US$ / 1 hour |
a3-highgpu-8g* | 101,007352 US$ / 1 hour |
a3-megagpu-8g* | 106,0464232 US$ / 1 hour |
a3-ultragpu-8g* | 99,7739296 US$ / 1 hour |
a4-highgpu-8g* | 148,212 US$ / 1 hour |
e2-standard-4 | 0,154126276 US$ / 1 hour |
e2-standard-8 | 0,308252552 US$ / 1 hour |
e2-standard-16 | 0,616505104 US$ / 1 hour |
e2-standard-32 | 1,233010208 US$ / 1 hour |
e2-highmem-2 | 0,103959618 US$ / 1 hour |
e2-highmem-4 | 0,207919236 US$ / 1 hour |
e2-highmem-8 | 0,415838472 US$ / 1 hour |
e2-highmem-16 | 0,831676944 US$ / 1 hour |
e2-highcpu-16 | 0,455126224 US$ / 1 hour |
e2-highcpu-32 | 0,910252448 US$ / 1 hour |
n2-standard-4 | 0,2233714 US$ / 1 hour |
n2-standard-8 | 0,4467428 US$ / 1 hour |
n2-standard-16 | 0,8934856 US$ / 1 hour |
n2-standard-32 | 1,7869712 US$ / 1 hour |
n2-standard-48 | 2,6804568 US$ / 1 hour |
n2-standard-64 | 3,5739424 US$ / 1 hour |
n2-standard-80 | 4,467428 US$ / 1 hour |
n2-highmem-2 | 0,1506661 US$ / 1 hour |
n2-highmem-4 | 0,3013322 US$ / 1 hour |
n2-highmem-8 | 0,6026644 US$ / 1 hour |
n2-highmem-16 | 1,2053288 US$ / 1 hour |
n2-highmem-32 | 2,4106576 US$ / 1 hour |
n2-highmem-48 | 3,6159864 US$ / 1 hour |
n2-highmem-64 | 4,8213152 US$ / 1 hour |
n2-highmem-80 | 6,026644 US$ / 1 hour |
n2-highcpu-16 | 0,6596032 US$ / 1 hour |
n2-highcpu-32 | 1,3192064 US$ / 1 hour |
n2-highcpu-48 | 1,9788096 US$ / 1 hour |
n2-highcpu-64 | 2,6384128 US$ / 1 hour |
n2-highcpu-80 | 3,298016 US$ / 1 hour |
c2-standard-4 | 0,2401292 US$ / 1 hour |
c2-standard-8 | 0,4802584 US$ / 1 hour |
c2-standard-16 | 0,9605168 US$ / 1 hour |
c2-standard-30 | 1,800969 US$ / 1 hour |
c2-standard-60 | 3,601938 US$ / 1 hour |
m1-ultramem-40 | 7,237065 US$ / 1 hour |
m1-ultramem-80 | 14,47413 US$ / 1 hour |
m1-ultramem-160 | 28,94826 US$ / 1 hour |
m1-megamem-96 | 12,249984 US$ / 1 hour |
cloud-tpu | El precio se determina en función del tipo de acelerador. Consulta la sección "Aceleradores". |
*Este importe incluye el precio de la GPU, ya que este tipo de instancia siempre requiere un número fijo de aceleradores de GPU.
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Aceleradores
Tipo de máquina | Precio (USD) | Tarifa de gestión de Vertex |
|---|---|---|
NVIDIA_TESLA_A100 | 2,933908 US$ / 1 hour | 0,4400862 US$ / 1 hour |
NVIDIA_TESLA_A100_80GB | 3,92808 US$ / 1 hour | 0,589212 US$ / 1 hour |
NVIDIA_H100_80GB | 9,79655057 US$ / 1 hour | 1,4694826 US$ / 1 hour |
NVIDIA_H200_141GB | 10,708501 US$ / 1 hour | No disponible |
NVIDIA_H100_MEGA_80GB | 11,8959171 US$ / 1 hour | No disponible |
NVIDIA_TESLA_L4 | 0,644046276 US$ / 1 hour | No disponible |
NVIDIA_TESLA_P4 | 0,69 US$ / 1 hour | No disponible |
NVIDIA_TESLA_P100 | 1,679 US$ / 1 hour | No disponible |
NVIDIA_TESLA_T4 | 0,4025 US$ / 1 hour | No disponible |
NVIDIA_TESLA_V100 | 2,852 US$ / 1 hour | No disponible |
TPU_V2 Single (8 cores) | 5,175 US$ / 1 hour | No disponible |
Pod de TPU_V2 (32 núcleos)* | 27,60 US$ / 1 hour | No disponible |
TPU_V3 Single (8 cores) | 9,20 US$ / 1 hour | No disponible |
Pod de TPU_V3 (32 núcleos)* | 36,80 US$ / 1 hour | No disponible |
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
* El precio del entrenamiento con un pod de TPUs de Cloud se basa en el número de núcleos del pod. El número de núcleos de un pod siempre es un múltiplo de 32. Para determinar el precio del entrenamiento en un pod que tiene más de 32 núcleos, multiplica el precio del pod de 32 núcleos por el número de núcleos dividido entre 32. Por ejemplo, en un pod de 128 núcleos, el precio es (precio de un pod de 32 núcleos) × (128/32). Para obtener información acerca de los pods de TPUs de Cloud disponibles en una región concreta, consulta Arquitectura del sistema en la documentación sobre las TPUs de Cloud.
Discos
Tipo de máquina | Precio (USD) |
|---|---|
pd-standard | 0,000063014 US$ / 1 gibibyte hour |
pd-ssd | 0,000267808 US$ / 1 gibibyte hour |
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Se te cobrará por entrenar tus modelos desde el momento en que se aprovisionen los recursos de una tarea hasta que esa tarea termine.
Advertencia: Las tareas de entrenamiento están limitadas por la política de cuotas de Vertex AI. Si eliges un clúster de procesamiento muy potente para tus primeras tareas de entrenamiento, es probable que superes la cuota.
Niveles de escalabilidad con configuraciones predefinidas (AI Platform Training)
Al entrenar tu modelo, puedes elegir el tipo de clúster de procesamiento que se debe utilizar. Lo más sencillo es elegir una de las configuraciones predefinidas, llamadas niveles de escalabilidad. Consulta más información sobre los niveles de escalabilidad.
Tipos de máquinas con configuraciones personalizadas
Si usas Vertex AI o seleccionas el nivel de escalabilidad CUSTOM en AI Platform Training, puedes controlar el número y el tipo de máquinas virtuales que se deben utilizar en la maestra, el trabajador y el servidor de parámetros del clúster. Consulta más información sobre los tipos de máquina de Vertex AI y los tipos de máquina de AI Platform Training.
Para calcular el precio de la preparación con un clúster de procesamiento personalizado, se suma el coste de todas las máquinas que especifiques. Se te cobra por el tiempo total de la tarea, no por el tiempo de procesamiento activo de cada máquina.
En el caso de las métricas basadas en modelos, solo se aplican cargos por los costes de predicción asociados al modelo de evaluador automático subyacente. Se facturan en función de los tokens de entrada que proporciones en tu conjunto de datos de evaluación y de la salida del evaluador automático.
El servicio de evaluación de la IA generativa ya está disponible para el público general. El cambio de precio entró en vigor el 14 de abril del 2025.
métrico | Precios |
|---|---|
Pointwise | Modelo de evaluador automático predeterminado Gemini 2.0 Flash |
Por pares | Modelo de evaluador automático predeterminado Gemini 2.0 Flash |
Las métricas basadas en la computación se cobran a 0,00003 USD por cada 1000 caracteres de entrada y a 0,00009 USD por cada 1000 caracteres de salida. Se denominan "métrica automática" en la SKU.
Nombre de la métrica | Tipo |
|---|---|
Concordancia exacta | Basada en cálculos |
BLEU | Basada en cálculos |
Rouge | Basada en cálculos |
Tool Call Valid | Basada en cálculos |
Tool Name Match | Basada en cálculos |
Coincidencia de clave de parámetro de herramienta | Basada en cálculos |
Tool Parameter KV Match | Basada en cálculos |
Los precios de esta página están en dólares estadounidenses (USD). Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Las métricas basadas en modelos antiguos se cobran a 0,005 USD por cada 1000 caracteres de entrada y a 0,015 USD por cada 1000 caracteres de salida.
Nombre de la métrica | Tipo |
|---|---|
Coherencia | Pointwise |
Fluidez | Pointwise |
Fulfillment | Pointwise |
Seguridad | Pointwise |
Fundamentación | Pointwise |
Calidad de resumen | Pointwise |
Utilidad de la función de resumen | Pointwise |
Verbosidad de la función de resumen | Pointwise |
Calidad de la búsqueda de respuestas | Pointwise |
Relevancia de la búsqueda de respuestas | Pointwise |
Utilidad de la búsqueda de respuestas | Pointwise |
Precisión en la búsqueda de respuestas | Pointwise |
Calidad de resumen por pares | Por pares |
Calidad de la respuesta a preguntas por pares | Por pares |
Los precios de esta página están en dólares estadounidenses (USD). Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Vertex AI Agent Engine es un conjunto de servicios que permite a los desarrolladores escalar agentes en producción. Hoy en día, se han establecido los precios del tiempo de ejecución de Agent Engine. Los precios de otros servicios de Agent Engine, como Sessions, Memory Bank y Code Execution, se publicarán más adelante (actualmente, se pueden usar sin coste económico).
Los precios se basan en los recursos de computación (horas de vCPU) y memoria (horas de GiB) que usan los agentes desplegados en el runtime de Agent Engine. La facturación se redondea al segundo de uso más cercano. El tiempo de inactividad de un agente no se factura.
Para ayudarte a dar tus primeros pasos con el runtime, ofrecemos un nivel gratuito mensual.
Cuando tu uso mensual supere el nivel gratuito, se empezará a facturar según las tarifas que se indican a continuación.
Recurso | Precio (USD) |
|---|---|
vCPU | 0 hour to 50 hour 0,00 US$ (Free) / 3,600 second, per 1 month / project 50 hour and above 0,0994 US$ / 3,600 second, per 1 month / project |
RAM | 0 gigabyte hour to 100 gigabyte hour 0,00 US$ (Free) / 3,600 gibibyte second, per 1 month / project 100 gigabyte hour and above 0,0105 US$ / 3,600 gibibyte second, per 1 month / project |
A partir del 6 de noviembre del 2025, los precios del entorno de ejecución de Agent Engine se simplificarán a una sola tarifa, que se aplicará en todas las regiones donde esté disponible el entorno de ejecución de Agent Engine.
Formación
En las tablas que aparecen más abajo figura el precio por hora aproximado de diversas configuraciones de entrenamiento. Puedes elegir una configuración personalizada de los tipos de máquina que selecciones. Para calcular los precios, suma los costes de las máquinas virtuales que uses.
Sin embargo, si usas tipos de máquina de Compute Engine y añades aceleradores, el coste de estos últimos se cobra aparte. Para calcular este coste, multiplica el precio correspondiente de la tabla de aceleradores que encontrarás más abajo por el número de horas de máquina de cada tipo de acelerador que utilices.
Tipos de máquinas
Tipo de máquina | Precio (USD) |
|---|---|
n1‑standard‑4 | 0,2279988 US$ / 1 hour |
n1‑standard‑8 | 0,4559976 US$ / 1 hour |
n1‑standard‑16 | 0,9119952 US$ / 1 hour |
n1‑standard‑32 | 1,8239904 US$ / 1 hour |
n1-standard-64 | 3,6479808 US$ / 1 hour |
n1-standard-96 | 5,4719712 US$ / 1 hour |
n1‑highmem‑2 | 0,1419636 US$ / 1 hour |
n1‑highmem‑4 | 0,2839272 US$ / 1 hour |
n1-highmem-8 | 0,5678544 US$ / 1 hour |
n1-highmem-16 | 1,1357088 US$ / 1 hour |
n1-highmem-32 | 2,2714176 US$ / 1 hour |
n1-highmem-64 | 4,5428352 US$ / 1 hour |
n1-highmem-96 | 6,8142528 US$ / 1 hour |
n1‑highcpu‑16 | 0,68014656 US$ / 1 hour |
n1-highcpu-32 | 1,36029312 US$ / 1 hour |
n1‑highcpu‑64 | 2,72058624 US$ / 1 hour |
n1-highcpu-96 | 4,08087936 US$ / 1 hour |
a2-highgpu-1g* | 4,408062 US$ / 1 hour |
a2-highgpu-2g* | 8,816124 US$ / 1 hour |
a2-highgpu-4g* | 17,632248 US$ / 1 hour |
a2-highgpu-8g* | 35,264496 US$ / 1 hour |
a2-highgpu-16g* | 70,528992 US$ / 1 hour |
a3-highgpu-8g* | 105,39898088 US$ / 1 hour |
a3-megagpu-8g* | 110,65714224 US$ / 1 hour |
a4-highgpu-8g* | 148,212 US$ / 1 hour |
e2-standard-4 | 0,16082748 US$ / 1 hour |
e2-standard-4 | 0,32165496 US$ / 1 hour |
e2-standard-16 | 0,64330992 US$ / 1 hour |
e2-standard-32 | 1,28661984 US$ / 1 hour |
e2-highmem-2 | 0,10847966 US$ / 1 hour |
e2-highmem-4 | 0,21695932 US$ / 1 hour |
e2-highmem-8 | 0,43391864 US$ / 1 hour |
e2-highmem-16 | 0,86783728 US$ / 1 hour |
e2-highcpu-16 | 0,4749144 US$ / 1 hour |
e2-highcpu-32 | 0,9498288 US$ / 1 hour |
n2-standard-4 | 0,2330832 US$ / 1 hour |
n2-standard-8 | 0,4661664 US$ / 1 hour |
n2-standard-16 | 0,9323328 US$ / 1 hour |
n2-standard-32 | 1,8646656 US$ / 1 hour |
n2-standard-48 | 2,7969984 US$ / 1 hour |
n2-standard-64 | 3,7293312 US$ / 1 hour |
n2-standard-80 | 4,661664 US$ / 1 hour |
n2-highmem-2 | 0,1572168 US$ / 1 hour |
n2-highmem-4 | 0,3144336 US$ / 1 hour |
n2-highmem-8 | 0,6288672 US$ / 1 hour |
n2-highmem-16 | 1,2577344 US$ / 1 hour |
n2-highmem-32 | 2,5154688 US$ / 1 hour |
n2-highmem-48 | 3,7732032 US$ / 1 hour |
n2-highmem-64 | 5,0309376 US$ / 1 hour |
n2-highmem-80 | 6,288672 US$ / 1 hour |
n2-highcpu-16 | 0,6882816 US$ / 1 hour |
n2-highcpu-32 | 1,3765632 US$ / 1 hour |
n2-highcpu-48 | 2,0648448 US$ / 1 hour |
n2-highcpu-64 | 2,7531264 US$ / 1 hour |
n2-highcpu-80 | 3,441408 US$ / 1 hour |
c2-standard-4 | 0,2505696 US$ / 1 hour |
c2-standard-8 | 0,5011392 US$ / 1 hour |
c2-standard-16 | 1,0022784 US$ / 1 hour |
c2-standard-30 | 1,879272 US$ / 1 hour |
c2-standard-60 | 3,758544 US$ / 1 hour |
m1-ultramem-40 | 7,55172 US$ / 1 hour |
m1-ultramem-80 | 15,10344 US$ / 1 hour |
m1-ultramem-160 | 30,20688 US$ / 1 hour |
m1-megamem-96 | 12,782592 US$ / 1 hour |
cloud-tpu | El precio se determina en función del tipo de acelerador. Consulta la sección "Aceleradores". |
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Aceleradores
Tipo de GPU | Precio (USD) |
|---|---|
NVIDIA_TESLA_A100 | 3,5206896 US$ / 1 hour |
NVIDIA_TESLA_A100_80GB | 4,517292 US$ / 1 hour |
NVIDIA_H100_80GB | 11,75586073 US$ / 1 hour |
NVIDIA_TESLA_P4 | 0,72 US$ / 1 hour |
NVIDIA_TESLA_P100 | 1,752 US$ / 1 hour |
NVIDIA_TESLA_T4 | 0,42 US$ / 1 hour |
NVIDIA_TESLA_V100 | 2,976 US$ / 1 hour |
TPU_V2 Single (8 cores) | 5,40 US$ / 1 hour |
Pod de TPU_V2 (32 núcleos)* | 28,80 US$ / 1 hour |
TPU_V3 Single (8 cores) | 9,60 US$ / 1 hour |
Pod de TPU_V3 (32 núcleos)* | 38,40 US$ / 1 hour |
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
* El precio del entrenamiento con un pod de TPUs de Cloud se basa en el número de núcleos del pod. El número de núcleos de un pod siempre es un múltiplo de 32. Para determinar el precio del entrenamiento en un pod que tiene más de 32 núcleos, multiplica el precio del pod de 32 núcleos por el número de núcleos dividido entre 32. Por ejemplo, en un pod de 128 núcleos, el precio es (precio de un pod de 32 núcleos) × (128/32). Para obtener información acerca de los pods de TPUs de Cloud disponibles en una región concreta, consulta Arquitectura del sistema en la documentación sobre las TPUs de Cloud.
Discos
Tipo de disco | Precio (USD) |
|---|---|
pd-standard | 0,000065753 US$ / 1 gibibyte hour |
pd-ssd | 0,000279452 US$ / 1 gibibyte hour |
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Se te cobrará por entrenar tus modelos desde el momento en que se aprovisionen los recursos de una tarea hasta que esa tarea termine.
Advertencia: Las tareas de entrenamiento están limitadas por la política de cuotas de Vertex AI. Si eliges un clúster de procesamiento muy potente para tus primeras tareas de entrenamiento, es probable que superes la cuota.
En las tablas de más abajo se incluyen los precios de la predicción por lotes, la predicción online y la explicación online por hora de nodo. Una hora de nodo representa el tiempo que una máquina virtual dedica a ejecutar una tarea de predicción o a mantenerse a la espera en estado activo (un endpoint con uno o varios modelos desplegados) para gestionar solicitudes de predicción o explicación.
Puedes usar máquinas virtuales de Spot con Vertex AI Inference.Las VMs de acceso puntual se facturan según los precios de las VMs de acceso puntual de Compute Engine. Además del uso de la infraestructura, se aplican tarifas de gestión de Vertex AI Inference, que se indican en las siguientes tablas.
Puedes usar reservas de Compute Engine con Vertex AI Inference. Cuando usas reservas de Compute Engine, se te factura según los precios de Compute Engine, incluidos los descuentos por uso comprometido (CUDs) aplicables. Además del uso de la infraestructura, se aplican tarifas de gestión de Vertex AI Inference, que se indican en las siguientes tablas.
Serie E2
Tipo de máquina | Precio (USD) |
|---|---|
e2-standard-2 | 0,0770564 US$ / 1 hour |
e2-standard-4 | 0,1541128 US$ / 1 hour |
e2-standard-8 | 0,3082256 US$ / 1 hour |
e2-standard-16 | 0,6164512 US$ / 1 hour |
e2-standard-32 | 1,2329024 US$ / 1 hour |
e2-highmem-2 | 0,1039476 US$ / 1 hour |
e2-highmem-4 | 0,2078952 US$ / 1 hour |
e2-highmem-8 | 0,4157904 US$ / 1 hour |
e2-highmem-16 | 0,8315808 US$ / 1 hour |
e2-highcpu-2 | 0,056888 US$ / 1 hour |
e2-highcpu-4 | 0,113776 US$ / 1 hour |
e2-highcpu-8 | 0,227552 US$ / 1 hour |
e2-highcpu-16 | 0,455104 US$ / 1 hour |
e2-highcpu-32 | 0,910208 US$ / 1 hour |
Serie N1
Tipo de máquina | Precio (USD) |
|---|---|
n1‑standard‑2 | 0,1095 US$ / 1 hour |
n1‑standard‑4 | 0,219 US$ / 1 hour |
n1‑standard‑8 | 0,438 US$ / 1 hour |
n1‑standard‑16 | 0,876 US$ / 1 hour |
n1‑standard‑32 | 1,752 US$ / 1 hour |
n1‑highmem‑2 | 0,137 US$ / 1 hour |
n1‑highmem‑4 | 0,274 US$ / 1 hour |
n1-highmem-8 | 0,548 US$ / 1 hour |
n1-highmem-16 | 1,096 US$ / 1 hour |
n1-highcpu-2 | 0,081 US$ / 1 hour |
n1-highcpu-4 | 0,162 US$ / 1 hour |
n1-highcpu-8 | 0,324 US$ / 1 hour |
n1‑highcpu‑16 | 0,648 US$ / 1 hour |
n1-highcpu-32 | 1,296 US$ / 1 hour |
Serie N2
Tipo de máquina | Precio (USD) |
|---|---|
n2-standard-2 | 0,1116854 US$ / 1 hour |
n2-standard-4 | 0,2233708 US$ / 1 hour |
n2-standard-8 | 0,4467416 US$ / 1 hour |
n2-standard-16 | 0,8934832 US$ / 1 hour |
n2-standard-32 | 1,7869664 US$ / 1 hour |
n2-highmem-2 | 0,1506654 US$ / 1 hour |
n2-highmem-4 | 0,3013308 US$ / 1 hour |
n2-highmem-8 | 0,6026616 US$ / 1 hour |
n2-highmem-16 | 1,2053232 US$ / 1 hour |
n2-highcpu-2 | 0,0824504 US$ / 1 hour |
n2-highcpu-4 | 0,1649008 US$ / 1 hour |
n2-highcpu-8 | 0,3298016 US$ / 1 hour |
n2-highcpu-16 | 0,6596032 US$ / 1 hour |
n2-highcpu-32 | 1,3192064 US$ / 1 hour |
Serie N2D
Tipo de máquina | Precio (USD) |
|---|---|
n2d‑standard‑2 | 0,0971658 US$ / 1 hour |
n2d‑standard‑4 | 0,1943316 US$ / 1 hour |
n2d‑standard‑8 | 0,3886632 US$ / 1 hour |
n2d‑standard‑16 | 0,7773264 US$ / 1 hour |
n2d‑standard‑32 | 1,5546528 US$ / 1 hour |
n2d‑highmem‑2 | 0,131077 US$ / 1 hour |
n2d‑highmem‑4 | 0,262154 US$ / 1 hour |
n2d‑highmem‑8 | 0,524308 US$ / 1 hour |
n2d‑highmem‑16 | 1,048616 US$ / 1 hour |
n2d‑highcpu‑2 | 0,0717324 US$ / 1 hour |
n2d‑highcpu‑4 | 0,1434648 US$ / 1 hour |
n2d‑highcpu‑8 | 0,2869296 US$ / 1 hour |
n2d‑highcpu‑16 | 0,5738592 US$ / 1 hour |
n2d‑highcpu‑32 | 1,1477184 US$ / 1 hour |
Serie C2
Tipo de máquina | Precio (USD) |
|---|---|
c2-standard-4 | 0,240028 US$ / 1 hour |
c2-standard-8 | 0,480056 US$ / 1 hour |
c2-standard-16 | 0,960112 US$ / 1 hour |
c2-standard-30 | 1,80021 US$ / 1 hour |
c2-standard-60 | 3,60042 US$ / 1 hour |
Serie C2D
Tipo de máquina | Precio (USD) |
|---|---|
c2d-standard-2 | 0,1044172 US$ / 1 hour |
c2d-standard-4 | 0,2088344 US$ / 1 hour |
c2d-standard-8 | 0,4176688 US$ / 1 hour |
c2d-standard-16 | 0,8353376 US$ / 1 hour |
c2d-standard-32 | 1,6706752 US$ / 1 hour |
c2d-standard-56 | 2,9236816 US$ / 1 hour |
c2d-standard-112 | 5,8473632 US$ / 1 hour |
c2d-highmem-2 | 0,1408396 US$ / 1 hour |
c2d-highmem-4 | 0,2816792 US$ / 1 hour |
c2d-highmem-8 | 0,5633584 US$ / 1 hour |
c2d-highmem-16 | 1,1267168 US$ / 1 hour |
c2d-highmem-32 | 2,2534336 US$ / 1 hour |
c2d-highmem-56 | 3,9435088 US$ / 1 hour |
c2d-highmem-112 | 7,8870176 US$ / 1 hour |
c2d-highcpu-2 | 0,086206 US$ / 1 hour |
c2d-highcpu-4 | 0,172412 US$ / 1 hour |
c2d-highcpu-8 | 0,344824 US$ / 1 hour |
c2d-highcpu-16 | 0,689648 US$ / 1 hour |
c2d-highcpu-32 | 1,379296 US$ / 1 hour |
c2d-highcpu-56 | 2,413768 US$ / 1 hour |
c2d-highcpu-112 | 4,827536 US$ / 1 hour |
Serie C3
Tipo de máquina | Precio (USD) |
|---|---|
c3-highcpu-4 | 0,19824 US$ / 1 hour |
c3-highcpu-8 | 0,39648 US$ / 1 hour |
c3-highcpu-22 | 1,09032 US$ / 1 hour |
c3-highcpu-44 | 2,18064 US$ / 1 hour |
c3-highcpu-88 | 4,36128 US$ / 1 hour |
c3-highcpu-176 | 8,72256 US$ / 1 hour |
Serie A2
Tipo de máquina | Precio (USD) |
|---|---|
a2-highgpu-1g | 4,2244949 US$ / 1 hour |
a2-highgpu-2g | 8,4489898 US$ / 1 hour |
a2-highgpu-4g | 16,8979796 US$ / 1 hour |
a2-highgpu-8g | 33,7959592 US$ / 1 hour |
a2-megagpu-16g | 64,1020592 US$ / 1 hour |
a2-ultragpu-1g | 5,7818474 US$ / 1 hour |
a2-ultragpu-2g | 11,5636948 US$ / 1 hour |
a2-ultragpu-4g | 23,1273896 US$ / 1 hour |
a2-ultragpu-8g | 46,2547792 US$ / 1 hour |
Cuando se consume capacidad reservada o de spot, la facturación se divide en dos SKUs: el SKU de GCE con la etiqueta "vertex-ai-online-prediction" y el SKU de la tarifa de gestión de Vertex AI. De esta forma, podrás usar tus descuentos por compromiso de uso (CUDs) en Vertex AI.
Serie A3
Tipo de máquina | Precio (USD) |
|---|---|
a3-ultragpu-8g | 96,015616 US$ / 1 hour |
a3-megagpu-8g | 106,65474 US$ / 1 hour |
Cuando se consume capacidad reservada o de spot, la facturación se divide en dos SKUs: el SKU de GCE con la etiqueta "vertex-ai-online-prediction" y el SKU de la tarifa de gestión de Vertex AI. De esta forma, podrás usar tus descuentos por compromiso de uso (CUDs) en Vertex AI.
Serie A4
Tipo de máquina | Precio (USD) |
|---|---|
a4-highgpu-8g | 148,212 US$ / 1 hour |
Cuando se consume capacidad reservada o de spot, la facturación se divide en dos SKUs: el SKU de GCE con la etiqueta "vertex-ai-online-prediction" y el SKU de la tarifa de gestión de Vertex AI. De esta forma, podrás usar tus descuentos por compromiso de uso (CUDs) en Vertex AI.
Serie A4X
Tipo de máquina | Precio (USD) |
|---|---|
a4x-highgpu-4g | 74,75 US$ / 1 hour |
Cuando se consume capacidad reservada o de spot, la facturación se divide en dos SKUs: el SKU de GCE con la etiqueta "vertex-ai-online-prediction" y el SKU de la tarifa de gestión de Vertex AI. De esta forma, podrás usar tus descuentos por compromiso de uso (CUDs) en Vertex AI.
a4x-highgpu-4g requiere al menos 18 máquinas virtuales.
G2 Series
Tipo de máquina | Precio (USD) |
|---|---|
g2-standard-4 | 0,81293 US$ / 1 hour |
g2-standard-8 | 0,98181 US$ / 1 hour |
g2-standard-12 | 1,15069 US$ / 1 hour |
g2-standard-16 | 1,31957 US$ / 1 hour |
g2-standard-24 | 2,30138 US$ / 1 hour |
g2-standard-32 | 1,99509 US$ / 1 hour |
g2-standard-48 | 4,60276 US$ / 1 hour |
g2-standard-96 | 9,20552 US$ / 1 hour |
Cuando se consume capacidad reservada o de spot, la facturación se divide en dos SKUs: el SKU de GCE con la etiqueta "vertex-ai-online-prediction" y el SKU de la tarifa de gestión de Vertex AI. De esta forma, podrás usar tus descuentos por compromiso de uso (CUDs) en Vertex AI.
Precios de las TPU v5e
Tipo de máquina | Precio (USD) |
|---|---|
ct5lp-hightpu-1t | 1,38 US$ / 1 hour |
ct5lp-hightpu-4t | 5,52 US$ / 1 hour |
ct5lp-hightpu-8t | 5,52 US$ / 1 hour |
Cada tipo de máquina se cobra según las siguientes SKUs en tu factura de Google Cloud:
Los precios por tipo de máquina se utilizan para ofrecer una cifra aproximada del coste total por hora correspondiente a cada nodo de predicción de una versión del modelo que use dicho tipo de máquina.
Por ejemplo, el tipo de máquina n1-highcpu-32 incluye 32 vCPUs y 32 GB de RAM. Por tanto, el precio por hora equivale a 32 vCPU por hora + 32 GB por hora.
Serie E2
Elemento | Precio (USD) |
|---|---|
vCPU | 0,0250826 US$ / 1 hour |
RAM | 0,0033614 US$ / 1 gibibyte hour |
Serie N1
Elemento | Precio (USD) |
|---|---|
vCPU | 0,036 US$ / 1 hour |
RAM | 0,005 US$ / 1 gibibyte hour |
Serie N2
Elemento | Precio (USD) |
|---|---|
vCPU | 0,0363527 US$ / 1 hour |
RAM | 0,0048725 US$ / 1 gibibyte hour |
Serie N2D
Elemento | Precio (USD) |
|---|---|
vCPU | 0,0316273 US$ / 1 hour |
RAM | 0,0042389 US$ / 1 gibibyte hour |
Serie C2
Elemento | Precio (USD) |
|---|---|
vCPU | 0,039077 US$ / 1 hour |
RAM | 0,0052325 US$ / 1 gibibyte hour |
Serie C2D
Elemento | Precio (USD) |
|---|---|
vCPU | 0,0339974 US$ / 1 hour |
RAM | 0,0045528 US$ / 1 gibibyte hour |
Serie C3
Elemento | Precio (USD) |
|---|---|
vCPU | 0,03908 US$ / 1 hour |
RAM | 0,00524 US$ / 1 gibibyte hour |
Serie A2
Elemento | Precio (USD) |
|---|---|
vCPU | 0,0363527 US$ / 1 hour |
RAM | 0,0048725 US$ / 1 gibibyte hour |
GPU (A100 de 40 GB) | 3,3741 US$ / 1 hour |
GPU (A100 de 80 GB) | 4,51729 US$ / 1 hour |
Serie A3
Elemento | Precio (USD) |
|---|---|
vCPU | 0,0293227 US$ / 1 hour |
RAM | 0,0025534 US$ / 1 gibibyte hour |
GPU (H100 de 80 GB) | 11,2660332 US$ / 1 hour |
GPU (H200) | 10,708501 US$ / 1 hour |
G2 Series
Elemento | Precio (USD) |
|---|---|
vCPU | 0,02874 US$ / 1 hour |
RAM | 0,00337 US$ / 1 gibibyte hour |
GPU (L4) | 0,64405 US$ / 1 hour |
Algunos tipos de máquina te permiten añadir de manera opcional aceleradores de GPU con fines predictivos. Las GPUs opcionales se cobran aparte de los precios que figuran en la tabla anterior. Consulta las tablas de precios, en las que se describe el precio de cada tipo de GPU opcional.
Aceleradores: precio por hora
Tipo de GPU | Precio (USD) |
|---|---|
NVIDIA_TESLA_P4 | 0,69 US$ / 1 hour |
NVIDIA_TESLA_P100 | 1,679 US$ / 1 hour |
NVIDIA_TESLA_T4 | 0,402 US$ / 1 hour |
NVIDIA_TESLA_V100 | 2,852 US$ / 1 hour |
El precio es por GPU. Si usas varias GPUs por nodo de predicción o si tu versión se escala para utilizar varios nodos, el coste aumentará proporcionalmente.
Para servir predicciones de tu modelo, AI Platform Prediction ejecuta varias máquinas virtuales llamadas "nodos". Vertex AI escala de forma predeterminada y automática el número de nodos que se ejecutan en cada momento. En el caso de la predicción online, dicho número se escala según la demanda. y cada nodo puede responder a varias solicitudes de predicción. Al solicitar predicciones por lotes, se escala el número de nodos para reducir el tiempo total que tarda en ejecutarse la tarea. Si quieres, puedes personalizar cómo se escalan los nodos de predicción.
Se te cobrará por el tiempo de ejecución de cada nodo dentro de tu modelo, incluidas las siguientes situaciones:
Una hora de nodo representa el coste de ejecutar un nodo durante una hora. En la tabla de precios de predicción se indica cuánto cuesta una hora de nodo, lo cual varía según la región y el método (online o por lotes).
Las horas de nodo se pueden consumir en incrementos fraccionarios; por ejemplo, si ejecutas un nodo durante 30 minutos, se te cobra como 0,5 horas de nodo.
Cálculo de los costes de los tipos de máquina N1 de Compute Engine
Consulta más información sobre el escalado automático de los nodos de predicción.
Predicción online | Predicción por lotes |
|---|---|
La prioridad del escalado es reducir la latencia de cada solicitud. El servicio se encarga de que tu modelo se mantenga listo durante unos minutos de inactividad tras servir una solicitud. | La prioridad del escalado es reducir el tiempo total de la tarea. |
El escalado afecta al total de los cargos mensuales, ya que, cuanto más numerosas y frecuentes son tus solicitudes, más nodos se utilizan. | El escalado apenas debería afectar al precio de la tarea. Sin embargo, activar nodos nuevos conlleva algunos gastos indirectos. |
Puedes permitir que el servicio se escale en función del tráfico (escalado automático) o, si quieres evitar la latencia, especificar el número de nodos que se deben ejecutar de forma constante (escalado manual).
| Puedes influir en el escalado si defines el número máximo de nodos que se usarán en una tarea de predicción por lotes o si estableces el número de nodos que se seguirán ejecutando con un modelo cuando lo despliegues. |
Las tareas de predicción por lotes se cobran una vez completadas
Las tareas de predicción por lotes se cobran después de completarse, no de forma incremental durante la tarea. Las alertas de presupuesto de Facturación de Cloud que hayas configurado no se activarán mientras se esté ejecutando una tarea. Antes de iniciar una tarea grande, te recomendamos que ejecutes algunas tareas de comparativa de costes con pocos datos de entrada.
Ejemplo de cálculo de la predicción
Una agencia inmobiliaria de una región de América realiza una predicción semanal del valor de la vivienda en las zonas donde presta servicio. En el transcurso de un mes, ejecuta las predicciones de cuatro semanas en lotes de 3920, 4277, 3849 y 3961. Estas tareas tienen un límite de un nodo, y cada instancia tarda en procesarse una media de 0,72 segundos.
Primero, se debe calcular lo que dura la ejecución de cada tarea:
Como todas las tareas se han ejecutado durante más de 10 minutos, se cobra por cada minuto de procesamiento:
El coste total del mes es de 0,26 USD.
En este ejemplo, se presupone que las tareas se ejecutan en un solo nodo y que el tiempo que tarda cada instancia de entrada es uniforme. A la hora de calcular los costes de un caso de uso real, se deben contabilizar varios nodos, así como el tiempo de ejecución real de cada uno.
Cargos de Vertex Explainable AI
Explicaciones basadas en características
Las explicaciones basadas en características vienen incluidas con las predicciones sin coste adicional. No obstante, las explicaciones tardan más tiempo en procesarse que las predicciones normales. Por eso, si Vertex Explainable AI se usa de forma intensiva junto con el autoescalado, pueden iniciarse más nodos y, como consecuencia, incrementarse los cargos de predicción.
Explicaciones basadas en ejemplos
Los precios de las explicaciones basadas en ejemplos son los que se indican a continuación:
En las siguientes tablas se resumen los precios en cada una de las regiones donde está disponible Neural Architecture Search.
Precios
En las tablas que aparecen a continuación se indican los precios por hora de diversas configuraciones.
Puedes elegir un nivel de escalabilidad predefinido o una configuración personalizada de los tipos de máquina que selecciones. Si escoges esta última opción, tienes que sumar el coste de las máquinas virtuales que uses.
El precio de los tipos de máquinas antiguos con aceleradores habilitados incluye el coste de los aceleradores. Sin embargo, si usas tipos de máquina de Compute Engine y añades aceleradores, el coste de estos últimos se cobra aparte. Para calcular este coste, multiplica el precio correspondiente de la siguiente tabla de aceleradores por el número de aceleradores de cada tipo que utilices.
Tipos de máquinas
Tipo de máquina | Precio (USD) |
|---|---|
n1‑standard‑4 | 0,2849985 US$ / 1 hour |
n1‑standard‑8 | 0,569997 US$ / 1 hour |
n1‑standard‑16 | 1,139994 US$ / 1 hour |
n1‑standard‑32 | 2,279988 US$ / 1 hour |
n1-standard-64 | 4,559976 US$ / 1 hour |
n1-standard-96 | 6,839964 US$ / 1 hour |
n1‑highmem‑2 | 0,1774545 US$ / 1 hour |
n1‑highmem‑4 | 0,1774545 US$ / 1 hour |
n1-highmem-8 | 0,709818 US$ / 1 hour |
n1-highmem-16 | 1,419636 US$ / 1 hour |
n1-highmem-32 | 2,839272 US$ / 1 hour |
n1-highmem-64 | 5,678544 US$ / 1 hour |
n1-highmem-96 | 8,517816 US$ / 1 hour |
n1‑highcpu‑16 | 0,8501832 US$ / 1 hour |
n1-highcpu-32 | 1,7003664 US$ / 1 hour |
n1‑highcpu‑64 | 3,4007328 US$ / 1 hour |
n1-highcpu-96 | 5,1010992 US$ / 1 hour |
a2-highgpu-1g | 5,641070651 US$ / 1 hour |
a2-highgpu-2g | 11,282141301 US$ / 1 hour |
a2-highgpu-4g | 22,564282603 US$ / 1 hour |
a2-highgpu-8g | 45,128565205 US$ / 1 hour |
a2-highgpu-16g | 90,257130411 US$ / 1 hour |
e2-standard-4 | 0,20103426 US$ / 1 hour |
e2-standard-8 | 0,40206852 US$ / 1 hour |
e2-standard-16 | 0,80413704 US$ / 1 hour |
e2-standard-32 | 1,60827408 US$ / 1 hour |
e2-highmem-2 | 0,13559949 US$ / 1 hour |
e2-highmem-4 | 0,27119898 US$ / 1 hour |
e2-highmem-8 | 0,54239796 US$ / 1 hour |
e2-highmem-16 | 1,08479592 US$ / 1 hour |
e2-highcpu-16 | 0,59364288 US$ / 1 hour |
e2-highcpu-32 | 1,18728576 US$ / 1 hour |
n2-standard-4 | 0,291354 US$ / 1 hour |
n2-standard-8 | 0,582708 US$ / 1 hour |
n2-standard-16 | 1,165416 US$ / 1 hour |
n2-standard-32 | 2,330832 US$ / 1 hour |
n2-standard-48 | 3,496248 US$ / 1 hour |
n2-standard-64 | 4,661664 US$ / 1 hour |
n2-standard-80 | 5,82708 US$ / 1 hour |
n2-highmem-2 | 0,196521 US$ / 1 hour |
n2-highmem-4 | 0,393042 US$ / 1 hour |
n2-highmem-8 | 0,786084 US$ / 1 hour |
n2-highmem-16 | 1,572168 US$ / 1 hour |
n2-highmem-32 | 3,144336 US$ / 1 hour |
n2-highmem-48 | 4,716504 US$ / 1 hour |
n2-highmem-64 | 6,288672 US$ / 1 hour |
n2-highmem-80 | 7,86084 US$ / 1 hour |
n2-highcpu-16 | 0,860352 US$ / 1 hour |
n2-highcpu-32 | 1,720704 US$ / 1 hour |
n2-highcpu-64 | 3,441408 US$ / 1 hour |
n2-highcpu-80 | 4,30176 US$ / 1 hour |
c2-standard-4 | 0,313212 US$ / 1 hour |
c2-standard-8 | 0,626424 US$ / 1 hour |
c2-standard-16 | 1,252848 US$ / 1 hour |
c2-standard-30 | 2,34909 US$ / 1 hour |
c2-standard-60 | 4,69818 US$ / 1 hour |
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Los precios de las instancias a2-highgpu incluyen los costes de los aceleradores NVIDIA_TESLA_A100.
Aceleradores
Tipo de GPU | Precio (USD) |
|---|---|
NVIDIA_TESLA_A100 | 4,400862 US$ / 1 hour |
NVIDIA_TESLA_P4 | 0,90 US$ / 1 hour |
NVIDIA_TESLA_P100 | 2,19 US$ / 1 hour |
NVIDIA_TESLA_T4 | 0,525 US$ / 1 hour |
NVIDIA_TESLA_V100 | 3,72 US$ / 1 hour |
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Discos
Tipo de disco | Precio (USD) |
|---|---|
pd-standard | 0,000082192 US$ / 1 gibibyte hour |
pd-ssd | 0,000349315 US$ / 1 gibibyte hour |
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Notas:
Uso obligatorio de Cloud Storage
Además de los costes descritos en este documento, debes almacenar los datos y los archivos de programa en segmentos de Cloud Storage durante el ciclo de vida de Neural Architecture Search. Este almacenamiento está sujeto a la política de precios de Cloud Storage.
Es obligatorio usar Cloud Storage para lo siguiente:
Nota: Puedes usar otro servicio de Google Cloud para almacenar tus datos de entrada, como BigQuery, que tiene sus propios precios.
Operaciones gratuitas para gestionar tus recursos
Puedes hacer operaciones de gestión de recursos con Neural Architecture Search de forma gratuita. No obstante, la política de cuotas de Neural Architecture Search limita algunas de ellas.
Recurso | Operaciones gratuitas |
|---|---|
tareas | get, list, cancel |
operaciones | get, list, cancel, delete |
Vertex AI Pipelines cobra una tarifa de ejecución de 0,03 USD por cada ejecución de flujo de procesamiento. No se te cobrará la tarifa de ejecución durante la versión preliminar. También pagas por los recursos de Google Cloud que uses con Vertex AI Pipelines, como los recursos de Compute Engine que consumen los componentes de los flujos de procesamiento (se cobran al mismo precio que los de Vertex AI Training). Por último, eres responsable de los costes de todos los servicios (como Dataflow) a los que llama tu flujo de procesamiento.
Vertex AI Feature Store está disponible para el público general desde noviembre del 2023. Para obtener más información sobre la versión anterior del producto, visita la documentación de Vertex AI Feature Store (antigua).
Nueva Vertex AI Feature Store
La nueva Vertex AI Feature Store es compatible con las funciones de dos tipos de operaciones:
Precios de las operaciones sin conexión
Dado que BigQuery se utiliza para hacer operaciones sin conexión, consulta los precios de BigQuery relativos a funciones como la ingestión en el almacén sin conexión, la consulta de dicho almacén y el almacenamiento sin conexión.
Precios de las operaciones online
En el caso de las operaciones online, Vertex AI Feature Store cobra por cualquier función de disponibilidad general que se use para transferir datos al almacén online o para servir o almacenar datos. Una hora de nodo representa el tiempo que tarda una máquina virtual en completar una operación, y se cobra por minuto.
Operación | Precio (USD) |
|---|---|
Nodo de procesamiento de datos Procesamiento de datos (por ejemplo, la ingestión en cualquier almacenamiento, monitorización, etc.) | 0,08 US$ / 1 hour |
Nodo de entrega online optimizada Publicación de baja latencia y publicación de embeddings Cada nodo incluye 200 GB de almacenamiento | 0,30 US$ / 1 hour |
Nodo de entrega online de Bigtable Servir con Cloud Bigtable | 0,94 US$ / 1 hour |
Almacenamiento de entrega online de Bigtable Almacenamiento para servir con Cloud Bigtable | 0,000342466 US$ / 1 gibibyte hour |
La entrega online optimizada y la entrega online de Bigtable utilizan arquitecturas distintas, por lo que sus nodos no son comparables.
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Estimaciones de las cargas de trabajo de operaciones online
Ten en cuenta las siguientes directrices al estimar tus cargas de trabajo. El número de nodos que se requieren para una carga de trabajo determinada puede variar en función de cada enfoque de entrega.
Puedes ver el número de nodos (con réplicas) en el Explorador de métricas:

Ejemplo de casos mensuales (suponiendo que se utiliza us-central1)
Carga de trabajo de flujo de datos: entrega online de Bigtable con 2,5 TB de datos (1 GB actualizado diariamente) y 1200 CPS.
Operaciones | Uso mensual | Coste mensual |
|---|---|---|
Nodo de procesamiento de datos | (1 GB/día) × (30 días/mes) × (1000 MB/GB) × (1 hora de nodo ÷ 100 MB) = 300 horas de nodo | 300 horas de nodo × (0,08 USD por hora de nodo) = 24 USD |
Nodo de entrega online optimizada | N/A | N/A |
Nodo de entrega online de Bigtable | (1 nodo) × (24 horas/día) × (30 días/mes) = 720 horas de nodo | 720 horas de nodo × (0,94 USD por hora de nodo) = 677 USD |
Almacenamiento de entrega online de Bigtable | (2,5 TB al mes) × (1000 GB/TB) = 2500 GB al mes | 2500 GB al mes × (0,25 USD por GB al mes) = 625 USD |
Total | 1326 USD |
Carga de trabajo con un número elevado de CPS: entrega online optimizada con 10 GB de datos que no son de incrustación (5 GB actualizados diariamente) y 2000 CPS.
Operaciones | Uso mensual | Coste mensual |
|---|---|---|
Nodo de procesamiento de datos | (5 GB/día) × (30 días/mes) × (1000 MB/GB) × (1 hora de nodo ÷ 100 MB) = 1500 horas de nodo | 1500 horas de nodo × (0,08 USD por hora de nodo) = 120 USD |
Nodo de entrega online optimizada | Roundup(10 GB * (1 nodo ÷ 200 GB)) = 1 * max(2 réplicas predeterminadas, 2000 QPS * (1 réplica ÷ 500 QPS)) = 4 nodos en total * (24 horas/día) * (30 días/mes) =2880 horas de nodo | 2880 horas de nodo × (0,30 por hora de nodo) = 864 USD |
Nodo de entrega online de Bigtable | N/A | N/A |
Almacenamiento de entrega online de Bigtable | N/A | N/A |
Total | 984$ |
Carga de trabajo de entrega de embeddings: entrega online optimizada con 20 GB de datos de embeddings (2 GB actualizados diariamente) y 800 CPS.
Operaciones | Uso mensual | Coste mensual |
|---|---|---|
Nodo de procesamiento de datos | (2 GB/día) × (30 días/mes) × (1000 MB/GB) × (1 hora de nodo ÷ 100 MB) = 600 horas de nodo | 600 horas de nodo × (0,08 USD por hora de nodo) = 48 USD |
Nodo de entrega online optimizada | Roundup(20 GB* (1 nodo / 4 GB) = 5 * max(2 réplicas predeterminadas, 800 QPS * (1 réplica / 500 QPS)) = 10 nodos en total * (24 horas/día) * (30 días/mes) = 7200 horas de nodo | 7200 horas de nodo × (0,30 USD por hora de nodo) = 2160 USD |
Nodo de entrega online de Bigtable | N/A | N/A |
Almacenamiento de entrega online de Bigtable | N/A | N/A |
Total | 2208 USD |
Vertex AI Feature Store (antigua)
Los precios de Vertex AI Feature Store (antigua) se basan en la cantidad de datos de las características presentes en el almacenamiento online y offline, así como en la disponibilidad de la entrega online. Una hora de nodo representa el tiempo que dedica una máquina virtual a servir datos de características o a mantenerse lista y a la espera para gestionar solicitudes de datos de características.
Operación | Precio (USD) |
|---|---|
Almacenamiento online | 0,25 USD por GB al mes |
Almacenamiento offline | 0,023 USD por GB al mes |
Entrega online | 0,94 USD por nodo y hora |
Exportación por lotes | 0,005 USD por GB |
Ingestión en streaming | 0,10 USD por GB de ingesta |
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.
Cuando se habilita la monitorización de valores de características, la facturación incluye los costes aplicables que se citan arriba además de los costes aplicables que se indican a continuación:
Ejemplo de análisis de capturas
Un científico de datos habilita la monitorización de valores de características en su Vertex AI Feature Store (antigua) y activa la monitorización para obtener un análisis de capturas diario. Se ejecuta un flujo de procesamiento diario para monitorizar tipos de entidad. El flujo de procesamiento analiza 2 GB de datos en Vertex AI Feature Store (antigua) y exporta una captura que contiene 0,1 GB de datos. El coste total del análisis de un día es el siguiente:
(0,1 GB x 3,50 USD) + (2 GB x 0,005 USD) = 0,36 USD
Ejemplo de análisis de operaciones de ingestión
Un científico de datos habilita la monitorización de valores de características en su Vertex AI Feature Store (antigua) y activa la monitorización de las operaciones de ingestión. Una operación de ingestión importa 1 GB de datos en Vertex AI Feature Store (antigua). El coste total de la monitorización de valores de características es el siguiente:
(1 GB x 3,50 USD) = 3,50 USD
El almacenamiento de metadatos se mide en gigabytes binarios (GiB), donde 1 GiB equivale a 1.073.741.824 bytes. Esta unidad de medida también se denomina gibibyte.
Vertex ML Metadata cobra 10 USD por gibibyte (GiB) al mes por el almacenamiento de metadatos. Los precios se prorratean por megabyte (MB). Por ejemplo, si almacenas 10 MB de metadatos, se te cobrarán 0,10 USD al mes correspondientes a esos 10 MB de metadatos.
Los precios son los mismos en todas las regiones donde se ofrece Vertex ML Metadata.
Para utilizar Vertex AI TensorBoard, pide al administrador de gestión de identidades y accesos del proyecto que te asigne el rol Usuario de la aplicación web de Vertex AI TensorBoard. El rol de administrador de Vertex AI también tiene acceso.
Desde agosto del 2023, los precios de Vertex AI TensorBoard han cambiado: en lugar de una licencia mensual de 300 USD/mes por usuario, ahora se cobran 10 USD por GiB/mes por el almacenamiento de datos de registros y métricas. Esto significa que ya no se aplican cuotas de suscripción. Solo pagarás por el almacenamiento que utilices. Consulta el tutorial sobre la eliminación de experimentos de TensorBoard obsoletos de Vertex AI TensorBoard para aprender a gestionar el almacenamiento.
Vertex AI Vizier es un servicio de optimización de caja negra que se incluye en Vertex AI. El modelo de precios de Vertex AI Vizier consta de los siguientes elementos:
Los precios del servicio Approximate Nearest Neighbor de Vector Search consisten en lo siguiente:
Los datos procesados durante la creación y la actualización de los índices se miden en gigabytes binarios (GiB), donde 1 GiB equivale a 1.073.741.824 bytes. Esta unidad de medida también se denomina gibibyte.
Vector Search cobra 3,00 USD por gibibyte (GiB) de datos procesado en todas las regiones. Vector Search cobra 0,45 USD por GiB ingerido en las inserciones de actualizaciones en streaming.
En las tablas siguientes se resumen los precios de servir un índice en cada una de las regiones donde está disponible Vector Search. El precio varía según el tipo de máquina y la región, y se cobra por hora de nodo.
Tipo de máquina | Precio (USD) |
|---|---|
e2-standard-2 | 0,0938084 US$ / 1 hour |
e2-standard-16 | 0,7504672 US$ / 1 hour |
e2-highmem-16 | 1,012368 US$ / 1 hour |
n2d‑standard‑32 | 1,8926208 US$ / 1 hour |
n1‑standard‑16 | 1,0639944 US$ / 1 hour |
n1‑standard‑32 | 2,1279888 US$ / 1 hour |
Ejemplos de precios de Vector Search
Los precios de Vector Search vienen determinados por el volumen de datos, la cantidad de consultas por segundo (CPS) que quieras ejecutar y el número de nodos que utilices. Para dar con el coste de servicio estimado, debes calcular el volumen de datos total. El volumen de datos es el número de incrustaciones o vectores multiplicado por el número de dimensiones que tengas y por 4 bytes por cada dimensión. Una vez que hayas calculado el volumen de datos, puedes estimar el coste de servicio y el coste de compilación. La suma del coste de servicio y el coste de compilación es el coste mensual total.
Actualización de streaming: la búsqueda vectorial usa métricas basadas en heurísticas para determinar cuándo activar la compactación. Si los datos no compactados más antiguos tienen cinco días, la compactación siempre se activa. Se te cobra el coste de reconstruir el índice al mismo precio que una actualización por lotes, además de los costes de la actualización en streaming.
Número de incrustaciones o vectores | Número de dimensiones | Consultas por segundo (CPS) | Tipo de máquina | Nodos | Coste mensual de servicio estimado (USD) |
|---|---|---|---|---|---|
2 millones | 128 | 100 | e2-standard-2 | 1 | 68 USD |
20 millones | 256 | 1000 | e2-standard-16 | 1 | 547 USD |
20 millones | 256 | 3000 | e2-standard-16 | 3T | 1642 USD |
100 millones | 256 | 500 | e2-highmem-16 | 2 | 1477 USD |
1000 millones | 100 | 500 | e2-highmem-16 | 8 | 5910 USD |
Todos los ejemplos se basan en tipos de máquina de la región us-central1. El coste que tendrás que pagar variará según los requisitos de latencia y las tasa de sensibilidad. El coste de servicio mensual estimado es directamente proporcional al número de nodos que se utilizan en la consola. Para obtener más información sobre los parámetros de configuración que influyen en el coste, consulta la documentación sobre los parámetros de configuración que influyen en la sensibilidad y en la latencia.
Si el nivel de consultas por segundo (CPS) es elevado, organizar las consultas por lotes puede reducir los costes totales entre un 30 y un 40 %.
Nivel de búsqueda vectorial optimizado para el almacenamiento
En lugar de gestionar y pagar por máquinas virtuales individuales y tareas de compactación independientes, hay dos SKUs:
Unidad | Precio |
|---|---|
Unidad de capacidad optimizada para el almacenamiento | 2,30 US$ / 1 hour |
Unidad de escritura | 0,45 US$ / 1 gibibyte |
El registro de modelos de Vertex AI es un repositorio central que hace un seguimiento y elabora una lista de tus modelos y versiones de modelos. Los modelos que importes a Vertex AI se mostrarán en el registro de modelos. Tener los modelos en este registro no conlleva ningún coste. Lo que sí se cobra es desplegar el modelo en un endpoint o hacer una predicción por lotes del modelo. Este coste se determina en función del tipo de modelo que despliegues.
Para obtener más información sobre cuánto cuesta desplegar modelos personalizados del registro de modelos de Vertex AI, consulta la sección Modelos con entrenamiento personalizado. Si quieres saber más acerca de los precios de despliegue de los modelos de AutoML, consulta la sección Precios de los modelos de AutoML.
Vertex AI te permite monitorizar la eficacia continuada de tu modelo después de desplegarlo en un entorno de producción. Para obtener más información, consulta la introducción a Vertex AI Model Monitoring.
Cuando usas Vertex Model AI Monitoring, se te factura lo siguiente:
Vertex AI Model Monitoring se ofrece en las siguientes regiones: us-central1, europe-west4, asia-east1 y asia-southeast1. Los precios son los mismos en todas las regiones.
Los volúmenes de datos se miden una vez que se convierten al formato TfRecord.
Cuando configuras una tarea de Vertex AI Model Monitoring, incurres en un cargo único por los conjuntos de datos de entrenamiento.
Los conjuntos de datos de predicción constan de registros recogidos del servicio de predicción online. Como las solicitudes de predicción llegan durante diferentes periodos, se recogen los datos de cada periodo, y la suma de los datos analizados de cada periodo de predicción se utiliza para calcular el cargo.
Ejemplo: Un científico de datos ejecuta la monitorización del modelo en el tráfico de predicción que pertenece a su modelo.
Selecciona las pestañas "Instancias", "Cuadernos gestionados" o "Cuadernos gestionados por usuarios" para obtener información sobre los precios.
Instancias
En las tablas de abajo figura el precio por hora aproximado de diversas configuraciones de máquinas virtuales. Puedes elegir una configuración personalizada de los tipos de máquina que selecciones. Para calcular los precios, suma los costes de las máquinas virtuales que uses.
Sin embargo, si usas tipos de máquina de Compute Engine y añades aceleradores, el coste de estos últimos se cobra aparte. Para calcular este coste, multiplica el precio correspondiente de la tabla de aceleradores que encontrarás más abajo por el número de horas de máquina de cada tipo de acelerador que utilices.
CPUs
Tipo de máquina | Precio por vCPU (USD) |
|---|---|
N1 | 0,0379332 US$ / 1 hour |
N2 | 0,0379332 US$ / 1 hour |
E2 | 0,026173908 US$ / 1 hour |
A2 | 0,0379332 US$ / 1 hour |
Memoria
Tipo de máquina | Precio (USD) |
|---|---|
N1 | 0,0050844 US$ / 1 gibibyte hour |
N2 | 0,0050844 US$ / 1 gibibyte hour |
E2 | 0,003508236 US$ / 1 gibibyte hour |
A2 | 0,0050844 US$ / 1 gibibyte hour |
Aceleradores
Tipo de máquina | Precio (USD) |
|---|---|
Nvidia Tesla A100 | 4,400862 US$ / 1 hour |
Nvidia Tesla A100 de 80 GB | 4,51729 US$ / 1 hour |
Nvidia Tesla T4 | 0,525 US$ / 1 hour |
Nvidia Tesla V100 | 3,72 US$ / 1 hour |
Nvidia Tesla P100 | 2,19 US$ / 1 hour |
Discos
Tipo de máquina | Precio (USD) |
|---|---|
Espacio aprovisionado de Hyperdisk Extreme | 0,000205479 US$ / 1 gibibyte hour |
Espacio aprovisionado equilibrado | 0,000164384 US$ / 1 gibibyte hour |
Espacio aprovisionado extremo | 0,000205479 US$ / 1 gibibyte hour |
Espacio aprovisionado en SSD | 0,000279452 US$ / 1 gibibyte hour |
Espacio aprovisionado estándar | 0,000065753 US$ / 1 gibibyte hour |
Tu instancia de Vertex AI Workbench genera cargos de la siguiente forma:
Cuadernos gestionados
En el precio se incluyen los recursos de computación y almacenamiento que uses, las tarifas de gestión de tus instancias de Vertex AI Workbench y cualquier recurso de Cloud adicional que utilices. Consulta más información en las secciones siguientes.
Recursos de computación y almacenamiento
Los recursos de computación y almacenamiento se cobran al mismo precio que pagas por Compute Engine y Cloud Storage.
Comisiones de gestión
Además del uso de la infraestructura, se aplican tarifas de gestión de Vertex AI Workbench, que se indican en la siguiente tabla.
SKU | Precio (USD) |
|---|---|
vCPU | 0,05 USD por vCPU |
T4 y P4 (GPU estándar) | 0,35 USD por GPU |
P100, V100, L4 y A100 (GPU premium) | 2,48 USD por GPU |
Cuadernos gestionados por usuarios
En el precio se incluyen los recursos de computación y almacenamiento que uses, las tarifas de gestión de tus instancias de Vertex AI Workbench y cualquier recurso de Cloud adicional que utilices. Consulta más información en las secciones siguientes.
Recursos de computación y almacenamiento
Los recursos de computación y almacenamiento se cobran al mismo precio que pagas por Compute Engine y Cloud Storage.
Comisiones de gestión
Además del uso de la infraestructura, se aplican tarifas de gestión de Vertex AI Workbench, que se indican en la siguiente tabla.
SKU | Precio (USD) |
|---|---|
vCPU | 0,005 USD por vCPU |
T4 y P4 (GPU estándar) | 0,035 USD por GPU |
P100, V100 y A100 (GPU premium) | 0,25 USD por GPU |
Recursos adicionales de Google Cloud
Además de los costes previamente mencionados, también se te cobrará por cualquier recurso de Google Cloud que utilices. Por ejemplo:
Para consultar información sobre los precios de Colab Enterprise, visita la página Precios de Colab Enterprise.
En el caso de los contenedores de aprendizaje profundo, las imágenes de máquina virtual de aprendizaje profundo y AI Platform Pipelines, los precios se calculan según los recursos de computación y almacenamiento que utilices. Estos recursos se te cobrarán al mismo precio que pagas por Compute Engine y Cloud Storage.
Además de los costes de computación y almacenamiento, también se te cobrará por los recursos de Google Cloud que uses. Por ejemplo:
Vertex AI te permite solicitar que una serie de personas etiqueten conjuntos de datos que quieras utilizar para entrenar modelos de aprendizaje automático personalizados. Los precios del servicio se calculan en función del tipo de tarea de etiquetado.
En la tabla que aparece a continuación se muestran los precios por cada 1000 unidades por persona que etiqueta, según la unidad de cada objetivo. Los precios del nivel 1 corresponden a las primeras 50.000 unidades mensuales de cada proyecto de Google Cloud, mientras que los del nivel 2 se aplican a las siguientes 950.000 unidades de cada proyecto en ese mes, hasta llegar al límite de 1.000.000 unidades. Ponte en contacto con nosotros para que te informemos sobre los precios de los volúmenes superiores a 1.000.000 unidades al mes.
Tipo de datos | Objetivo | Unidad | Precio del nivel 1 (USD) | Precio del nivel 2 (USD) |
|---|---|---|---|---|
Imagen | Clasificación | Imagen | 35 USD | 25 USD |
Cuadro delimitador | Cuadro delimitador | 63 USD | 49 USD | |
Segmentación | Segmento | 870 USD | 850 USD | |
Cuadro rotado | Cuadro delimitador | 86 USD | 60 USD | |
Polígono/Polilínea | Polígono/Polilínea | 257 USD | 180 USD | |
Vídeo | Clasificación | Vídeo de 5 s | 86 USD | 60 USD |
Monitorización de objetos | Cuadro delimitador | 86 USD | 60 USD | |
Reconocimiento de acciones | Evento en 30 s de vídeo | 214 USD | 150 USD | |
Texto | Clasificación | 50 palabras | 129 USD | 90 USD |
Opinión | 50 palabras | 200 USD | 140 USD | |
Extracción de entidades | Entidad | 86 USD | 60 USD | |
Entrenamiento activo | Todo | Elemento de datos | 80 USD | 56 USD |
Etiquetador personalizado | Todo | Elemento de datos | 80 USD | 56 USD |
Además de los costes descritos en este documento, debes almacenar los datos y los archivos de programa en segmentos de Cloud Storage durante el ciclo de vida de Vertex AI. Este almacenamiento está sujeto a la política de precios de Cloud Storage.
Es obligatorio usar Cloud Storage para lo siguiente:
Puedes realizar operaciones de gestión de recursos con AI Platform de forma gratuita. No obstante, la política de cuotas de AI Platform limita algunas de ellas.
Recurso | Operaciones gratuitas |
|---|---|
modelos | create, get, list, delete |
versiones | create, get, list, delete, setDefault |
tareas | get, list, cancel |
operaciones | get, list, cancel, delete |
Si almacenas imágenes en Cloud Storage para analizarlas o si utilizas otros recursos de Google Cloud junto con Vertex AI, también se te cobrará el uso de esos servicios.
Para ver el estado actual de tu facturación en la consola de Google Cloud, incluidos el uso y la factura en curso, visita la página Facturación. Si quieres obtener más información sobre cómo gestionar tu cuenta, consulta la documentación de Facturación de Cloud o la página de asistencia para pagos y facturación.