Los precios de esta página están en dólares estadounidenses (USD).
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
Precios de Vertex AI comparados con los precios de los productos antiguos
Los costes de Vertex AI no varían con respecto a los de los productos antiguos de AI Platform y AutoML que sustituye Vertex AI, con las siguientes excepciones:
Las predicciones de la versión antigua de AI Platform Prediction y AutoML Tables eran compatibles con tipos de máquina de bajo coste y bajo rendimiento que no se admiten en Vertex AI Prediction ni en el modelo tabular de AutoML.
La versión antigua de AI Platform Prediction admitía el escalado a cero, pero Vertex AI Prediction no admite esta función.
Vertex AI también ofrece más formas de optimizar los costes, como las siguientes:
No hay una duración de uso mínima para el entrenamiento ni para la predicción. En lugar de ello, el tiempo de uso se cobra en incrementos de 30 segundos.
En el caso de los modelos de AutoML de Vertex AI, pagas por tres actividades principales:
Entrenar el modelo
Desplegar el modelo en un endpoint
Usar el modelo para hacer predicciones
Vertex AI usa configuraciones de máquina predefinidas para los modelos de AutoML de Vertex, y la tarifa por hora de estas actividades refleja el uso de los recursos.
El tiempo necesario para entrenar tu modelo depende del tamaño y de la complejidad de los datos de entrenamiento. Los modelos deben desplegarse para poder hacer predicciones o dar explicaciones online.
Pagas por cada modelo desplegado en un endpoint, aunque no se haga ninguna predicción.
Si no quieres incurrir en más gastos, anula el despliegue de tu modelo.
No se cobran los modelos que no se hayan desplegado o que no se hayan podido desplegar.
Solo pagas por las horas de procesamiento que utilices. Si el entrenamiento falla, no se te cobrará el tiempo empleado, a menos que hayas cancelado la operación por tu cuenta. En ese caso, sí deberás pagar por ese tiempo de entrenamiento.
Selecciona un tipo de modelo en la siguiente tabla para consultar información sobre los precios.
Los costes de computación asociados a Vertex Explainable AI se cobran al mismo precio que las predicciones.
No obstante, las explicaciones tardan más tiempo en procesarse que las predicciones normales. Por eso, si Vertex Explainable AI se usa de forma intensiva junto con el autoescalado, pueden iniciarse más nodos y, como consecuencia, incrementarse los cargos de predicción.
En las tablas que aparecen más abajo figura el precio por hora aproximado de diversas configuraciones de entrenamiento. Puedes elegir una configuración personalizada de los tipos de máquina que selecciones. Para calcular los precios, suma los costes de las máquinas virtuales que uses.
Sin embargo, si usas tipos de máquina de Compute Engine y añades aceleradores, el coste de estos últimos se cobrará aparte. Para calcular este coste, multiplica el precio correspondiente de la tabla de aceleradores que encontrarás más abajo por el número de horas de máquina de cada tipo de acelerador que utilices.
Tipos de máquina
* Esta cantidad incluye el precio de la GPU, ya que este tipo de instancia siempre requiere un número fijo de aceleradores de GPU.
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
Aceleradores
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
* El precio del entrenamiento con un pod de TPUs de Cloud se basa en el número de núcleos del pod. El número de núcleos de un pod siempre es un múltiplo de 32. Para determinar el precio del entrenamiento en un pod que tiene más de 32 núcleos, multiplica el precio del pod de 32 núcleos por el número de núcleos dividido entre 32. Por ejemplo, en un pod de 128 núcleos, el precio es (32-core Pod price) * (128/32). Para obtener información acerca de los pods de TPUs de Cloud disponibles en una región concreta, consulta Arquitectura del sistema en la documentación sobre las TPUs de Cloud.
Discos
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
Durante el ciclo de vida de Vertex AI, debes almacenar tus datos y archivos de programa en segmentos de Google Cloud Storage.
Consulta más información sobre el uso de Cloud Storage.
Se te cobrará por entrenar tus modelos desde el momento en que se aprovisionen los recursos de una tarea hasta que esa tarea termine.
Niveles de escalabilidad con configuraciones predefinidas (AI Platform Training)
Al entrenar tu modelo, puedes elegir el tipo de clúster de procesamiento que se debe utilizar.
Lo más sencillo es elegir una de las configuraciones predefinidas, llamadas niveles de escalabilidad. Consulta más información sobre los niveles de escalabilidad.
Tipos de máquina con configuraciones personalizadas
Si usas Vertex AI o seleccionas el nivel de escalabilidad CUSTOM en AI Platform Training, puedes controlar el número y el tipo de máquinas virtuales que se deben utilizar en la maestra, el trabajador y el servidor de parámetros del clúster. Consulta más información sobre los tipos de máquina de Vertex AI y los tipos de máquina de AI Platform Training.
El coste del entrenamiento con un clúster de procesamiento personalizado es la suma del coste de todas las máquinas que especifiques. Se te cobrará por el tiempo total de la tarea y no por el tiempo de procesamiento activo de cada máquina.
Servicio de evaluación de la IA generativa
Vertex AI Gen AI Evaluation Service cobra por cada 1000 caracteres de los campos de entrada y salida de cadenas. Un carácter se define como un carácter Unicode. Los espacios en blanco no se tienen en cuenta. No se cobrará por la entrada ni la salida de las solicitudes de evaluación que no se hayan podido completar, incluidas las respuestas filtradas. Al final de cada ciclo de facturación, las fracciones de un céntimo (0,01 $) se redondean a un céntimo.
Gen AI Evaluation Service está disponible para todo el público (GA). Los precios entraron en vigor
el 27 de septiembre del 2024.
Métrica
Precios
Punto de entrada
Entrada: 0,005 € por 1000 caracteres Salida: 0,015 € por 1000 caracteres
Pares
Entrada: 0,005 € por 1000 caracteres Salida: 0,015 € por 1000 caracteres
Las métricas basadas en cálculos se cobran a 0,00003 USD por cada 1000 caracteres de entrada y a 0,00009 USD por cada 1000 caracteres de salida. En SKU, se denominan Métrica automática.
Nombre de la métrica
Tipo
Concordancia exacta
Basada en la computación
Bleu
Basada en la computación
Rouge
Basada en la computación
Llamada de herramienta válida
Basada en la computación
Coincidencia con el nombre de la herramienta
Basada en la computación
Correspondencia de teclas de parámetros de herramientas
Basada en la computación
Correspondencia de valores de parámetro de la herramienta
Basada en la computación
Los precios de esta página están en dólares estadounidenses (USD).
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
El precio de las métricas basadas en modelos antiguos es de 0,005 USD por cada 1000 caracteres de entrada y de 0,015 USD por cada 1000 caracteres de salida.
Nombre de la métrica
Tipo
Coherencia
Punto de entrada
Fluidez
Punto de entrada
Fulfillment
Punto de entrada
Seguridad
Punto de entrada
Conexión con la realidad
Punto de entrada
Calidad del resumen
Punto de entrada
Utilidad del resumen
Punto de entrada
Nivel de detalle de los resúmenes
Punto de entrada
Calidad de la búsqueda de respuestas
Punto de entrada
Relevancia de la respuesta a la pregunta
Punto de entrada
Utilidad de la respuesta
Punto de entrada
Exactitud de la respuesta a la pregunta
Punto de entrada
Calidad del resumen por pares
Pares
Calidad de respuesta a preguntas por pares
Pares
Los precios de esta página están en dólares estadounidenses (USD).
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
Ray en Vertex AI
Entrenamiento
En las tablas que aparecen más abajo figura el precio por hora aproximado de diversas configuraciones de entrenamiento. Puedes elegir una configuración personalizada de los tipos de máquina que selecciones. Para calcular los precios, suma los costes de las máquinas virtuales que uses.
Sin embargo, si usas tipos de máquina de Compute Engine y añades aceleradores, el coste de estos últimos se cobrará aparte. Para calcular este coste, multiplica el precio correspondiente de la tabla de aceleradores que encontrarás más abajo por el número de horas de máquina de cada tipo de acelerador que utilices.
Tipos de máquina
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
Aceleradores
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
* El precio del entrenamiento con un pod de TPUs de Cloud se basa en el número de núcleos del pod. El número de núcleos de un pod siempre es un múltiplo de 32. Para determinar el precio del entrenamiento en un pod que tiene más de 32 núcleos, multiplica el precio del pod de 32 núcleos por el número de núcleos dividido entre 32. Por ejemplo, en un pod de 128 núcleos, el precio es (32-core Pod price) * (128/32). Para obtener información acerca de los pods de TPUs de Cloud disponibles en una región concreta, consulta Arquitectura del sistema en la documentación sobre las TPUs de Cloud.
Discos
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
Durante el ciclo de vida de Vertex AI, debes almacenar tus datos y archivos de programa en segmentos de Google Cloud Storage.
Consulta más información sobre el uso de Cloud Storage.
Se te cobrará por entrenar tus modelos desde el momento en que se aprovisionen los recursos de una tarea hasta que esa tarea termine.
Predicción y explicación
En las tablas de más abajo se incluyen los precios de la predicción por lotes, la predicción online y la explicación online por hora de nodo. Una hora de nodo representa el tiempo que una máquina virtual dedica a ejecutar una tarea de predicción o a mantenerse a la espera en estado activo (un endpoint con uno o varios modelos desplegados) para gestionar solicitudes de predicción o explicación.
Selecciona una región para ver la tabla de precios correspondiente.
Cada tipo de máquina se cobra según las siguientes SKUs en tu factura de Google Cloud:
Coste de las vCPUs: calculado en horas de vCPU
Coste de la RAM: calculado en horas de GB
Coste de las GPUs: ya sea integradas en la máquina o configuradas de manera opcional, se calcula en horas de GPU
Los precios por tipo de máquina se utilizan para ofrecer una cifra aproximada del coste total por hora correspondiente a cada nodo de predicción de una versión del modelo que use dicho tipo de máquina.
Por ejemplo, el tipo de máquina n1-highcpu-32 incluye 32 vCPUs y 32 GB de RAM.
Por tanto, el precio por hora equivale a 32 vCPU hours + 32 GB hours.
Hay una tabla de precios de SKUs por región. En cada tabla se muestran los precios de las vCPUs, la RAM y las GPUs integradas de los tipos de máquina de predicción, que reflejan con mayor precisión las SKUs que se cobran.
Para ver el precio de las SKUs por región, selecciona una de las siguientes regiones para ir a la tabla de precios correspondiente.
Algunos tipos de máquina te permiten añadir de manera opcional aceleradores de GPU con fines predictivos. Las GPUs opcionales se cobran aparte de los precios que figuran en la tabla anterior. Consulta las tablas de precios, en las que se describe el precio de cada tipo de GPU opcional.
Los precios se determinan por GPU. Si usas varias en cada nodo de predicción o si tu versión se escala para utilizar varios nodos, el coste aumentará proporcionalmente.
Para servir predicciones de tu modelo, AI Platform Prediction ejecuta varias máquinas virtuales, llamadas "nodos". Vertex AI escala de forma predeterminada y automática el número de nodos que se ejecutan en cada momento. Al realizar predicciones online, dicho número se escala según la demanda. Cada nodo puede responder a varias solicitudes de predicción. Al realizar predicciones por lotes, el número de nodos se escala para reducir el tiempo total que se tarda en ejecutar una tarea. Si quieres, puedes personalizar cómo se escalan los nodos de predicción.
Se te cobrará por el tiempo de ejecución de cada nodo dentro de tu modelo, incluidas las siguientes situaciones:
Cuando el nodo procesa una tarea de predicción por lotes
Cuando el nodo procesa una solicitud de predicción online
Cuando el nodo se mantiene listo para servir predicciones online
Una hora de nodo representa el coste de ejecutar un nodo durante una hora. En la tabla de precios de predicción se detalla cuánto cuesta una hora de nodo, lo cual depende de la región y de si la tarea de predicción es online o por lotes.
Las horas de nodo se pueden consumir en incrementos fraccionarios; por ejemplo, si ejecutas un nodo durante 30 minutos, se te cobrará como 0,5 horas de nodo.
Cálculo de los costes de los tipos de máquina N1 de Compute Engine
El tiempo de ejecución de un nodo se factura en incrementos de 30 segundos. Esto significa que, cada 30 segundos, te cobraremos lo que cuesten los recursos de vCPU, RAM o GPU que use el nodo de tu proyecto durante ese intervalo.
Consulta más información sobre el escalado automático de los nodos de predicción.
Predicción online
Predicción por lotes
La prioridad del escalado es reducir la latencia de cada solicitud. El servicio se encarga de que tu modelo se mantenga listo durante unos minutos de inactividad tras servir una solicitud.
La prioridad del escalado es reducir el tiempo que dura la tarea en total.
El escalado afecta al total de los cargos mensuales, ya que, cuanto más numerosas y frecuentes son tus solicitudes, más nodos se utilizan.
El escalado apenas debería afectar al precio de la tarea. Sin embargo, activar nodos nuevos conlleva algunos gastos indirectos.
Puedes permitir que el servicio se escale en función del tráfico (escalado automático) o, si quieres evitar la latencia, especificar el número de nodos que se deben ejecutar de forma constante (escalado manual).
Si eliges el escalado automático, la cantidad de nodos aumentará y disminuirá automáticamente. En el caso de los despliegues de tipos de máquina antiguos de AI Platform Prediction (MLS1), el número de nodos puede reducirse verticalmente a cero durante periodos sin tráfico. En los despliegues de Vertex AI y otros tipos de despliegues de AI Platform Prediction, los nodos no pueden reducirse verticalmente a cero.
Con el escalado manual, especificas un número concreto de nodos que se mantendrán en ejecución constante. En este caso, se te cobrará por el tiempo total de ejecución de dichos nodos, desde el momento del despliegue hasta que elimines la versión del modelo en cuestión.
Puedes influir en el escalado si defines el número máximo de nodos que se usarán en una tarea de predicción por lotes o si estableces el número de nodos que se seguirán ejecutando con un modelo cuando lo despliegues.
Las tareas de predicción por lotes se cobran una vez completadas
Las tareas de predicción por lotes se cobran después de completarse, no de forma incremental durante la tarea. Las alertas de presupuesto de Facturación de Cloud que hayas configurado no se activarán mientras se esté ejecutando una tarea. Antes de iniciar una tarea grande, te recomendamos que ejecutes algunas tareas de comparativa de costes con pocos datos de entrada.
Ejemplo de cálculo de la predicción
Una agencia inmobiliaria de una región de América hace una predicción semanal del valor de la vivienda en las zonas donde presta servicio. En el transcurso de un mes, ejecuta las predicciones de cuatro semanas en lotes de 3920, 4277, 3849 y 3961. Estas tareas tienen un límite de un nodo, y cada instancia tarda en procesarse una media de 0.72 segundos.
Primero, se debe calcular lo que dura la ejecución de cada tarea:
En este ejemplo, se presupone que las tareas se ejecutan en un solo nodo y que el tiempo que tarda cada instancia de entrada es uniforme. A la hora de calcular los costes de un caso de uso real, se deben contabilizar varios nodos y utilizar el tiempo de ejecución total de cada uno.
Cargos de Vertex Explainable AI
Explicaciones basadas en características
Las explicaciones basadas en características vienen incluidas con las predicciones sin coste adicional. No obstante, las explicaciones tardan más tiempo en procesarse que las predicciones normales. Por eso, si Vertex Explainable AI se usa de forma intensiva junto con el autoescalado, pueden iniciarse más nodos y, como consecuencia, incrementarse los cargos de predicción.
Cuando subes un modelo o actualizas su conjunto de datos, se te cobrará de la siguiente manera:
Por hora de nodo en función de la tarea de predicción por lotes utilizada para generar las representaciones del espacio latente de los ejemplos. Esto se factura al mismo precio que las predicciones.
Una tarifa por crear o actualizar índices. Esta tarifa es la misma que los costes de indexación de Vector Search, que corresponde a número de ejemplos × número de dimensiones × 4 bytes por flotante × 3,00 USD por GB.
Por ejemplo, si tienes un millón de ejemplos y un espacio latente de 1000 dimensiones, el coste será 12 USD (1.000.000 × 1000 × 4 × 3,00 ÷ 1.000.000.000).
Cuando despliegas un modelo en un endpoint, se te cobrará por hora de nodo de cada nodo de tu endpoint. Cualquier recurso informático asociado al endpoint se cobra al mismo precio que las predicciones. Sin embargo, dado que las explicaciones basadas en ejemplos requieren recursos informáticos adicionales para proporcionar el índice de Vector Search, esto provoca que se inicien más nodos, lo que aumenta los costes de predicción.
Vertex AI Neural Architecture Search
En las siguientes tablas se resumen los precios en cada una de las regiones donde está disponible Neural Architecture Search.
Precios
En las tablas que aparecen a continuación se indican los precios por hora de diversas configuraciones.
Puedes elegir un nivel de escalabilidad predefinido o una configuración personalizada de los tipos de máquina que selecciones. Si escoges esta última opción, tienes que sumar el coste de las máquinas virtuales que uses.
El precio de los tipos de máquina heredados con aceleradores habilitados incluye el coste de los aceleradores. Sin embargo, si usas tipos de máquina de Compute Engine y añades aceleradores, el coste de estos últimos se cobrará aparte. Para calcular este coste, multiplica el precio correspondiente de la siguiente tabla de aceleradores por el número de aceleradores de cada tipo que utilices.
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
Notas:
Todo uso está sujeto a la política de cuotas de Neural Architecture Search.
Durante el ciclo de vida de Neural Architecture Search, debes almacenar tus datos y archivos de programa en segmentos de Cloud Storage.
Consulta más información sobre el uso de Cloud Storage.
El precio del disco solo se cobra si configuras que cada máquina virtual tenga un disco de más de 100 GB. No se cobra nada por los primeros 100 GB (el tamaño de disco predeterminado) de cada máquina virtual. Por ejemplo, si configuras una máquina virtual para que tenga 105 GB de disco, se te cobrarán 5 GB de disco por cada máquina virtual.
Uso obligatorio de Cloud Storage
Además de los costes descritos en este documento, debes almacenar los datos y los archivos de programa en segmentos de Cloud Storage durante el ciclo de vida de Neural Architecture Search. Este espacio de almacenamiento está sujeto a la política de precios de Cloud Storage.
Es obligatorio usar Cloud Storage para lo siguiente:
Almacenar en área de stage el paquete de aplicaciones de entrenamiento.
Almacenar tus datos de entrada para el entrenamiento.
Almacenar los resultados de tus tareas.
Neural Architecture Search no requiere que se almacenen a largo plazo estos elementos.
Puedes quitar los archivos en cuanto se complete la operación.
Operaciones gratuitas para gestionar tus recursos
Puedes hacer operaciones de gestión de recursos con Neural Architecture Search de forma gratuita. No obstante, la política de cuotas de Neural Architecture Search limita algunas de ellas.
Recurso
Operaciones gratuitas
tareas
get, list, cancel
operaciones
get, list, cancel, delete
Vertex AI Pipelines
Vertex AI Pipelines cobra una tarifa de ejecución de 0,03 USD por cada ejecución de flujo de procesamiento. No se te cobrará la tarifa de ejecución durante la versión preliminar.
También pagas por los recursos de Google Cloud que uses con Vertex AI Pipelines, como los recursos de Compute Engine que consumen los componentes de los flujos de procesamiento (se cobran al mismo precio que los de Vertex AI Training). Por último, eres responsable de los costes de todos los servicios (como Dataflow) a los que llama tu flujo de procesamiento.
Vertex AI Feature Store
Vertex AI Feature Store está disponible para el público general desde noviembre del 2023. Para obtener más información sobre la versión anterior del producto, visita la documentación de Vertex AI Feature Store (antigua).
Nueva Vertex AI Feature Store
La nueva Vertex AI Feature Store es compatible con las funciones de dos tipos de operaciones:
Las operaciones sin conexión se utilizan para transferir, almacenar, extraer y transformar datos en el almacén sin conexión (BigQuery).
Las operaciones online son tanto aquellas en las que se transfieren datos a los almacenes online como aquellas que se realizan en los datos mientras estos están en dichos almacenes.
Precios de las operaciones sin conexión
Dado que BigQuery se utiliza para hacer operaciones sin conexión, consulta los precios de BigQuery relativos a funciones como la ingestión en el almacén sin conexión, la consulta de dicho almacén y el almacenamiento sin conexión.
Precios de las operaciones online
En el caso de las operaciones online, Vertex AI Feature Store cobra por cualquier función de disponibilidad general que se use para transferir datos al almacén online o para servir o almacenar datos. Una hora de nodo representa el tiempo que tarda una máquina virtual en completar una operación, y se cobra por minuto.
La entrega online optimizada y la entrega online de Bigtable utilizan arquitecturas distintas, por lo que sus nodos no son comparables.
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de
SKUs de Cloud Platform.
En el caso de las cargas de trabajo que no estén relacionadas con los elementos insertados, cada nodo admite aproximadamente 500 CPS y hasta 200 GB de almacenamiento.
En el caso de las cargas de trabajo relacionadas con las representaciones, cada nodo admite aproximadamente 500 CPS y hasta 4 GB de almacenamiento de datos de 512 dimensiones.
Puedes ver el número de nodos (con réplicas) en el explorador de métricas:
Usa el explorador de métricas para averiguar el número de nodos que se han usado.
Ejemplo de casos mensuales (suponiendo que se utiliza us-central1)
Carga de trabajo de flujo de datos: entrega online de Bigtable con 2,5 TB de datos (1 GB actualizado diariamente) y 1200 CPS.
Operaciones
Uso mensual
Coste mensual
Nodo de procesamiento de datos
(1 GB/día) × (30 días/mes) × (1000 MB/GB) × (1 hora de nodo ÷ 100 MB) = 300 horas de nodo
300 horas de nodo × (0,08 por hora de nodo) = 24 USD
7200 horas de nodo × (0,30 por hora de nodo) = 2160 USD
Nodo de entrega online de Bigtable
N/A
N/A
Almacenamiento de entrega online de Bigtable
N/A
N/A
Total
2208 USD
Vertex AI Feature Store (antigua)
Los precios de Vertex AI Feature Store (antigua) se basan en la cantidad de datos de las características presentes en el almacenamiento online y offline, así como en la disponibilidad de la entrega online. Una hora de nodo representa el tiempo que dedica una máquina virtual a servir datos de características o a mantenerse lista y a la espera para gestionar solicitudes de datos de características.
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en la página de SKUs de Cloud Platform.
Cuando se habilita la monitorización de valores de características, la facturación incluye los costes aplicables que se citan arriba además de los costes aplicables que se indican a continuación:
3,50 USD por GB en todos los datos analizados. Si se habilita el análisis de capturas, se incluyen las capturas tomadas de los datos en Vertex AI Feature Store (antigua). Si se habilita el análisis de características de importación, se incluyen los lotes de datos ingeridos.
Los costes adicionales correspondientes a otras operaciones de Vertex AI Feature Store (antigua) utilizadas con la monitorización de valores de características incluyen lo siguiente:
La característica de análisis de capturas toma periódicamente una captura de los valores de la característica según la configuración del intervalo de monitorización.
El coste de una exportación de capturas es el mismo que el de una operación de exportación por lotes normal.
Ejemplo de análisis de capturas
Un científico de datos habilita la monitorización de valores de características en su Vertex AI Feature Store (antigua) y activa la monitorización para obtener un análisis de capturas diario.
Se ejecuta un flujo de procesamiento diario para monitorizar tipos de entidad. El flujo de procesamiento analiza 2 GB de datos en Vertex AI Feature Store (antigua) y exporta una captura que contiene 0,1 GB de datos.
El coste total del análisis de un día es el siguiente:
(0.1 GB * $3.50) + (2 GB * $0.005) = $0.36
Ejemplo de análisis de operaciones de ingestión
Un científico de datos habilita la monitorización de valores de características en su Vertex AI Feature Store (antigua) y activa la monitorización de las operaciones de ingestión.
Una operación de ingestión importa 1 GB de datos en Vertex AI Feature Store (antigua).
El coste total de la monitorización de valores de características es el siguiente:
(1 GB * $3.50) = $3.50
Vertex ML Metadata
El almacenamiento de metadatos se mide en gigabytes binarios (GiB), donde 1 GiB equivale a 1.073.741.824 bytes. Esta unidad de medida también se denomina gibibyte.
Vertex ML Metadata cobra 10 USD por gibibyte (GiB) al mes por el almacenamiento de metadatos. Los precios se prorratean por megabyte (MB). Por ejemplo, si almacenas 10 MB de metadatos, se te cobrarán 0,10 USD al mes correspondientes a esos 10 MB de metadatos.
Los precios son los mismos en todas las regiones donde se ofrece Vertex ML Metadata.
Vertex AI TensorBoard
Para utilizar Vertex AI TensorBoard, pide al administrador de gestión de identidades y accesos del proyecto que te asigne el rol Usuario de la aplicación web de Vertex AI TensorBoard. El rol de administrador de Vertex AI también tiene acceso.
Desde agosto del 2023, los precios de Vertex AI TensorBoard han cambiado: en lugar de una licencia mensual de 300 USD/mes por usuario, ahora se cobran 10 USD por GiB/mes por el almacenamiento de datos de registros y métricas. Esto significa que ya no se aplican cuotas de suscripción. Solo pagarás por el almacenamiento que utilices. Consulta el tutorial sobre la eliminación de experimentos de TensorBoard obsoletos de Vertex AI TensorBoard para aprender a gestionar el almacenamiento.
Vertex AI Vizier
Vertex AI Vizier es un servicio de optimización de caja negra que se incluye en Vertex AI.
El modelo de precios de Vertex AI Vizier consta de los siguientes elementos:
Las pruebas que usan RANDOM_SEARCH y GRID_SEARCH no tienen ningún coste. Consulta más información sobre los algoritmos de búsqueda.
Las primeras 100 pruebas de Vertex AI Vizier por mes natural están disponibles sin coste adicional (las pruebas que utilicen RANDOM_SEARCH y GRID_SEARCH no se incluyen en este total).
Una vez realizadas 100 pruebas de Vertex AI Vizier, las pruebas posteriores que se realicen durante el mismo mes natural se cobrarán a 1 USD por prueba. Las pruebas que usen RANDOM_SEARCH o GRID_SEARCH no se cobran.
Vector Search
Los precios del servicio Approximate Nearest Neighbor de Vector Search consisten en lo siguiente:
El precio por hora de nodo de cada máquina virtual que se utilice para alojar un índice desplegado.
El coste derivado de la creación y la actualización de índices, y del uso de actualizaciones de índices en streaming.
Los datos procesados durante la creación y la actualización de los índices se miden en gigabytes binarios (GiB), donde 1 GiB equivale a 1.073.741.824 bytes. Esta unidad de medida también se denomina gibibyte.
Vector Search cobra 3,00 USD por gibibyte (GiB) de datos procesado en todas las regiones. Vector Search cobra 0,45 USD por GiB ingerido
en las inserciones de actualizaciones en streaming.
En las tablas siguientes se resumen los precios de servir un índice en cada una de las regiones donde está disponible Vector Search. El precio varía según el tipo de máquina y la región, y se cobra por hora de nodo.
Los precios de Vector Search vienen determinados por el volumen de datos, la cantidad de consultas por segundo (CPS) que quieras ejecutar y el número de nodos que utilices.
Para dar con el coste de servicio estimado, debes calcular el volumen de datos total.
El volumen de datos es el número de incrustaciones o vectores multiplicado por el número de dimensiones que tengas y por 4 bytes por cada dimensión. Una vez que hayas calculado el volumen de datos, puedes estimar el coste de servicio y el coste de compilación. La suma del coste de servicio y el coste de compilación es el coste mensual total.
Coste de servicio: n.º de réplicas por fragmento × n.º de fragmentos (~volumen de datos ÷ tamaño de un fragmento) × coste por hora × 730 horas
Coste de compilación: volumen de datos(en GiB) × 3,00 USD/GiB × n.º de actualizaciones al mes
Actualización para streaming: Vector Search usa métricas basadas en reglas heurísticas para determinar cuándo se debe iniciar la compactación. Si los datos sin compactar más antiguos tienen cinco días, siempre se activa la compactación. Se te facturará el coste de volver a compilar el índice al mismo precio que una actualización por lotes, además de los costes de las actualizaciones en streaming.
Número de incrustaciones o vectores
Número de dimensiones
Consultas por segundo (CPS)
Tipo de máquina
Nodos
Coste mensual de servicio estimado
2 millones
128
100
e2-standard-2
1
68 USD
20 millones
256
1000
e2-standard-16
1
547 USD
20 millones
256
3000
e2-standard-16
3
1642 USD
100 millones
256
500
e2-highmem-16
2
1477 USD
1000 millones
100
500
e2-highmem-16
8
5910 USD
Todos los ejemplos se basan en tipos de máquina de la región us-central1.
El coste que tendrás que pagar variará según los requisitos de latencia y las tasa de sensibilidad. El coste de servicio mensual estimado es directamente proporcional al número de nodos que se utilizan en la consola.
Para obtener más información sobre los parámetros de configuración que influyen en el coste, consulta la documentación sobre los parámetros de configuración que influyen en la sensibilidad y en la latencia.
Si el nivel de consultas por segundo (CPS) es elevado, organizar las consultas por lotes puede reducir los costes totales entre un 30 y un 40 %.
Registro de modelos de Vertex AI
El registro de modelos de Vertex AI es un repositorio central que hace un seguimiento y elabora una lista de tus modelos y versiones de modelos. Los modelos que importes a Vertex AI se mostrarán en el registro de modelos. Tener los modelos en este registro no conlleva ningún coste. Lo que sí se cobra es desplegar el modelo en un endpoint o hacer una predicción por lotes del modelo. Este coste se determina en función del tipo de modelo que despliegues.
Para obtener más información sobre cuánto cuesta desplegar modelos personalizados del registro de modelos de Vertex AI, consulta la sección Modelos con entrenamiento personalizado. Si quieres saber más acerca de los precios de despliegue de los modelos de AutoML, consulta la sección Precios de los modelos de AutoML.
Vertex AI Model Monitoring
Vertex AI te permite monitorizar la eficacia continuada de tu modelo después de desplegarlo en un entorno de producción. Para obtener más información, consulta la introducción a Vertex AI Model Monitoring.
Cuando usas Vertex Model AI Monitoring, se te factura lo siguiente:
3,50 USD/GB por todos los datos analizados, incluidos los datos de entrenamiento proporcionados y los datos de predicción registrados en una tabla de BigQuery.
Los cargos por otros productos de Google Cloud que uses con Model Monitoring, como el almacenamiento de BigQuery o Batch Explain cuando la monitorización de la atribución está habilitada.
Vertex AI Model Monitoring se ofrece en las siguientes regiones: us-central1, europe-west4, asia-east1 y asia-southeast1. Los precios son los mismos en todas las regiones.
Los volúmenes de datos se miden una vez que se convierten al formato TfRecord.
Cuando configuras una tarea de Vertex AI Model Monitoring, incurres en un cargo único por los conjuntos de datos de entrenamiento.
Los conjuntos de datos de predicción constan de registros recogidos del servicio de predicción online. Como las solicitudes de predicción llegan durante diferentes periodos, se recogen los datos de cada periodo, y la suma de los datos analizados de cada periodo de predicción se utiliza para calcular el cargo.
Ejemplo: Un científico de datos ejecuta la monitorización del modelo en el tráfico de predicción que pertenece a su modelo.
El modelo se entrena a partir de un conjunto de datos de BigQuery. El tamaño de los datos tras la conversión a TfRecord es de 1,5 GB.
Los datos de predicción registrados entre las 13:00 y las 14:00 ocupan 0,1 GB, y entre las 15:00 y las 16:00, 0,2 GB.
El precio total de configurar la tarea de monitorización del modelo es el siguiente:
Además de los costes previamente mencionados, también se te cobrará por cualquier recurso de Google Cloud que utilices.
Por ejemplo:
Servicios de análisis de datos: se aplican cargos de BigQuery cuando envías consultas de SQL dentro de un cuaderno (consulta Precios de BigQuery).
Claves de encriptado gestionadas por los clientes: se aplican cargos cuando usas estas claves. Cada vez que tus instancias de cuadernos gestionados o de cuadernos gestionados por usuarios utilizan claves de Cloud Key Management Service, se te cobra usando los precios de las operaciones con claves de Cloud KMS (consulta los precios correspondientes).
Contenedores de aprendizaje profundo, máquinas virtuales de aprendizaje profundo y AI Platform Pipelines
En el caso de los contenedores de aprendizaje profundo, las imágenes de máquina virtual de aprendizaje profundo y AI Platform Pipelines, los precios se calculan según los recursos de computación y almacenamiento que utilices.
Estos recursos se te cobrarán al mismo precio que pagas por Compute Engine y Cloud Storage.
Además de los costes de computación y almacenamiento, también se te cobrará por los recursos de Google Cloud que uses.
Por ejemplo:
Servicios de análisis de datos: se aplican cargos de BigQuery cuando envías consultas de SQL dentro de un cuaderno (consulta Precios de BigQuery).
Claves de encriptado gestionadas por los clientes: se aplican cargos cuando usas estas claves. Cada vez que tus instancias de cuadernos gestionados o de cuadernos gestionados por usuarios utilizan claves de Cloud Key Management Service, se te cobra usando los precios de las operaciones con claves de Cloud KMS (consulta los precios correspondientes).
Etiquetado de datos
Vertex AI te permite solicitar que una serie de personas etiqueten conjuntos de datos que quieras utilizar para entrenar modelos de aprendizaje automático personalizados.
Los precios del servicio se calculan en función del tipo de tarea de etiquetado.
En el caso de las tareas de etiquetado normal, los precios se determinan según el número de unidades de anotación.
En las tareas de clasificación de imágenes, las unidades se determinan según el número de imágenes y la cantidad de etiquetadores. Por ejemplo, en una imagen con 3 etiquetadores, las unidades se calculan de la siguiente forma: 1 × 3 = 3. El precio es idéntico para la clasificación con una sola etiqueta o con varias.
En las tareas de cuadros delimitadores en imágenes, las unidades se determinan según el número de cuadros delimitadores identificados en las imágenes y según la cantidad de etiquetadores.
Por ejemplo, en una imagen con 2 cuadros delimitadores y 3 etiquetadores, las unidades se calculan de la siguiente manera: 2 × 3 = 6. No se cobran las imágenes sin cuadros delimitadores.
En las tareas de segmentación de imágenes, cuadros girados, polilíneas o polígonos, las unidades se determinan de la misma manera que en las tareas de cuadros delimitadores en imágenes.
En las tareas de clasificación de vídeos, las unidades se determinan en función de la duración del vídeo (cada 5 segundos es una unidad de precio) y del número de etiquetadores. Por ejemplo, en un vídeo de 25 segundos con tres etiquetadores, las unidades se calculan de la siguiente forma: 25 ÷ 5 × 3 = 15. El precio es idéntico para la clasificación con una sola etiqueta o con varias.
En las tareas de seguimiento de objetos en vídeos, las unidades se calculan en función del número de objetos que se identifican en el vídeo y de la cantidad de etiquetadores. Por ejemplo, en un vídeo con 2 objetos y 3 etiquetadores, las unidades se calculan de la siguiente forma: 2 × 3 = 6. No se cobran los vídeos sin objetos.
En las tareas de reconocimiento de acciones en vídeos, las unidades se determinan de la misma forma que en las tareas de seguimiento de objetos en vídeos.
En las tareas de clasificación de textos, las unidades se determinan según la longitud del texto (cada 50 palabras es una unidad de precio) y el número de etiquetadores. Por ejemplo, en un texto con 100 palabras y 3 etiquetadores, las unidades se calculan así: 100 ÷ 50 × 3 = 6. El precio es idéntico para la clasificación con una sola etiqueta o con varias.
En las tareas de opiniones en textos, las unidades se determinan de la misma forma que en las tareas de clasificación de textos.
En las tareas de extracción de entidades en textos, las unidades se determinan según la longitud del texto (cada 50 palabras es una unidad de precio), el número de entidades identificadas y la cantidad de etiquetadores. Por ejemplo, en un fragmento de texto con 100 palabras, 2 entidades identificadas y 3 etiquetadores, las unidades se calculan de la siguiente forma: 100 ÷ 50 × 2 × 3 = 12. No se cobran los textos sin entidades.
En las tareas de opiniones en textos y de clasificación de textos, vídeos e imágenes, los etiquetadores pueden perder la cuenta de las clases si el tamaño del conjunto de etiquetas es demasiado grande. En consecuencia, enviamos un máximo de 20 clases de forma simultánea a los etiquetadores. Por ejemplo, si el tamaño del conjunto de etiquetas de una tarea de etiquetado es 40, las veces que se enviará cada elemento de datos para que lo revise una persona se calcularán mediante esta fórmula: 40 ÷ 20 = 2. Por tanto, se cobrará el doble del precio (calculado anteriormente).
En las tareas de etiquetado en las que se habilita la función de etiquetador personalizado, cada elemento de datos se cuenta como una unidad de etiquetador personalizado.
En las tareas de etiquetado de elementos de datos para el entrenamiento activo con anotaciones generadas por modelos (sin ayuda de etiquetadores humanos), cada elemento de datos se cuenta como una unidad de entrenamiento activo.
En las tareas de etiquetado de elementos de datos para el entrenamiento activo con anotaciones generadas por etiquetadores humanos, cada elemento de datos se cuenta como una tarea de etiquetado normal con las características descritas anteriormente.
En la tabla que aparece a continuación se muestran los precios por cada 1000 unidades por etiquetador humano, según la unidad de cada objetivo. Los precios del nivel 1 corresponden a las primeras 50.000 unidades mensuales de cada proyecto de Google Cloud, mientras que los del nivel 2 se aplican a las siguientes 950.000 unidades de cada proyecto en ese mes, hasta llegar al límite de 1.000.000 unidades.
Ponte en contacto con nosotros para que te informemos sobre los precios de los volúmenes superiores a 1.000.000 unidades al mes.
Tipo de datos
Objetivo
Unidad
Nivel 1
Nivel 2
Imagen
Clasificación
Imagen
35 USD
25 USD
Cuadro delimitador
Cuadro delimitador
63 USD
49 USD
Segmentación
Segmento
870 USD
850 USD
Cuadro rotado
Cuadro delimitador
86 USD
60 USD
Polígono/Polilínea
Polígono/Polilínea
257 USD
180 USD
Vídeo
Clasificación
5 s de vídeo
86 USD
60 USD
Seguimiento de objetos
Cuadro delimitador
86 USD
60 USD
Reconocimiento de acciones
Evento en 30 s de vídeo
214 USD
150 USD
Texto
Clasificación
50 palabras
129 USD
90 USD
Opinión
50 palabras
200 USD
140 USD
Extracción de entidades
Entidad
86 USD
60 USD
Entrenamiento activo
Todos
Elemento de datos
80 USD
56 USD
Etiquetador personalizado
Todos
Elemento de datos
80 USD
56 USD
Uso obligatorio de Cloud Storage
Además de los costes descritos en este documento, debes almacenar los datos y los archivos de programa en segmentos de Cloud Storage durante el ciclo de vida de Vertex AI. Este espacio de almacenamiento está sujeto a la política de precios de Cloud Storage.
Es obligatorio usar Cloud Storage para lo siguiente:
Almacenar en área de stage el paquete de aplicaciones de entrenamiento de los modelos con entrenamiento personalizado.
Almacenar tus datos de entrada para el entrenamiento.
Almacenar los resultados de las tareas de entrenamiento.
Vertex AI no exige que estos elementos se almacenen a largo plazo.
Puedes quitar los archivos en cuanto se complete la operación.
Operaciones gratuitas para gestionar tus recursos
Puedes realizar operaciones de gestión de recursos con AI Platform de forma gratuita. No obstante, la política de cuotas de AI Platform limita algunas de ellas.
Recurso
Operaciones gratuitas
modelos
create, get, list, delete
versiones
create, get, list, delete, setDefault
tareas
get, list, cancel
operaciones
get, list, cancel, delete
Costes de Google Cloud
Si almacenas imágenes en Cloud Storage para analizarlas o si utilizas otros recursos de Google Cloud junto con Vertex AI, también se te cobrará el uso de esos servicios.
Gracias al modelo de pago por uso de Google Cloud, solo pagas por los servicios que usas. Ponte en contacto con nuestro equipo de Ventas para solicitar un presupuesto personalizado para tu empresa.
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Es difícil de entender","hardToUnderstand","thumb-down"],["La información o el código de muestra no son correctos","incorrectInformationOrSampleCode","thumb-down"],["Me faltan las muestras o la información que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],[],[],[]]