Los precios aparecen en dólares estadounidenses (USD).
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en SKU de Google Cloud.
Precios de Vertex AI en comparación con los precios de los productos heredados
Los costos de Vertex AI siguen siendo los mismos que los de los productos heredados de AI Platform y AutoML que Vertex AI reemplaza, con las siguientes excepciones:
Las predicciones heredadas de AI Platform Prediction y AutoML Tables admiten tipos de máquinas de menor costo y menor rendimiento que no son compatibles con Vertex AI Prediction ni en el modelo tabular de AutoML.
AI Platform Prediction es compatible con la reducción de escala a cero, que no es compatible con Vertex AI Prediction.
Vertex AI también ofrece más formas de optimizar los costos, como las siguientes:
En el caso de los modelos de Vertex AI AutoML, pagas por tres actividades principales:
Entrenar el modelo
Implementar el modelo en un extremo
Usar el modelo para hacer predicciones
Vertex AI usa parámetros de configuración predefinidos de máquinas para los modelos de Vertex AutoML y la tarifa por hora de estas actividades refleja el uso de los recursos.
El tiempo necesario para entrenar tu modelo depende del tamaño y la complejidad de tus datos de entrenamiento. Se deben implementar los modelos antes de que puedan proporcionar predicciones o explicaciones en línea.
Pagas por cada modelo implementado en un extremo, incluso si no se hace ninguna predicción.
Debes anular la implementación de tu modelo para evitar que se sigan generando cargos.
No se cobran los modelos que no se implementaron o que fallaron.
Pagas solo por las horas de procesamiento que uses. Si el entrenamiento falla por cualquier motivo que no sea una cancelación iniciada por el usuario, no se te facturará por ese tiempo. Se te cobra el tiempo del entrenamiento si cancelas la operación.
Selecciona un tipo de modelo a continuación para obtener información sobre los precios.
El procesamiento asociado con Vertex Explainable AI se cobra a la misma tarifa que la predicción.
Sin embargo, el procesamiento de las explicaciones demora más que el de las predicciones normales. Por lo tanto, el uso intensivo de las Vertex Explainable AI junto con el ajuste de escala automático podrían traer como resultado el inicio de más nodos, lo que podría aumentar los cargos de predicción.
En las siguientes tablas, se indica el precio por hora aproximado de varios parámetros de configuración de entrenamiento. Puedes elegir una configuración personalizada de los tipos de máquinas seleccionados. Para calcular los precios, suma los costos de las máquinas virtuales que usas.
Si usas los tipos de máquinas de Compute Engine y les conectas aceleradores, el costo se cobra por separado. Para calcularlo, multiplica los precios de la tabla de aceleradores a continuación por la cantidad de cada tipo de acelerador que uses.
Tipos de máquina
*Esta cantidad incluye el precio de la GPU, ya que este tipo de instancia siempre requiere una cantidad fija de aceleradores de GPU.
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en los SKU de Google Cloud Platform
.
Aceleradores
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en SKU de Google Cloud.
* El precio por el entrenamiento con el pod de Cloud TPU se basa en la cantidad de núcleos en el pod. La cantidad de núcleos en un pod siempre es un múltiplo de 32. Para determinar el precio del entrenamiento en un pod que tiene más de 32 núcleos, multiplica el precio de un pod de 32 núcleos por la cantidad de núcleos, dividido por 32. Por ejemplo, el precio de un pod de 128 núcleos es (32-core Pod price) * (128/32). Para obtener información sobre cuáles pods de Cloud TPU están disponibles en una región específica, consulta Arquitectura del sistema en la documentación de Cloud TPU.
Discos
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en SKU de Google Cloud.
Se cobra el entrenamiento de tus modelos desde el momento en que los recursos se aprovisionan para un trabajo hasta que el trabajo finaliza.
Niveles de escala para los parámetros de configuración predefinidos (AI Platform Training)
Puedes controlar el tipo de clúster de procesamiento que se usará para entrenar un modelo.
La forma más sencilla es seleccionar uno de los parámetros de configuración predeterminados, denominados niveles de escala. Obtén más información acerca de los niveles de escala.
Tipos de máquinas para los parámetros de configuración personalizados
Si usas Vertex AI o seleccionas CUSTOM como el nivel de escala para AI Platform Training, puedes controlar la cantidad y el tipo de las máquinas virtuales que se usarán para la instancia principal del clúster, el trabajador y los servidores de parámetro. Obtén más información sobre los tipos de máquinas para Vertex AI y los tipos de máquinas para AI Platform Training.
El costo del entrenamiento con un clúster de procesamiento personalizado es la suma de todas las máquinas que especifiques. Se cobra el tiempo total del trabajo, no el tiempo de procesamiento activo de las máquinas individuales.
Gen AI Evaluation Service
El servicio de evaluación de IA generativa de Vertex AI cobra por los campos de entrada y salida de cadenas cada 1,000 caracteres. Un carácter se define como un carácter Unicode. El espacio en blanco se excluye del recuento. La solicitud de evaluación fallida, incluida la respuesta filtrada, no se cobrará por entrada ni salida. Al final de cada ciclo de facturación, las fracciones de un centavo ($0.01) se redondean a un centavo.
Gen AI Evaluation Service tiene disponibilidad general (DG). Los precios entraron en vigor
el 27 de septiembre de 2024.
Métrica
Precios
Por puntos
Entrada: $0.005 por 1,000 caracteres Salida: $0.015 por 1,000 caracteres
Por pares
Entrada: $0.005 por 1,000 caracteres Salida: $0.015 por 1,000 caracteres
Las métricas basadas en el procesamiento se cobran a $0.00003 por cada 1,000 caracteres de entrada y $0.00009 por cada 1,000 caracteres de salida. Se denominan métricas automáticas en SKU.
Nombre de la métrica
Tipo
Concordancia exacta
Basado en procesamiento
Bleu
Basado en procesamiento
Rouge
Basado en procesamiento
Llamada a la herramienta válida
Basado en procesamiento
Coincidencia de nombres de herramientas
Basado en procesamiento
Coincidencia de clave de parámetro de la herramienta
Basado en procesamiento
Coincidencia de KV del parámetro de herramienta
Basado en procesamiento
Los precios aparecen en dólares estadounidenses.
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en Cloud Platform SKUs.
Las métricas basadas en modelos heredados se cobran a $0.005 por 1,000 caracteres de entrada y $0.015 por 1,000 caracteres de salida.
Nombre de la métrica
Tipo
Coherencia
Por puntos
Fluidez
Por puntos
Entrega
Por puntos
Seguridad
Por puntos
Fundamentación
Por puntos
Calidad de resumen
Por puntos
Utilidad de la función de resumen
Por puntos
Verbosidad del resumen
Por puntos
Calidad de la búsqueda de respuestas
Por puntos
Relevancia de la búsqueda de respuestas
Por puntos
Utilidad de la búsqueda de respuestas
Por puntos
Corrección de la búsqueda de respuestas
Por puntos
Calidad de resumen por pares
Por pares
Calidad de respuesta a preguntas por pares
Por pares
Los precios aparecen en dólares estadounidenses.
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en Cloud Platform SKUs.
Ray on Vertex AI
Entrenamiento
En las siguientes tablas, se indica el precio por hora aproximado de varios parámetros de configuración de entrenamiento. Puedes elegir una configuración personalizada de los tipos de máquinas seleccionados. Para calcular los precios, suma los costos de las máquinas virtuales que usas.
Si usas los tipos de máquinas de Compute Engine y les conectas aceleradores, el costo se cobra por separado. Para calcularlo, multiplica los precios de la tabla de aceleradores a continuación por la cantidad de cada tipo de acelerador que uses.
Tipos de máquina
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en SKU de Google Cloud.
Aceleradores
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en SKU de Google Cloud.
* El precio por el entrenamiento con el pod de Cloud TPU se basa en la cantidad de núcleos en el pod. La cantidad de núcleos en un pod siempre es un múltiplo de 32. Para determinar el precio del entrenamiento en un pod que tiene más de 32 núcleos, multiplica el precio de un pod de 32 núcleos por la cantidad de núcleos, dividido por 32. Por ejemplo, el precio de un pod de 128 núcleos es (32-core Pod price) * (128/32). Para obtener información sobre cuáles pods de Cloud TPU están disponibles en una región específica, consulta Arquitectura del sistema en la documentación de Cloud TPU.
Discos
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en SKU de Google Cloud.
Se cobra el entrenamiento de tus modelos desde el momento en que los recursos se aprovisionan para un trabajo hasta que el trabajo finaliza.
Predicción y explicación
Las tablas siguientes proporcionan los precios de la predicción por lotes, la predicción en línea y la explicación en línea por hora de procesamiento de nodo. Una hora de procesamiento de nodo representa el tiempo que una máquina virtual dedica a la ejecución del trabajo de predicción o espera en estado activo (un extremo con uno o más modelos implementados) para administrar solicitudes de predicción o explicación.
Cada tipo de máquina se cobra como los siguientes SKU en tu factura de Google Cloud:
Costo de CPU virtual: medido en horas de CPU virtual
Costo de RAM: medido en GB-hora
Costo de GPU: si está incorporado en la máquina o configurado de manera opcional, medido en GPU-hora
Los precios de los tipos de máquinas son usados para aproximar el costo total por hora para cada nodo de predicción de una versión del modelo que usa ese tipo de máquina.
Por ejemplo, un tipo de máquina de n1-highcpu-32 incluye 32 CPU virtuales y 32 GB de RAM.
Por lo tanto, el precio por hora es 32 vCPU hours + 32 GB hours.
La tabla de precios de SKU está disponible por región. Cada tabla muestra los precios de CPU virtuales, RAM y GPU incorporados para tipos de máquinas de predicción, lo que refleja con más precisión los costos de SKU.
Para ver los precios de SKU por región, elige una región para ver la tabla de precios:
Algunos tipos de máquina te permiten agregar aceleradores opcionales de GPU para predicciones. Las GPU opcionales incurren en un cargo adicional, separado de los descritos en la tabla anterior. Consulta cada tabla de precios, describen los precios de cada tipo de GPU opcional.
El precio es por GPU. Si usas varias GPU por nodo de predicción (o si tu versión se ajusta para usar varios nodos), los costos se ajustan en consecuencia.
AI Platform Prediction te permite realizar predicciones de tu modelo ejecutando varias máquinas virtuales (“nodos”). De forma predeterminada, Vertex AI escala automáticamente la cantidad de nodos que se ejecutan a la vez. En el caso de la predicción en línea, se escala la cantidad de nodos para satisfacer la demanda. Cada nodo puede responder a varias solicitudes de predicción. En el caso de la predicción por lotes, se escala la cantidad de nodos a fin de reducir el tiempo total que se necesita para ejecutar un trabajo. Puedes personalizar la escala de los nodos de predicción.
Se cobra el tiempo que se ejecuta cada nodo en tu modelo, incluido lo siguiente:
Cuando el nodo procesa un trabajo de predicción por lotes
Cuando el nodo procesa una solicitud de predicción en línea
Cuando el nodo está listo para realizar predicciones en línea
El costo de ejecución de un nodo por una hora es una hora de procesamiento de nodo. En la tabla de precios de predicción, se describe el precio de una hora de procesamiento de nodo, que varía según la región y entre la predicción en línea y por lotes.
Puedes consumir horas de procesamiento de nodo en incrementos fraccionarios. Por ejemplo, la ejecución de un nodo por 30 minutos cuesta 0.5 horas de procesamiento de nodo.
Cálculos de costos para los tipos de máquinas de Compute Engine (N1)
El tiempo de ejecución de un nodo se factura en incrementos de 30 segundos. Esto significa que, cada 30 segundos, tu proyecto se factura por 30 segundos de los recursos de CPU virtual, RAM y GPU que use tu nodo en ese momento.
Más información sobre el ajuste de escala automático de los nodos de predicción
Predicción en línea
Predicción por lotes
La prioridad del escalamiento es reducir la latencia de las solicitudes individuales. El servicio mantiene el modelo preparado durante unos minutos de inactividad después de inspeccionar una solicitud.
La prioridad del escalamiento es reducir el tiempo transcurrido total del trabajo.
El escalamiento afecta los costos totales cada mes: cuanto más numerosas y frecuentes sean las solicitudes, más nodos se usarán.
El escalamiento no debería afectar mucho el precio del trabajo, aunque se pueden generar sobrecargas si se agrega un nuevo nodo.
Puedes elegir dejar que el servicio reduzca la escala como respuesta al tráfico (ajuste de escala automático) o puedes especificar una cantidad de nodos para que se ejecuten todo el tiempo y evitar así la latencia (escalamiento manual).
Si eliges el ajuste de escala automático, la cantidad de nodos escala automáticamente. En las implementaciones de tipo de máquina heredadas (MLS1) de AI Platform Prediction, la cantidad de nodos puede reducirse verticalmente a cero en períodos sin tráfico. Las implementaciones de Vertex AI y otros tipos de implementaciones de AI Platform Prediction no pueden reducir la escala verticalmente a cero nodos.
Si eliges el escalamiento manual, especificas una cantidad de nodos para que se sigan ejecutando todo el tiempo. Se cobra todo el tiempo en el que los nodos se ejecutan, a partir del momento de la implementación y hasta que borres la versión del modelo.
Puedes modificar el escalamiento configurando una cantidad máxima de nodos que se usará en un trabajo de predicción por lotes y la configuración de la cantidad de nodos que deben seguir ejecutándose para un modelo cuando lo implementas.
Los trabajos de predicción por lotes se cobran después de que se completa el trabajo
Los trabajos de predicción por lotes se cobran después de que se completan los trabajos, no de manera incremental durante el trabajo. Las alertas de presupuesto de Facturación de Cloud que configuraste no se activan mientras se ejecuta un trabajo. Antes de comenzar un trabajo grande, considera ejecutar algunos trabajos comparativos de costos con datos de entrada pequeños.
Ejemplo de un cálculo de predicción
Una empresa inmobiliaria de una región de América ejecuta una predicción semanal del valor de las viviendas en las áreas en las que trabaja. En un mes, ejecuta predicciones para cuatro semanas en lotes de 3920, 4277, 3849 y 3961. Los trabajos se limitan a un nodo y cada instancia demora un promedio de procesamiento de 0.72 segundos.
Primero, calcula la cantidad de tiempo de ejecución de cada trabajo:
En este ejemplo se supuso que se ejecutaron los trabajos en un único nodo y que requirieron una cantidad de tiempo coherente por cada instancia de entrada. En los cálculos de uso real, asegúrate de incluir instancias de varios nodos y usar el tiempo real de ejecución de cada nodo.
Cargos por Vertex Explainable AI
Explicaciones basadas en atributos
Las explicaciones basadas en atributos no tienen cargo adicional a los precios de predicción. Sin embargo, el procesamiento de las explicaciones demora más que el de las predicciones normales. Por lo tanto, el uso intensivo de las Vertex Explainable AI junto con el ajuste de escala automático podrían traer como resultado el inicio de más nodos, lo que podría aumentar los cargos de predicción.
Cuando cargas un modelo o actualizas el conjunto de datos de un modelo, se te factura lo siguiente:
por hora de procesamiento de nodo por el trabajo de predicción por lotes que se usa para generar las representaciones de ejemplos de espacio latente. Esto se factura con la misma tarifa que la predicción.
un costo para crear o actualizar índices. El costo es el mismo que los costos de indexación de la búsqueda de vectores, que es cantidad de ejemplos * cantidad de dimensiones * 4 bytes por número de punto flotante * $3.00 por GB.
Por ejemplo, si tienes 1 millón de ejemplos y 1,000 dimensiones de espacio latente, el costo es $12 (1,000,000 * 1,000 * 4 * 3.00 / 1,000,000,000).
Cuando implementas un modelo en un extremo, se te factura por hora de procesamiento de nodo por cada nodo en tu extremo. Todo el procesamiento asociado con el extremo se cobra a la misma tarifa que la predicción. Sin embargo, porque las explicaciones basadas en ejemplos necesitan recursos de procesamiento adicionales para entregar el índice de búsqueda de vectores, se inician más nodos, lo que aumenta los cargos de predicción.
Vertex AI Neural Architecture Search
En las siguientes tablas, se resumen los precios de cada región en la que está disponible Neural Architecture Search.
Precios
En las siguientes tablas, se indica el precio por hora de diversos parámetros de configuración.
Puedes elegir un nivel de escala predefinido o una configuración personalizada de tipos de máquinas seleccionados. Si eliges una configuración personalizada, suma los costos de las máquinas virtuales usadas.
Los tipos de máquinas heredadas con acelerador incluyen el costo de los aceleradores en sus precios. Si usas los tipos de máquinas de Compute Engine y les conectas aceleradores, el costo se cobra por separado. Para calcular este costo, multiplica los precios de la siguiente tabla de aceleradores por la cantidad de cada tipo de acelerador que uses.
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en SKU de Google Cloud.
Notas:
Todo el uso está sujeto a la política de cuotas de Neural Architecture Search.
Debes almacenar los datos y archivos del programa en buckets de Cloud Storage durante el ciclo de vida de Neural Architecture Search.
Obtén más información sobre el uso de Cloud Storage.
El precio del disco solo se cobra cuando configuras el tamaño de disco de cada VM en un tamaño superior a 100 GB. No se cobran los primeros 100 GB (el tamaño de disco predeterminado) de un disco para cada VM. Por ejemplo, si configuras cada VM para que tenga 105 GB de disco, se te cobra por 5 GB de disco por cada VM.
Uso obligatorio de Cloud Storage
Además de los costos que se describen en este documento, debes almacenar los datos y archivos del programa en buckets de Cloud Storage durante el ciclo de vida de Neural Architecture Search. Este almacenamiento está sujeto a la política de precios de Cloud Storage.
El uso obligatorio de Cloud Storage incluye lo siguiente:
Realizar la etapa de pruebas del paquete de aplicaciones de entrenamiento
Almacenar tus datos de entrada de entrenamiento
Almacenar los resultados de los trabajos.
La búsqueda de arquitectura neuronal no requiere almacenamiento a largo plazo de estos elementos.
Puedes quitar los archivos apenas finalice la operación
Operaciones gratuitas para la administración de los recursos
Las operaciones de administración de recursos de Neural Architecture Search son sin costo adicional. Sin embargo, puede que algunas de estas operaciones se vean limitadas por la política de cuotas de Neural Architecture Search.
Recurso
Operaciones gratuitas
jobs
get, list, cancel
operations
get, list, cancel, delete
Vertex AI Pipelines
Las Vertex AI Pipelines cobran una tarifa de ejecución de $0.03 por cada ejecución de canalización. No se te cobrará la tarifa de ejecución durante la versión preliminar.
También pagas por los recursos de Google Cloud que usas con las Vertex AI Pipelines, como los recursos de Compute Engine que consumen los componentes de canalización (se cobran con la misma tarifa que la de entrenamiento de Vertex AI). Por último, eres responsable del costo de cualquier servicio (como Dataflow) que llame a tu canalización.
Vertex AI Feature Store
Vertex AI Feature Store cuenta con disponibilidad general (DG) desde noviembre de 2023. Para obtener información sobre las versiones previas de los productos, consulta Vertex AI Feature Store (heredada).
Nuevo Vertex AI Feature Store
El nuevo Vertex AI Feature Store asiste la funcionalidad en dos tipos de operaciones:
Las operaciones sin conexión son las operaciones para transferir, almacenar, extraer y transformar datos en el almacén sin conexión (BigQuery)
Las operaciones en línea son las operaciones para transferir datos en el almacenamiento en línea y las operaciones de datos mientras están en el almacén en línea.
Precios de las operaciones sin conexión
Ya que BigQuery se usa para las operaciones sin conexión, consulta los precios de BigQuery para funcionalidades como la transferencia al almacén sin conexión, búsquedas en el almacén sin conexión y el almacenamiento sin conexión.
Precios de las operaciones en línea
Para las operaciones en línea, Vertex AI Feature Store cobra por todas las funciones de DG para transferir datos al almacén en línea, entregar datos o almacenar datos. Un nodo-hora representa el tiempo que gasta una máquina virtual en completar una operación, que se cobra por minuto.
La entrega en línea optimizada y la entrega en línea de Bigtable usan arquitecturas diferentes, por lo tanto, sus nodos no son comparables.
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en SKU de Google Cloud.
Estimados de la carga de trabajo de las operaciones en línea
Ten en cuenta los siguientes lineamientos cuando estimes tus cargas de trabajo. La cantidad de nodos necesarios para una carga de trabajo pueden variar en cada método de entrega.
Procesamiento de datos:
Transferencia: Un nodo puede transferir alrededor de 100 MB de datos por hora a una tienda en línea de Bigtable o una tienda en línea optimizada si no se usan funciones analíticas.
Entrega en línea de Bigtable: cada nodo puede soportar alrededor de 15,000 QPS y hasta 5 TB de almacenamiento.
Entrega en línea optimizada: El rendimiento se basa en el tipo de máquina y las réplicas, que se configuran automáticamente para minimizar los costos sujetos a la carga de trabajo. Cada nodo puede tener
un mínimo de 2 y un máximo de 6 réplicas para alta disponibilidad y ajuste de escala automático. Se te cobrará por la cantidad de réplicas en consecuencia. Para obtener más detalles, consulta los escenarios mensuales de ejemplo.
Para cargas de trabajo que no están relacionadas con incorporaciones, cada nodo puede soportar aproximadamente 500 QPS y hasta 200 GB de almacenamiento.
Para cargas de trabajo relacionadas con incorporaciones, cada nodo puede admitir aproximadamente 500 QPS y hasta 4 GB de almacenamiento de datos de 512 dimensiones.
Puedes ver la cantidad de nodos (con réplicas) en el Explorador de métricas:
Explorador de métricas para determinar la cantidad de nodos que se usaron.
Ejemplo de casos mensuales (suponiendo que la región es us-central1)
Carga de trabajo de flujo de datos: Entrega en línea de Bigtable con 2.5 TB de datos (1 GB actualizado a diario) y 1,200 QPS
Operaciones
Uso mensual
Costo mensual
Nodo de procesamiento de datos
(1 GB por día) * (30 días por mes) * (1,000 MB por GB) * (1 nodo-hora por 100 MB) = 300 nodo-hora
300 nodo-hora * ($0.08 por nodo-hora) = $24
Nodo de entrega en línea optimizada
N/A
N/A
Nodo de entrega en línea de Bigtable
(1 nodo) * (24 horas por día) * (30 días por mes) = 720 nodo-hora
720 nodo-hora * ($0.94 por nodo-hora) = $677
Almacenamiento de entrega en línea de Bigtable
(2.5 TB por mes) * (1000 GB por TB) = 2500 GB por mes
2500 GB por mes * ($0.25 por mes de GB) = $625
Total
$1,326
Carga de trabajo de alta QPS: Entrega en línea optimizada con 10 GB de datos no incorporados (5 GB actualizados a diario) y 2,000 QPS
Operaciones
Uso mensual
Costo mensual
Nodo de procesamiento de datos
(5 GB por día) * (30 días por mes) * (1,000 MB por GB) * (1 nodo-hora por 100 MB) = 1,500 nodo-hora
Carga de trabajo de entrega de incorporaciones: Entrega en línea optimizada con 20 GB de datos de incorporaciones (2 GB actualizados a diario) y 800 QPS
Operaciones
Uso mensual
Costo mensual
Nodo de procesamiento de datos
(2 GB por día) * (30 días por mes) * (1,000 MB por GB) * (1 nodo-hora por 100 MB) = 600 nodo-hora
Los precios de Vertex AI Feature Store (heredado) se basan en la cantidad de datos de atributos en el almacenamiento en línea y sin conexión, así como en la disponibilidad de la entrega en línea. Un nodo por hora representa el tiempo que una máquina virtual dedica a entregar datos de atributos o el que tiempo que espera en un estado listo para manejar las solicitudes de datos de atributos.
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en SKU de Google Cloud.
Cuando habilitas la supervisión del valor de los atributos, la facturación incluye los cargos correspondientes mencionados anteriormente, además de los cargos correspondientes a continuación:
$3.50 por GB para todos los datos analizados. Con el análisis de instantáneas habilitado, se incluyen las instantáneas tomadas para los datos en Vertex AI Feature Store (heredado). Con el análisis de importación de atributos habilitado, se incluyen los lotes de datos transferidos.
Los cargos adicionales por otras operaciones de Vertex AI Feature Store (heredado) usadas con la supervisión del valor de los atributos incluyen los siguientes:
La función de análisis de instantáneas toma una instantánea, de manera periódica, de los valores de las funciones según tu configuración del intervalo de supervisión.
El cargo por la exportación de una instantánea es el mismo que para una operación de exportación en lote.
Ejemplo de análisis de instantáneas
Un científico de datos habilita la supervisión del valor de los atributos para su Vertex AI Feature Store (heredado) y activa la supervisión para el análisis diario de instantáneas.
Una canalización se ejecuta a diario para la supervisión de los tipos de entidades. La canalización escanea 2 GB de datos en Vertex AI Feature Store (heredado) y exporta una instantánea que contiene 0.1 GB de datos.
El cargo total por un día de análisis es:
(0.1 GB * $3.50) + (2 GB * $0.005) = $0.36
Ejemplo de análisis de transferencia
Un científico de datos habilita la supervisión del valor de los atributos para su Vertex AI Feature Store (heredado) y activa la supervisión para las operaciones de transferencia.
Una operación de transferencia importa 1 GB de datos a Vertex AI Feature Store (heredado).
El cargo total por la supervisión del valor de los atributos es el siguiente:
(1 GB * $3.50) = $3.50
Vertex ML Metadata
El almacenamiento de metadatos se mide en gigabytes binarios (GiB) y 1 GiB equivale a 1,073,741,824 bytes. Esta unidad de medida también se conoce como gibibyte.
Vertex ML Metadata cobra $10 por gibibyte (GiB) al mes por almacenamiento de metadatos. Los precios están prorrateados por megabyte (MB). Por ejemplo, si almacenas 10 MB de metadatos, se te cobrará $0.10 por mes por los 10 MB de metadatos.
Los precios son los mismos en todas las regiones donde se admite Vertex ML Metadata.
A partir de agosto de 2023, los precios de Vertex AI TensorBoard cambiaron de una licencia mensual por usuario de $300 al mes a $10 GiB por mes por el almacenamiento de datos de registros y métricas. Esto significa que ya no hay tarifas de suscripción. Pagarás solo por el almacenamiento que hayas usado. Consulta el instructivo Vertex AI TensorBoard: Borra los experimentos de TensorBoard desactualizados para obtener información para administrar el almacenamiento.
Vertex AI Vizier
Vertex AI Vizier es un servicio de optimización de caja negra de Vertex AI.
El modelo de precios Vertex AI Vizier consta de los siguientes elementos:
Las primeras 100 pruebas de Vertex AI Vizier al mes calendario están disponibles sin cargo (las pruebas que usan RANDOM_SEARCH y GRID_SEARCH no se toman en cuenta en este total).
Después de 100 pruebas de Vertex AI Vizier, las pruebas posteriores durante el mismo mes calendario se cobran a $1 por prueba (las que usan RANDOM_SEARCH o GRID_SEARCH no generan cargos).
Búsqueda de vectores
El precio del servicio de la búsqueda de vectores vecino más cercano aproximado incluye lo siguiente:
Precios por hora de procesamiento de nodo para cada VM que se usa a fin de alojar un índice implementado
Un costo para crear índices nuevos, actualizar los existentes y usar actualizaciones de índices de transmisión
Los datos procesados durante la creación y actualización de índices se miden en gigabytes binarios (GiB), en los que 1 GiB equivale a 1,073,741,824 bytes. Esta unidad de medida también se conoce como gibibyte.
La búsqueda de vectores cobra $3.00 por gibibyte (GiB) de datos procesados en todas las regiones. La búsqueda de vectores cobra $0.45 por GB transferido para inserciones de la actualización de transmisión.
En las siguientes tablas se resumen los precios de entrega de índices en cada región donde la búsqueda de vectores está disponible. El precio corresponde al tipo de máquina, por región, y se cobra por hora de procesamiento de nodo.
Los precios de la búsqueda de vectores se determinan por el tamaño de tus datos, la cantidad de consultas por segundo (QPS) que quieres ejecutar y la cantidad de nodos que usas.
Para obtener el costo de entrega estimado, debes calcular tu tamaño total de datos.
Tu tamaño de datos es la cantidad de incorporaciones o vectores* la cantidad de dimensiones que tienes* 4 bytes por dimensión. Cuando tengas el tamaño de tus datos, puedes calcular el costo de entrega y el costo de creación. El costo de entrega más el costo de creación es tu costo mensual total.
Costo de entrega: cantidad de réplicas o fragmentos * cantidad de fragmentos (~tamaño de los datos o fragmentos) * costo por hora * 730 horas
Costo de creación: tamaño de los datos(en GiB) * $3 por GiB * cantidad de actualizaciones mensuales
Actualización de transmisión: La búsqueda de vectores usa métricas basadas en heurísticas para determinar cuándo activar la compactación. Si los datos sin compactar más antiguos tienen cinco días de antigüedad, la compactación siempre se activa. Se te factura por el costo de volver a compilar el índice con la misma tarifa de una actualización por lotes, además de los costos de actualización de transmisión.
Cantidad de incorporaciones o vectores
Cantidad de dimensiones
Consultas por segundo (QPS)
Tipo de máquina
Nodos
Costo de entrega mensual estimado
2 millones
128
100
e2-standard-2
1
$68
20 millones
256
1,000
e2-standard-16
1
$547
20 millones
256
3,000
e2-standard-16
3
$1,642
100 millones
256
500
e2-highmem-16
2
$1,477
1,000 millones
100
500
e2-highmem-16
8
$5,910
Todos los ejemplos están basados en tipos de máquina en us-central1.
El costo que incurras variará con la tarifa de recuperación y requisitos de latencia. El costo de entrega mensual estimado se relaciona directamente con la cantidad de nodos usados en la consola.
Para obtener más información sobre los parámetros de configuración que afectan los costos, consulta Parámetros de configuración que afectan la recuperación y latencia.
Si tu cantidad de consultas por segundo (QPS) es alta, agruparlas en lote puede reducir los costos totales hasta un 30% o 40%.
Vertex AI Model Registry
El Vertex AI Model Registry es un repositorio central que monitorea y enumera tus modelos y versiones de modelos. Puedes importar modelos en Vertex AI y aparecen en el Vertex AI Model Registry. No hay un costo relacionado con tener tus modelos en el Model Registry. Solo se generan costos cuando implementas el modelo en un extremo o realizas una predicción por lotes en el modelo. Este costo está determinado por el tipo de modelo que implementas.
Para obtener más información sobre los precios de implementar modelos personalizados desde el Vertex AI Model Registry, consulta Modelos entrenados de forma personalizada. Para obtener más información sobre los precios de implementar modelos de AutoML, consulta Precios de modelos de AutoML.
Vertex AI Model Monitoring
Vertex AI te permite supervisar la eficacia continua de tu modelo después de implementarlo en producción. Para obtener más información, consulta Introducción a Vertex AI Model Monitoring.
Cuando usas Vertex AI Model Monitoring, se te factura lo siguiente:
$3.50 por GB para todos los datos analizados, incluidos los datos de entrenamiento proporcionados y los datos de predicción registrados en una tabla de BigQuery.
Cargos por otros productos de Google Cloud que usa con Model Monitoring, como el almacenamiento de BigQuery o Batch Explain cuando la supervisión de atribución esté habilitada.
Vertex AI Model Monitoring es compatible con las siguientes regiones: us-central1, europe-west4, asia-east1 y asia-southeast1. Los precios son los mismos en todas las regiones.
Los tamaños de los datos se miden después de que se convierten al formato TfRecord.
Los conjuntos de datos de entrenamiento incurren en un cargo único cuando configura un trabajo de Vertex AI Model Monitoring.
Los conjuntos de datos de predicción consisten en registros recopilados del servicio de predicción en línea. A medida que las solicitudes de predicción llegan durante diferentes períodos, se recopilan los datos para cada período y se usa la suma de los datos analizados para cada período de predicción a fin de calcular el cargo.
Ejemplo: un científico de datos ejecuta la supervisión de modelos en el tráfico de predicción que pertenece a su modelo.
El modelo se entrena a partir de un conjunto de datos de BigQuery. El tamaño de los datos después de convertir a TfRecord es 1.5 GB.
Los datos de predicción registrados entre la 1:00 p.m. y las 2:00 p.m. son 0.1 GB, entre las 3:00 p.m. y las 4:00 p.m. son 0.2 GB.
El precio total para configurar el trabajo de supervisión de modelos es el siguiente:
Además de los costos mencionados anteriormente, también pagas por los recursos de Google Cloud que uses.
Por ejemplo:
Servicios de análisis de datos: generas costos de BigQuery cuando envías consultas de SQL en un notebook (consulta Precios de BigQuery).
Claves de encriptación administradas por el cliente: Generas cargos cuando las usas. Cada vez que tus notebooks administrados o la instancia de notebooks administrados por el usuario usan una clave de Cloud Key Management Service, esa operación se factura según la tarifa de las operaciones de clave de Cloud KMS (consulta Precios de Cloud Key Management Service).
Contenedores de aprendizaje profundo, Deep Learning VM y AI Platform Pipelines
En el caso de los contenedores de aprendizaje profundo, las imágenes de VM de aprendizaje profundo y AI Platform Pipelines, los precios se calculan según los recursos de procesamiento y almacenamiento que uses.
Estos recursos se cobran a la misma tarifa que pagas actualmente por Compute Engine y Cloud Storage.
Además de los costos de procesamiento y almacenamiento, también pagas por los recursos de Google Cloud que uses.
Por ejemplo:
Servicios de análisis de datos: generas costos de BigQuery cuando envías consultas de SQL en un notebook (consulta Precios de BigQuery).
Claves de encriptación administradas por el cliente: Generas cargos cuando las usas. Cada vez que tus notebooks administrados o la instancia de notebooks administrados por el usuario usan una clave de Cloud Key Management Service, esa operación se factura según la tarifa de las operaciones de clave de Cloud KMS (consulta Precios de Cloud Key Management Service).
Etiquetado de datos
Vertex AI te permite solicitar el etiquetado manual de un conjunto de datos que tengas planeado usar para entrenar un modelo de aprendizaje automático personalizado.
Los precios del servicio se calculan en función del tipo de tarea de etiquetado.
Para las tareas de etiquetado regulares, los precios se calculan según la cantidad de unidades de anotación.
Para las tareas de clasificación de imágenes, las unidades se calculan según la cantidad de imágenes y de etiquetadores manuales. Por ejemplo, una imagen con 3 etiquetadores manuales se considera como 3 unidades (1 * 3 = 3). El precio de la clasificación con una o varias etiquetas es el mismo.
Para las tareas de cuadro delimitador de imágenes, las unidades se calculan por la cantidad de cuadros delimitadores identificados en las imágenes y la cantidad de etiquetadores manuales.
Por ejemplo, una imagen con 2 cuadros delimitadores y 3 etiquetadores manuales se considera como 6 unidades (2 * 3 = 6). Las imágenes sin cuadros delimitadores no se cobrarán.
En el caso de las tareas de polígono, polilínea, cuadro rotado o segmentación de imágenes, las unidades se calculan de la misma manera que para las tareas de cuadro delimitador de imágenes.
Para las tareas de clasificación de videos, las unidades se calculan según la duración del video (cada fragmento de 5 segundos constituye una unidad de precio) y la cantidad de etiquetadores manuales. Por ejemplo, un video de 25 segundos con 3 etiquetadores humanos se considera como 15 unidades (25 / 5 * 3 = 15). El precio de la clasificación con una o varias etiquetas es el mismo.
Para las tareas de seguimiento de objetos en un video, las unidades se calculan según la cantidad de objetos identificados y la cantidad de etiquetadores manuales. Por ejemplo, un video con 2 objetos y 3 etiquetadores manuales se considerará como 6 unidades (2 * 3 = 6). Los videos sin objetos no se cobran.
Para una tarea de reconocimiento de acciones en video, las unidades se determinan de la misma manera que una tarea de seguimiento de objetos de video.
Para las tareas de clasificación de texto, las unidades se calculan según la longitud del texto (cada fragmento de 50 palabras constituye una unidad de precio) y la cantidad de etiquetadores manuales. Por ejemplo, un fragmento de texto con 100 palabras y 3 etiquetadores manuales se considera como 6 unidades (100 / 50 * 3 = 6). El precio de la clasificación con una o varias etiquetas es el mismo.
En el caso de las tareas de análisis de opiniones en texto, las unidades se calculan de la misma manera que para las tareas de clasificación de texto.
Para las tareas de extracción de entidades en un texto, las unidades se calculan según la longitud del texto (cada fragmento de 50 palabras constituye una unidad de precio), la cantidad de entidades identificadas y la cantidad de etiquetadores manuales. Por ejemplo, un fragmento de texto con 100 palabras, 2 entidades identificadas y 3 etiquetadores manuales se considera como 12 unidades (100 / 50 * 2 * 3 = 12). El texto sin entidades no se cobra.
Para las tareas de análisis de opiniones en texto y clasificación de imágenes, video y texto, los etiquetadores manuales pueden perder de vista las clases si el tamaño del conjunto de etiquetas es demasiado grande. Por ello, enviamos un máximo de 20 clases a los etiquetadores manuales a la vez. Por ejemplo, si el tamaño del conjunto de etiquetas de una tarea de etiquetado es de 40, cada elemento de datos se enviará a revisión humana 2 veces (40 / 20 = 2). En consecuencia, cobraremos 2 veces el precio (según el cálculo anterior).
Para una tarea de etiquetado que habilita la función de etiquetador personalizado, cada elemento de datos se cuenta como 1 unidad de etiquetador personalizado.
En una tarea de etiquetado de aprendizaje activo para los elementos de datos con anotaciones que generan los modelos (sin ayuda del etiquetador), cada elemento de datos se cuenta como 1 unidad de aprendizaje activo.
En una tarea de etiquetado de aprendizaje activo para los elementos de datos con anotaciones que generan los etiquetadores manuales, cada elemento de datos se cuenta como una tarea de etiquetado regular, como se describió anteriormente.
En la siguiente tabla, se muestra el precio por 1,000 unidades por etiquetador manual, según la unidad que se indica para cada objetivo. Los precios del nivel 1 se aplican a las primeras 50,000 unidades por mes en cada proyecto de Google Cloud; los precios del nivel 2 se aplican a las siguientes 950,000 unidades por mes en el proyecto, hasta 1,000,000 de unidades.
Comunícate con nosotros para conocer los precios para más de 1,000,000 de unidades por mes.
Tipo de datos
Objetivo
Unidad
Nivel 1
Nivel 2
Imagen
Clasificación
Imagen
$35
$25
Cuadro delimitador
Cuadro delimitador
$63
$49
Segmentación
Segmento
$870
$850
Cuadro rotado
Cuadro delimitador
$86
$60
Polígono/polilínea
Polígono/polilínea
$257
$180
Video
Clasificación
5 s de video
$86
$60
Seguimiento de objetos
Cuadro delimitador
$86
$60
Reconocimiento de acciones
Evento en 30 s de video
$214
$150
Texto
Clasificación
50 palabras
$129
$90
Opinión
50 palabras
$200
$140
Extracción de entidades
Entidad
$86
$60
Aprendizaje activo
Todos
Elemento de datos
$80
$56
Etiquetador personalizado
Todos
Elemento de datos
$80
$56
Uso obligatorio de Cloud Storage
Además de los costos que se describen en este documento, debes almacenar los datos y los archivos de programa en buckets de Cloud Storage durante el ciclo de vida de Vertex AI. Este almacenamiento está sujeto a la política de precios de Cloud Storage.
El uso obligatorio de Cloud Storage incluye lo siguiente:
Realizar la etapa de pruebas de tu paquete de aplicación de entrenamiento para modelos con entrenamiento personalizado.
Almacenar tus datos de entrada de entrenamiento.
Almacenar el resultado de tus trabajos de entrenamiento. Vertex AI no requiere el almacenamiento a largo plazo de estos elementos, así que puedes quitar los archivos apenas finalice la operación.
Operaciones gratuitas para la administración de los recursos
Las operaciones de administración de recursos que proporciona AI Platform están disponibles sin costo. La política de cuotas de AI Platform limita algunas de estas operaciones.
Recurso
Operaciones gratuitas
models
create, get, list, delete
versions
create, get, list, delete, setDefault
jobs
get, list, cancel
operations
get, list, cancel, delete
Costos de Google Cloud
Si almacenas imágenes que se analizarán en Cloud Storage o usas otros recursos de Google Cloud en conjunto con Vertex AI, también se te facturará por el uso de esos servicios.
Con los precios de pago por uso de Google Cloud, solo pagas por los servicios que usas. Comunícate con nuestro equipo de Ventas y obtén una cotización personalizada para tu organización.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],[],[],[]]