Acerca de la integración de Vertex AI de Spanner

En esta página, se proporciona una descripción general de la integración de Vertex AI en Spanner.

La integración de Vertex AI en Spanner te ayuda a acceder a los modelos de AA de clasificación y regresión alojados en Vertex AI mediante la interfaz de GoogleSQL. Esto ayuda a integrar de forma continua la funcionalidad de entrega de predicciones de AA con las operaciones generales de acceso a datos de Cloud Spanner realizadas mediante consultas de DQL/DML.

La integración de Vertex AI en Spanner comparte la misma sintaxis de SQL con BigQuery ML, aunque solo se admite un subconjunto de la sintaxis de BigQuery ML.

Beneficios de la integración de Vertex AI en Spanner

Generar predicciones de AA con la integración de Vertex AI en Spanner proporciona muchos beneficios en comparación con el enfoque en el que el acceso a los datos de Cloud Spanner y el acceso al extremo de predicción de Vertex AI se realizan por separado:

  • Rendimiento:
    • Mejor latencia: la integración de Vertex AI en Spanner que se comunica con el servicio de Vertex AI de forma directa elimina los recorridos adicionales entre un nodo de procesamiento que ejecuta un cliente de Cloud Spanner y el servicio de Vertex AI.
    • Mejor capacidad de procesamiento y paralelismo: la integración de Vertex AI en Spanner se ejecuta en la infraestructura de procesamiento de consultas distribuida de Cloud Spanner, que admite una ejecución de consultas altamente paralelizable.
  • Experiencia del usuario:
    • La capacidad de usar una interfaz SQL única, simple, coherente y familiar para facilitar las situaciones de transformación de datos y de entrega de AA en el nivel de escala de Cloud Spanner reduce la barrera de entrada del AA y permite una experiencia del usuario mucho más fluida.
  • Costos:
    • La integración de Vertex AI en Spanner usa la capacidad de procesamiento de Cloud Spanner para combinar los resultados de los cálculos de AA y la ejecución deconsulta en SQLL, lo que elimina la necesidad de aprovisionar un cómputo adicional (por ejemplo, en Compute Engine o Google Kubernetes Engine) para eso.

¿Cómo funciona la integración de Vertex AI en Spanner?

La integración de Vertex AI en Spanner no aloja modelos de AA, sino que depende de la infraestructura de servicios de Vertex AI. Para que un modelo se use con la integración de Vertex AI de Spanner, ya debe estar entrenado y implementado en Vertex AI.

La integración de Vertex AI de Spanner tampoco proporciona ninguna funcionalidad de entrenamiento de AA especial. Para entrenar modelos con datos almacenados en Cloud Spanner, puedes usar cualquiera de las siguientes opciones:

En cuanto se implementa un modelo en el servicio de Vertex AI, el propietario de la base de datos puede registrarlo con la declaración DDL CREATE MODEL. Después de eso, se puede hacer referencia al modelo desde las funciones ML.PREDICT para producir predicciones.

Consulta Genera predicciones del AA con SQL para ver un instructivo sobre el uso de la integración de Vertex AI de Spanner.

Precios

Cloud Spanner no cobra cargos adicionales por usar la integración de Vertex AI de Spanner. Sin embargo, existen otros posibles cargos asociados con esta función:

  • Pagas las tarifas estándar de la predicción en línea de Vertex AI. El cargo total depende del tipo de modelo que uses. Algunos tipos de modelos tienen una tarifa plana por hora, según el tipo de máquina y la cantidad de nodos que uses. Algunos tipos de modelos tienen tarifas por llamada. Te recomendamos que implementes esta última en un proyecto dedicado en el que hayas configurado cuotas de predicción explícitas.

  • Pagas las tarifas estándar por la transferencia de datos entre Cloud Spanner y Vertex AI. El cargo total depende de la región que aloja el servidor que ejecuta la consulta y de la región que aloja el extremo llamado. Para minimizar los cargos, implementa tus extremos de Vertex AI en la misma región que tu instancia de Cloud Spanner. Cuando uses configuraciones de instancias multirregionales o múltiples extremos de Vertex AI, implementa tus extremos en el mismo continente.

ANS

Debido a que la disponibilidad de la predicción en línea de Vertex AI es menor, debes configurar de forma correcta los modelos de AA de Cloud Spanner para mantener la alta disponibilidad de Cloud Spanner mientras usas la integración de Vertex AI en Spanner:

  1. Los modelos de AA de Cloud Spanner deben usar varios extremos de Vertex AI en el backend para habilitar la conmutación por error.
  2. Los extremos de Vertex AI deben cumplir con el ANS de Vertex AI.
  3. Los extremos de Vertex AI deben aprovisionar la capacidad suficiente para manejar el tráfico entrante.
  4. Los extremos de Vertex AI deben usar regiones separadas cerca de la base de datos de Cloud Spanner para evitar interrupciones regionales.
  5. Los extremos de Vertex AI deben usar proyectos separados para evitar problemas con las cuotas de predicción por proyecto.

La cantidad de extremos redundantes de Vertex AI depende de su ANS y de la cantidad de filas en las consultas de Cloud Spanner:

ANS de Spanner ANS de Vertex AI 1 fila 10 filas 100 filas 1,000 filas
99.99% 99.9% 2 2 2 3
99.99% 99.5% 2 3 3 4
99.999% 99.9% 2 2 3 3
99.999% 99.5% 3 3 4 4

Los extremos de Vertex AI no necesitan alojar exactamente el mismo modelo. Recomendamos que configures el modelo de AA de Cloud Spanner para que tenga un modelo principal, complejo y de procesamiento intensivo como su primer extremo. Los extremos de conmutación por error posteriores pueden apuntar a modelos simplificados que requieren menos procesamiento, escalan mejor y pueden absorber los aumentos de tráfico.

Cumplimiento

Las Assured Workloads no son compatibles con la API de Vertex AI Prediction. Habilitar una restricción de restricción de uso de recursos inhabilita la API de Vertex AI y la función de integración de Vertex AI de Spanner.

Además, recomendamos que crees un perímetro de los Controles del servicio de VPC para asegurarte de que las bases de datos de producción no se puedan conectar a los extremos de Vertex AI en proyectos que no son de producción que podrían no tener la configuración de cumplimiento adecuada.