Descripción general de la integración de Vertex AI en Spanner

En esta página, se proporciona una descripción general de la integración de Vertex AI de Spanner. La integración de Vertex AI en Spanner funciona Bases de datos GoogleSQL y PostgreSQL.

La integración de Vertex AI en Spanner te ayuda a acceder a los modelos de AA de clasificación y regresión alojados en Vertex AI a través de las instancias Interfaz de PostgreSQL. Esta ayuda a integrar sin problemas la funcionalidad de entrega de predicciones del AA con Operaciones de acceso a los datos de Spanner realizadas mediante consultas de DQL/DML.

Beneficios de la integración de Vertex AI de Spanner

Generar predicciones de AA con la integración de Vertex AI de Spanner proporciona varios beneficios en comparación el enfoque en que el acceso a los datos de Spanner y Vertex AI extremo de predicción se realizan por separado:

  • Rendimiento:
    • Mejor latencia: integración de Vertex AI de Spanner hablando directamente con el servicio de Vertex AI elimina las idas y vueltas adicionales entre un nodo de procesamiento que ejecute un cliente y el servicio de Vertex AI.
    • Mejor capacidad de procesamiento/paralelismo: La integración de Vertex AI de Spanner se ejecuta por encima del de procesamiento de consultas distribuidas, que admite ejecución de consultas paralelizables.
  • Experiencia del usuario:
    • Capacidad de usar una interfaz de SQL única, sencilla, coherente y familiar para realizar lo siguiente: facilitar las situaciones de transformación de datos y entrega de AA en Spanner de escala reduce la barrera de entrada al AA y permite que el usuario una experiencia fluida a los desarrolladores.
  • Costos:
    • La integración de Vertex AI en Spanner usa la capacidad de procesamiento de Spanner para lo siguiente: combinan los resultados de los cálculos de AA y la ejecución de consulta en SQL, lo que elimina la necesidad de aprovisionar otro procesamiento (por ejemplo, en Compute Engine o Google Kubernetes Engine) para ello.

¿Cómo funciona la integración de Vertex AI en Spanner?

La integración de Vertex AI en Spanner no aloja modelos de AA, pero depende del servicio de Vertex AI infraestructura en su lugar. No es necesario entrenar un modelo con Vertex AI para usarlo con la integración de Vertex AI de Spanner, pero debes implementarlo en un extremo de Vertex AI.

Para entrenar modelos con datos almacenados en Spanner, puedes usar las siguientes opciones:

La integración de Vertex AI en Spanner extiende las siguientes funciones para usar modelos de AA:

  • Generar predicciones de AA con una llamada a un modelo mediante SQL en tus datos de Spanner. Puedes usar un modelo a partir del Vertex AI Model Garden o un modelo implementado en tu extremo de Vertex AI.

  • Genera incorporaciones de texto para que se traduzca un LLM mensajes de texto en números. Para para obtener más información sobre las incorporaciones, consulta Obtén incorporaciones de texto.

Usa las funciones de integración de Vertex AI de Spanner

Se puede usar un modelo en la integración de Vertex AI en Spanner para generar predicciones o texto en tu código SQL con las funciones de predicción del AA. Estas funciones son los siguientes:

GoogleSQL

Puedes usar la siguiente función de predicción de AA para GoogleSQL:

ML.PREDICT

Debes registrar tu modelo con CREATE MODEL. declaración DDL antes de usarla con la función ML.PREDICT.

También puedes usar SAFE.ML.PREDICT para mostrar null en lugar de un error en tus predicciones. Esto es útil cuando se ejecutan consultas grandes en las que algunas predicciones fallidas son tolerables.

PostgreSQL

Puedes usar la siguiente función de predicción del AA para PostgreSQL:

spanner.ML_PREDICT_ROW

Para usar las funciones, puedes seleccionar un modelo Vertex AI Model Garden o usar un modelo que hayas implementado en Vertex AI.

Para obtener más información sobre cómo implementar un modelo en un extremo en Vertex AI, consulta Implementa un modelo en un extremo.

Más información sobre cómo usar estas funciones para generar una predicción de AA consulta Genera predicciones de AA mediante SQL.

Si necesitas más información sobre cómo usar estas funciones para generar incorporaciones de texto, consulta Obtén incorporaciones de texto.

Precios

Spanner no cobra cargos adicionales cuando lo usas con la integración de Vertex AI de Spanner. Sin embargo, existen otros posibles cargos asociados con esta función:

  • Pagas las tarifas estándar de Vertex AI. para la predicción en línea. El cargo total depende del tipo de modelo que uses. Algún modelo tienen una tarifa plana por hora según el tipo de máquina y la cantidad nodos que usas. Algunos tipos de modelos tienen tarifas por llamada. Te recomendamos implementar estas últimas en un proyecto dedicado en el que hayas configurado una predicción explícita y cuotas.

  • Pagas las tarifas estándar por la transferencia de datos. entre Spanner y Vertex AI. El cargo total depende de la región que aloja el servidor que ejecuta la consulta y la región que aloja la llamado extremo. Para minimizar los cargos, implementa tus extremos de Vertex AI en la misma región que tu instancia de Spanner. Cuando se usan modelos de AA de instancias de Compute Engine o varios extremos de Vertex AI, implementa tus en el mismo continente.

ANS

Debido a la disponibilidad de la predicción en línea de Vertex AI, menos, debes configurar correctamente los modelos de AA de Spanner Alta disponibilidad de Spanner mientras se usa la integración de Vertex AI de Spanner:

  1. Los modelos de AA de Spanner deben usar varios modelos de Vertex AI del backend para habilitar la conmutación por error.
  2. Los extremos de Vertex AI deben cumplir con el ANS de Vertex AI.
  3. Los extremos de Vertex AI deben aprovisionar suficiente capacidad para controlar el tráfico entrante.
  4. Los extremos de Vertex AI deben usar regiones separadas cerca del Base de datos de Spanner para evitar interrupciones regionales.
  5. Los extremos de Vertex AI deben usar proyectos separados para evitar problemas con las cuotas de predicción por proyecto.

La cantidad de extremos redundantes de Vertex AI depende de su ANS. la cantidad de filas en las consultas de Spanner:

ANS de Spanner ANS de Vertex AI 1 fila 10 filas 100 filas 1,000 filas
99.99% 99.9% 2 2 2 3
99.99% 99.5% 2 3 3 4
99.999% 99.9% 2 2 3 3
99.999% 99.5% 3 3 4 4

No es necesario que los extremos de Vertex AI alojen exactamente el mismo modelo. Mié te recomendamos configurar el modelo de AA de Spanner para que tenga de procesamiento intensivo y complejo como su primer extremo. Conmutación por error posterior extremos pueden apuntar a modelos simplificados que requieren menos procesamiento, escalan mejor y pueden absorber los aumentos repentinos de tráfico.

Cumplimiento

Assured Workloads no admite las API de predicción de Vertex AI. Habilita un restricción de uso de recursos inhabilita la API de Vertex AI y, de manera efectiva, la función de integración de Vertex AI de Spanner.

Además, te recomendamos crear perímetro de los Controles del servicio de VPC bases de datos de producción no se pueden conectar a los extremos de Vertex AI en tu proyectos que no son de producción que no tienen la configuración de cumplimiento adecuada.