Présentation de l'intégration de Vertex AI dans Spanner

Cette page présente l'intégration de Vertex AI dans Spanner. L'intégration de Vertex AI dans Spanner est compatible avec Bases de données GoogleSQL et PostgreSQL

L'intégration de Vertex AI dans Spanner vous permet d'accéder aux modèles de ML de classification et de régression Vertex AI via les API GoogleSQL interface PostgreSQL. Ce permet d'intégrer parfaitement la fonctionnalité d'inférence des prédictions de ML avec des Opérations d'accès aux données Spanner effectuées à l'aide de requêtes DQL/LMD.

Avantages de l'intégration de Vertex AI dans Spanner

Générer des prédictions de ML à l'aide de l'intégration de Vertex AI dans Spanner offre plusieurs avantages par rapport à l'approche selon laquelle Spanner accède aux données point de terminaison de prédiction sont effectuées séparément:

  • Performances: <ph type="x-smartling-placeholder">
      </ph>
    • Latence améliorée: intégration de Vertex AI dans Spanner, qui communique directement avec le service Vertex AI élimine les allers-retours supplémentaires entre un nœud de calcul exécutant le pipeline Spanner le client et le service Vertex AI.
    • Meilleur débit/parallélisme: l'intégration de Vertex AI dans Spanner s'exécute sur la base de données de traitement de requêtes distribué, qui prend en charge l'exécution de requêtes parallélisables.
  • Expérience utilisateur: <ph type="x-smartling-placeholder">
      </ph>
    • Vous êtes capable d'utiliser une interface SQL unique, simple, cohérente et familière pour faciliter à la fois la transformation des données et les scénarios d'inférence ML sur Spanner permet de réduire l'obstacle au ML et d'offrir une expérience utilisateur expérience.
  • Coûts: <ph type="x-smartling-placeholder">
      </ph>
    • L'intégration de Vertex AI dans Spanner utilise la capacité de calcul de Spanner pour : les résultats des calculs de ML et de l'exécution de requêtes SQL, élimine le besoin de provisionner des ressources de calcul supplémentaires (par exemple, Compute Engine ou Google Kubernetes Engine).

Comment fonctionne l'intégration de Vertex AI dans Spanner ?

L'intégration de Vertex AI dans Spanner n'héberge pas de modèles de ML, mais s'appuie sur le service Vertex AI votre infrastructure. Vous n'avez pas besoin d'entraîner un modèle avec Vertex AI pour l'utiliser avec l'intégration de Vertex AI dans Spanner, mais vous devez la déployer sur un point de terminaison Vertex AI.

Pour entraîner des modèles sur des données stockées dans Spanner, vous pouvez utiliser les éléments suivants:

L'intégration de Vertex AI dans Spanner étend les fonctions suivantes pour l'utilisation des modèles de ML:

Utiliser les fonctions d'intégration de Vertex AI dans Spanner

Un modèle intégré à Vertex AI dans Spanner peut servir à générer des prédictions ou du texte des représentations vectorielles continues dans votre code SQL à l'aide des fonctions ML Predict. Ces fonctions sont les suivantes:

GoogleSQL

Vous pouvez utiliser la fonction de prédiction de ML suivante pour GoogleSQL:

ML.PREDICT

Vous devez enregistrer votre modèle à l'aide de la méthode CREATE MODEL. l'instruction LDD avant de l'utiliser avec la fonction ML.PREDICT.

Vous pouvez également utiliser SAFE.ML.PREDICT pour renvoyer null au lieu d'une erreur dans vos prédictions. Cela est utile lorsque vous exécutez des requêtes volumineuses certaines erreurs de prédiction sont tolérables.

PostgreSQL

Vous pouvez utiliser la fonction de prédiction ML suivante pour PostgreSQL:

spanner.ML_PREDICT_ROW

Pour utiliser les fonctions, vous pouvez sélectionner un modèle Vertex AI Model Garden ou utiliser un modèle que vous avez déployé dans Vertex AI.

Pour en savoir plus sur le déploiement d'un modèle sur un point de terminaison dans Vertex AI, consultez Déployez un modèle sur un point de terminaison.

Pour en savoir plus, sur l'utilisation de ces fonctions pour générer une prédiction de ML, consultez la page Générer des prédictions de ML à l'aide de SQL.

Pour en savoir plus sur l'utilisation de ces fonctions pour générer des représentations vectorielles continues de texte, consultez la section Obtenir des représentations vectorielles continues de texte.

Tarifs

Aucuns frais supplémentaires ne sont facturés par Spanner lorsque vous l'utilisez avec l'intégration Vertex AI de Spanner. D'autres frais potentiels peuvent toutefois être associés à cette fonctionnalité:

  • Vous payez les tarifs standards de Vertex AI. la prédiction en ligne. Le coût total dépend du type de modèle que vous utilisez. Certains modèles ont un taux fixe à l'heure, en fonction du type de machine et du nombre que vous utilisez. Certains types de modèles proposent des tarifs par appel. Nous vous recommandons et déployez le second dans un projet dédié où vous avez défini une prédiction explicite quotas.

  • Vous payez les tarifs standards pour le transfert de données. entre Spanner et Vertex AI. Le coût total dépend de la région hébergeant le serveur qui exécute la requête et la région hébergeant le appelé « Endpoint ». Pour réduire les frais, déployez vos points de terminaison Vertex AI dans la même région que votre instance Spanner. En cas d'utilisation d'un emplacement multirégional d'instances Compute Engine ou plusieurs points de terminaison Vertex AI, points de terminaison du même continent.

Contrat de niveau de service

En raison de la disponibilité de Vertex AI pour les prédictions en ligne, vous devez configurer correctement les modèles de ML de Spanner pour maintenir La haute disponibilité de Spanner lors de l'utilisation de l'intégration de Vertex AI dans Spanner:

  1. Les modèles de ML Spanner doivent utiliser plusieurs Vertex AI points de terminaison sur le backend pour permettre le basculement.
  2. Les points de terminaison Vertex AI doivent être conformes au contrat de niveau de service Vertex AI.
  3. Les points de terminaison Vertex AI doivent provisionner une capacité suffisante pour gérer le trafic entrant.
  4. Les points de terminaison Vertex AI doivent utiliser des régions distinctes proches du Spanner pour éviter les pannes régionales.
  5. Les points de terminaison Vertex AI doivent utiliser des projets distincts pour éviter les problèmes liés aux quotas de prédiction par projet.

Le nombre de points de terminaison Vertex AI redondants dépend du contrat de niveau de service auquel ils sont associés. le nombre de lignes dans les requêtes Spanner:

Contrat de niveau de service Spanner Contrat de niveau de service Vertex AI 1 ligne 10 lignes 100 lignes 1 000 lignes
99,99 % 99,9 % 2 2 2 3
99,99 % 99,5 % 2 3 3 4
99,999 % 99,9 % 2 2 3 3
99,999 % 99,5 % 3 3 4 4

Les points de terminaison Vertex AI n'ont pas besoin d'héberger exactement le même modèle. Mer nous vous recommandons de configurer le modèle de ML Spanner complexe et gourmand en ressources de calcul comme premier point de terminaison. Basculement ultérieur peuvent pointer vers des modèles simplifiés moins gourmands en ressources de calcul, et peuvent absorber les pics de trafic.

Conformité

Assured Workloads n'est pas compatible avec les API Vertex AI Prediction. Activer un Contrainte de restriction d'utilisation des ressources désactive l'API Vertex AI et la fonctionnalité d'intégration Vertex AI de Spanner.

En outre, nous vous recommandons de créer un Périmètre VPC Service Controls pour garantir les bases de données de production ne peuvent pas se connecter aux points de terminaison Vertex AI qui n'ont pas la bonne configuration de conformité.