Accéder au contenu
Bases de données

Optimisez vos projets d'IA générative avec les nouvelles fonctionnalités des bases de données de Google Cloud

15 juillet 2024
Andi Gutmans

GM & VP of Engineering, Databases

Contactez-nous

Si vous êtes une entreprise et que vous souhaitez vous développer, découvrez comment gagner en productivité avec Google Cloud ou contactez notre équipe commerciale.

Commencer ici

Chez Google Cloud, nous aidons nos clients à unifier leurs données et à les intégrer à des IA innovantes afin de faciliter la création d’expériences véritablement transformatrices. Structurées dans une base de production ou non structurées dans un datalake, les données sont essentielles pour rendre les IA plus efficaces. Et, pour que les entreprises puissent réellement tirer parti de l’IA générative, elles doivent non seulement pouvoir accéder aux données structurées et non structurées mais également pouvoir les gérer et les exploiter, qu’elles proviennent des systèmes analytiques ou opérationnels.

À l’occasion du Summit France ’24, nous avons partagé notre vision et expliqué comment nous voulions aider les développeurs à créer des applications IA, en leur proposant notamment des fonctionnalités vectorielles innovantes, en renforçant l’intégration avec leur écosystème ou encore en simplifiant la connexion avec les services d’inférence IA. Pour tenir nos promesses, nous n’avons pas chômé et nous sommes ravis aujourd’hui d’annoncer la disponibilité générale (GA) d’AlloyDB AI, solution qui regroupe un ensemble de fonctionnalités dans AlloyDB pour créer facilement des applications IA.

Nous sommes également ravis de vous annoncer qu’un grand nombre de nos bases de données, dont Spanner, MySQL et Redis, proposent désormais des fonctionnalités de recherche vectorielle. Les développeurs peuvent ainsi créer des applications dopées à l’IA générative en exploitant leurs bases de données préférées. En parallèle, nous avons aussi enrichi l’intégration avec LangChain, framework couramment utilisé par les développeurs pour concevoir des applications intégrant des modèles de langage.

Combinées aux intégrations existantes dans VertexAI, toutes ces nouvelles fonctionnalités témoignent de notre engagement à offrir une plateforme complète et parfaitement intégrée aux développeurs. Et ce n’est pas tout. Spanner et AlloyDB s'intègrent nativement à Vertex AI pour accéder aux services de modèles et d’inférence en utilisant un langage familier : SQL. Parallèlement, Firestore et Bigtable sont intégrés à Vertex AI Vector Search afin de fournir des fonctionnalités de recherche sémantique aux applications d'IA générative.

Nous sommes convaincus que pour libérer pleinement la valeur ajoutée de l’IA générative, vos données de production doivent être intégrées à l’IA, de sorte à pouvoir offrir des expériences en temps réel, précises et contextuelles. Intégrer des fonctions vectorielles au cœur des bases de données de production permet de créer un pont entre les modèles fondation (entraînés avec des données génériques) et les besoins de données à jour et propres à l’entreprise des applications Gen AI métier. Étant donné que les bases de données opérationnelles contiennent généralement la plupart des données utiles d'une application, elles sont cruciales pour le développement de nouvelles expériences utilisateur basées sur l'IA. C'est pourquoi 71 % des organisations prévoient d'utiliser des bases de données dotées de fonctionnalités adaptées aux besoins de l’IA générative. Pour s’imposer, les bases de données devront à l’avenir adopter une approche « AI first » et embarquer des technologies telles que la recherche vectorielle pour s’interfacer de manière complètement transparente avec les modèles, les outils et les frameworks AI. Toutes ces caractéristiques seront à l’avenir intégrées par défaut aux bases de données opérationnelles et s’imposeront comme des prérequis.

AlloyDB : une base de données PostgreSQL moderne, idéale pour vos workloads d’IA générative

Entièrement managée, AlloyDB est une base de données compatible PostgreSQL conçue pour la performance, l’évolutivité et la haute disponibilité. AlloyDB AI est désormais disponible en GA dans AlloyDB et AlloyDB Omni.

Pensé pour répondre aux besoins d’aujourd’hui et de demain, AlloyDB :

  • est optimisé pour les applications IA qui supposent des réponses précises et en temps réel
  • est performant dans tous les domaines, qu’il s’agisse de workloads transactionnels, analytiques ou vectoriels
  • fonctionne partout, y compris sur site et sur n’importe quel cloud, permettant aux clients de moderniser et d'innover quel que soit l’emplacement de leurs actifs IT.

Des clients tels que Character AIFLUIDEFIB4A et Regnology utilisent AlloyDB pour animer leurs applications. Le chatbot de reporting réglementaire de Regnology, par exemple, s'appuie sur le traitement en langage naturel pour comprendre la terminologie et les requêtes réglementaires complexes.

« AlloyDB se comporte comme une base dynamique vectorielle, indexant des bases de directives réglementaires, de documents de conformité ou encore l’historique de données de reporting pour alimenter le chatbot. Les analystes de la conformité et les spécialistes du reporting interagissent avec le chatbot en mode conversationnel, ce qui leur permet de gagner du temps et de traiter de nombreuses questions relatives au reporting réglementaire ». - Antoine Moreau, DSI, Regnology

Recherche vectorielle dans toutes les bases de données de Google Cloud

La recherche vectorielle s’impose désormais comme une fonctionnalité essentielle afin de créer des applications utiles et précises basées sur l'IA générative. Elle facilite la recherche de résultats similaires sur des données non structurées, telles que du texte et des images provenant d'un catalogue de produits, en s’appuyant sur un algorithme des « plus proches voisins ». C’est pourquoi nous sommes ravis d’annoncer que plusieurs de nos systèmes de bases de données intègrent désormais la recherche vectorielle (en mode preview), dont Cloud SQL for MySQL, Memorystore for Redis et Spanner.

En complément des fonctionnalités pgvector lancées l'année dernière dans Cloud SQL for PostgreSQL et AlloyDB, Cloud SQL for MySQL prend désormais en charge les recherches vectorielles approximatives ou exactes. Les développeurs peuvent désormais stocker des millions de vecteurs dans les instances MySQL qu'ils utilisent déjà. En utilisant Cloud SQL pour les recherches vectorielles - que ce soit sur MySQL ou PostgreSQL - vous pouvez stocker et effectuer des recherches vectorielles directement dans la base de production que vous avez l’habitude d’utiliser, ce qui vous évite d’avoir à appréhender ou à configurer un nouveau système.

Afin d’optimiser les performances de vos applications à base d’IA, nous annonçons également la gestion intégrée du stockage vectoriel et de la recherche vectorielle par Memorystore for Redis. Chaque instance Redis sera capable de stocker des dizaines de millions de vecteurs et d'effectuer des recherches vectorielles avec une latence de l'ordre de la milliseconde. Vous disposez ainsi d’une base hautement performante, solution indispensable dans de nombreux cas d’usage, tels que les caches sémantiques des LLM (pour accélérer les temps de réponse et limiter la charge des LLM) ou les systèmes de recommandation.

Spanner peut gérer la montée en charge des recherches vectorielles pour des workloads hautement partitionnables. Les workloads vectoriels très volumineux, qui impliquent des milliards de vecteurs et des millions de requêtes par seconde, peuvent constituer un défi pour certains systèmes. Mais pas pour Spanner qui excelle sur ces workloads car sa fonction de recherche exacte du plus proche voisin sait réduire efficacement l’espace de recherche afin de fournir des résultats précis en temps réel avec une faible latence.

Accélérer la gestion de l’écosystème LangChain

LangChain est devenu l'un des frameworks d'orchestration LLM open-source les plus populaires. Dans le cadre de nos efforts visant à fournir aux développeurs d'applications des outils leur permettant de créer rapidement des applications d'IA générative, nous avons publié en open-source les intégrations LangChain pour toutes nos bases de données Google Cloud. Trois types d’intégration LangChain sont supportés : les Vector stores, les Document loaders et la Chat Messages Memory.

En combinant la puissance de LangChain et celle de nos bases de données, les développeurs peuvent créer plus facilement et plus rapidement des applications d'intelligence artificielle tenant compte du contexte. L'intégration de LangChain leur fournit en effet des workflows RAG (Retrieval Augmented Generation) leur permettant de tirer profit de leurs sources de données préférées en s’appuyant sur les bases de données Google Cloud de leur choix. Pour rappel, le RAG est une technique qui permet de contraindre l’IA générative à votre propre contenu d’entreprise provenant de vos propres sources de données.
Les cas d’usage d’une telle approche vont des recommandations personnalisées de produits à des applications de type « question-réponse » en passant par la recherche d’informations multimodales, la synthèse de documents ou l'automatisation du service client.

Le support de ces composants LangChain spécifiques simplifie le processus d’intégration des bases de données Google dans les applications. En pratique :

  • Vector stores permet de réaliser des requêtes de similarité vectorielle. L'intégration de LangChain Vector stores est disponible pour AlloyDB, Cloud SQL for PostgreSQL, Cloud SQL for MySQL, Memorystore for Redis et Spanner.
  • Document loaders permet de charger des données de manière transparente à partir de diverses sources externes, telles que le contenu d'une page web ou la transcription d'une vidéo YouTube.
  • Chat Messages Memory permet de de stocker l'historique des chats afin de pouvoir s'y référer ultérieurement afin d’optimiser la contextualisation des échanges.

Document loaders et Chat Messages Memory sont intégrés à toutes les bases de données Google Cloud : AlloyDB, Firestore, Bigtable, Memorystore for Redis, Spanner, Cloud SQL for MySQL, PostgreSQL et SQL Server.

Les packages d’intégration sont disponibles sur GitHub.

Plonger dans un futur enrichi par l’IA

Les bases de production regorgent de données qui ne demandent qu'à alimenter les prochains modèles IA et les applications d'IA générative. En optimisant AlloyDB AI pour les workloads d’entreprises, en ajoutant des fonctionnalités de recherche vectorielle avancées à notre portefeuille de bases de données et en adoptant les frameworks pour IA générative open source, nous fournissons aux développeurs tous les outils dont ils ont besoin pour enrichir leurs applications de fonctionnalités Gen AI « intelligentes », précises et utiles, basées sur la richesse des données de leur entreprise.

Pour en savoir plus, consultez notre webinaire Data Cloud Innovation Live webinar réalisé par nos experts produits qui vous présentent en détail toutes ces innovations.

Publié dans