Google Cloud rend ses modèles Gemini accessibles à tous les clients Vertex AI
Google Cloud Content & Editorial
Contactez-nous
Si vous êtes une entreprise et que vous souhaitez vous développer, découvrez comment gagner en productivité avec Google Cloud ou contactez notre équipe commerciale.
Commencer iciEn décembre dernier, Google annonçait Gemini, modèle génératif le plus performant que nous ayons jamais créé à date. Depuis, une sélection de clients, tels que Samsung et Palo Alto Networks, utilisent Vertex AI et les modèles Gemini pour concevoir des agents IA sophistiqués qui permettent d'accroître le niveau de productivité de leurs clients, de personnaliser davantage la prise en main de leurs outils et bien d’autres choses encore.
Aujourd’hui, nous annonçons non seulement un accès étendu à ces modèles mais aussi de nouveaux modèles Gemini encore plus performants.
- Gemini 1.0 Pro, notre meilleur modèle pour monter en charge sur les tâches d'IA, est désormais disponible pour tous les clients de Vertex AI. À partir d'aujourd'hui, tous les développeurs peuvent commencer à développer avec Gemini Pro et passer en production. Gemini 1.0 Pro offre le meilleur équilibre entre qualité, performance et coût pour la plupart des tâches d'IA, comme la génération de contenu, l'édition, la classification ou la génération de résumés.
- Gemini 1.0 Ultra, notre modèle le plus sophistiqué et le plus performant destiné aux tâches IA les plus complexes, est désormais accessible sur Vertex AI pour les clients qui en font la demande. Gemini 1.0 Ultra est conçu pour les tâches complexes et excelle dans la compréhension d’instructions complexes, la génération de code informatique, le raisonnement et le multilinguisme. Il est optimisé pour l’obtention de résultats de haute qualité.
Parallèlement, nous sommes ravis d’annoncer une nouvelle génération de modèles, Gemini 1.5, offrant de meilleures performances grâce à une architecture plus efficace.
Premier modèle de la gamme, Gemini 1.5 Pro est déjà disponible en preview privée dans Vertex AI. Modèle multimodal de taille moyenne, il est adapté à un large éventail de tâches. Ses performances sont similaires à celles de Gemini 1.0 Ultra, notre plus grand modèle à ce jour.
Gemini 1.5 Pro introduit une nouvelle fonctionnalité expérimentale révolutionnaire liée à la compréhension des contextes longs : il est en effet le modèle fondation qui dispose de la plus large fenêtre contextuelle à ce jour. Les applications peuvent désormais utiliser jusqu’à un million de tokens en production. En d’autres termes, Gemini 1.5 Pro peut analyser et traiter de grandes quantités d'informations en une seule fois, comme 1 heure de vidéo, 11 heures d'audio, un programme avec plus de 30 000 lignes de code ou un livre de plus de 700 000 mots.
Des fenêtres contextuelles plus grandes permettent aux modèles de référencer plus d'informations, de mieux saisir le flux narratif, de maintenir la cohérence sur des passages plus longs et de générer des réponses plus riches sur le plan contextuel. Avec Gemini 1.5 Pro, les entreprises peuvent par exemple :
- Analyser avec précision la totalité d’une bibliothèque de code en un seul prompt, sans avoir à affiner le modèle. Gemini 1.5 Pro peut même comprendre et raisonner sur de petits détails qu'un développeur pourrait facilement manquer, tels que des erreurs, des inefficacités et des incohérences dans le code.
- Raisonner sur de très longs documents, qu'il s'agisse de comparer des détails dans des contrats ou de synthétiser et d'analyser des thèmes et des opinions dans des rapports d'analystes, des études de recherche ou même une série de livres.
- Analyser et comparer le contenu de plusieurs heures de vidéo, par exemple, pour trouver des détails spécifiques dans des séquences sportives ou pour obtenir des informations détaillées à partir de résumés de réunions vidéo abordant des questions diverses.
- Permettre aux chatbots de tenir de longues conversations sans oublier de détails, même pour des tâches complexes ou un échange suivi comportant de nombreuses interactions.
- Proposer des expériences hyper-personnalisées en intégrant des informations pertinentes sur l'utilisateur dans le prompt, sans qu'il soit nécessaire d'affiner un modèle.
Découvrez comment nos clients innovent déjà avec les modèles Gemini
L’adoption de Vertex AI ne cesse de grandir : rien que sur le premier et le deuxième semestre de l'année dernière, les demandes d'API ont été multipliées par près de 6. Nous sommes vraiment impressionnés par les choses étonnantes que les clients font avec les modèles Gemini, en particulier parce qu'ils sont multimodaux et qu'ils peuvent gérer des raisonnements complexes de manière très efficace.
Samsung a récemment annoncé avec sa série Galaxy S24 le premier smartphone équipé des modèles Gemini. En utilisant les applications IA natives de Samsung, les clients peuvent profiter des fonctions de résumé dans Notes et Voice Recorder. Samsung est convaincu que ses utilisateurs sont protégés par la sécurité, la sûreté et la confidentialité intégrées dans Vertex AI.
Palo Alto Networks expérimente les modèles Gemini sur de nombreux cas d’usage, dont des agents intelligents qui permettent aux clients de mieux interagir et explorer le portefeuille de produits de la société et d'une manière plus intuitive afin de réduire le temps passé dans l'assistance à la clientèle.
Jasper propose une offre IA pour aider les équipes marketing des entreprises à créer et à reconditionner du contenu. Cette offre s’appuie sur les modèles Gemini pour générer automatiquement du contenu de blog et des descriptions de produits pour les clients. Les équipes peuvent ainsi produire du contenu de qualité plus rapidement tout en respectant la charte de la marque et les directives marketing.
Quora, célèbre plateforme de questions-réponses, utilise Gemini pour booster la monétisation des créateurs de bots sur sa plateforme Poe, où les utilisateurs peuvent découvrir une grande variété de bots animés par l’IA générative. Gemini permet aux créateurs de proposer des bots personnalisés pour une grande variété de cas d’usage, dont des bots d’aide à la rédaction, d’aide à la génération de code, d’apprentissage personnalisé, etc.
Créer des applications prêtes à passer en production avec l'API Gemini de Vertex AI
L'API Gemini de Vertex AI permet aux développeurs de créer une nouvelle génération d'agents et d'applications IA, capables de traiter simultanément une grande variété d’informations : textes, codes, images et vidéos.
Pour exploiter pleinement la puissance des modèles Gemini, les organisations et les développeurs doivent être en mesure non seulement de créer des applications professionnelles mais également de pouvoir les passer aisément en production. Vertex AI est la seule plateforme cloud IA offrant un environnement unifié, intégrant les modèles, l'outillage et l'infrastructure. Point fondamental, cette intégration garantit qu’une fois les applications construites avec les modèles Gemini, elles peuvent être facilement déployées et maintenues.
Avec Vertex AI, les clients peuvent :
Personnaliser les modèles Gemini en fonction de leurs besoins spécifiques. L'API Gemini de Vertex AI prend désormais en charge la personnalisation des modèles via les techniques LoRA (Low-Rank Adaptation), ce qui permet aux développeurs d’adapter un modèle à leurs besoins spécifiques, de manière efficace et à moindre coût. D'autres techniques de personnalisation telles que RLHF (apprentissage par renforcement à partir de rétroaction humaine) et « la distillation » (transfert de connaissances d’un grand modèle vers un modèle plus réduit) seront intégrées à l'API Gemini dans les mois à venir.
Augmenter les capacités des modèles Gemini non seulement en enrichissant les réponses avec des informations de dernière minute mais aussi en permettant au modèle d’interagir avec le monde réel. En effet, le support de l'ancrage (RAG) entièrement géré permet aux développeurs d’améliorer la précision et la pertinence des réponses du modèle Gemini en utilisant les données de leur entreprise.
Par ailleurs, le support d’appels de fonction, désormais disponible, permet aux développeurs de connecter le modèle Gemini à des API externes pour réaliser des transactions et autres actions.
Gérer et déployer Gemini en production et à grande échelle grâce à des outils spécialement conçus pour s'assurer qu'une fois les applications créées, elles peuvent être facilement déployées et maintenues. Vertex AI propose un outil d'évaluation automatisé pour les modèles d'IA générative : Automatic Side by Side. Cette fonctionnalité compare les réponses des modèles selon un ensemble de critères standard, ce qui aide les développeurs à comprendre les performances de Gemini et à ajuster les prompts et les réglages en fonction de ce retour d'information.
Créer des agents conversationnels et de recherche avec les modèles Gemini avec un minimum d'expertise en codage, en quelques heures ou jours au lieu de semaines ou de mois :
- Vertex AI Search fournit aux développeurs un système de recherche d'informations et de génération de réponses prêt à l'emploi, avec le niveau de qualité de Google Search. Grâce à la prise en charge des modèles Gemini, les développeurs peuvent créer des applications de recherche plus ancrées dans le savoir informationnel de l’entreprise offrant des citations précises et des réponses plus satisfaisantes.
- Vertex AI Conversation offre désormais aux développeurs la possibilité de créer des chatbots conversationnels sophistiqués animés par l'IA générative en utilisant les modèles Gemini. Grâce au raisonnement avancé et aux capacités multimodales de Gemini, les développeurs peuvent créer des expériences conversationnelles avec l’IA à la fois plus personnalisées, plus informatives et plus engageantes.
L'ère Gemini ne fait que commencer - restez à la pointe du progrès
Augmentation de modèles, tests, déploiement, administration et maintenance… l’environnement unifié de Vertex AI permet aux développeurs de créer plus facilement des applications prêtes à passer en production. Ils peuvent aussi s’appuyer sur Google AI Studio (un outil de développement Web gratuit permettant de créer des prototypes et de lancer des applications rapidement avec simplement une clé d’accès aux API) pour tester et évaluer rapidement et simplement les modèles Gemini.
Avec tous ces nouveaux modèles Gemini entre les mains de nos clients, nous sommes impatients de découvrir quelles applications et agents intelligents vous allez créer. Mais, attention, l'ère Gemini ne fait que commencer. Si vous voulez rester à la pointe du progrès, contactez votre responsable de compte afin de vous inscrire sur les listes pour devenir « testeur de confiance » des prochains modèles Gemini. Et ne ratez pas l’occasion de nous rejoindre à Las Vegas en avril prochain pour Google Cloud Next ‘24 : vous y découvrirez nos dernières nouveautés en matière d'IA. En attendant, consultez notre agenda des prochains évènements qui vous permettront d’approfondir vos connaissances sur les produits et les stratégies.