Accéder au contenu
IA et machine learning

L’art du prompt : comment vous préparer au monde du travail de demain

22 mars 2024
https://storage.googleapis.com/gweb-cloudblog-publish/images/how-to-prompt-engineer-workers-execs.max-1500x1500.png
Priyanka Vergadia

Developer Advocate, Google Cloud

Contactez-nous

Si vous êtes une entreprise et que vous souhaitez vous développer, découvrez comment gagner en productivité avec Google Cloud ou contactez notre équipe commerciale.

Commencer ici

L’IA générative transforme la façon dont on travaille. Mais pas seulement : elle induit aussi une nouvelle façon de penser. À travers cet article, nous vous proposons de découvrir par où commencer pour bien utiliser l’IA générative et comment votre organisation peut vous aider.

Aujourd’hui, la plupart des entreprises explorent le potentiel de l’IA générative et des grands modèles de langage (LLM). Et les premiers cas d’usages et applications concrètes commencent à se répandre dans les organisations. De fait, les dirigeants s’interrogent sur la meilleure façon de tirer avantage de ces technologies au niveau business mais également sur la meilleure manière d’en faire profiter leurs collaborateurs.

Un article récent publié par HBS, le MIT, le BCG, UPenn Wharton et d'autres institutions, montre, par exemple que l’utilisation de l’IA générative a un impact significatif sur les performances des employés : les collaborateurs les plus efficaces ont vu leur productivité augmenter de 17% tandis que les performances des collaborateurs traditionnellement moins « énergiques » ont fait un bond de 43% grâce à l’IA générative.

Difficile aujourd’hui de prédire exactement l’impact des LLM sur les collaborateurs. Mais il apparaît clairement que ces technologies vont non seulement révolutionner profondément toutes les industries, à tous les niveaux, mais également impacter les collaborateurs dans toutes leurs activités. Le succès dépendra à bien des égards de la compréhension qu'ont les collaborateurs de l'IA générative et de la manière dont ces technologies sont intégrées à leurs tâches quotidiennes. De fait, les organisations risquent parfois de constater que les bénéfices apportés par un assistant ou une application boostés à l’IA générative sont plus ordinaires qu’extraordinaires.

Le résumé de Gemini 

  • L'adoption généralisée de l'IA générative implique que l'ingénierie des prompts (ou invites) devienne une compétence essentielle, qui requiert un ensemble distinct d'expertises et de capacités.

  • En ingénierie des prompts, il est essentiel de maîtriser les modèles utilisés afin de pouvoir rédiger des prompts optimisés pour exploiter leurs capacités et obtenir les meilleurs résultats possibles, à la fois pertinents et précis. Dans ce domaine, la réussite relève autant de la créativité que de la science.

« Ce sont les humains à travers la création de prompts qui sont déterminants dans l’obtention de résultats exceptionnels ou au contraire banales, car ce sont leurs mots et leurs idées qui génèrent les résultats ».Ce résumé a été généré par Gemini for Google Workspace.

Par conséquent, l'ingénierie des prompts - technique utilisée pour guider les modèles afin d'obtenir des résultats optimaux - devient une compétence essentielle à développer et à perfectionner, car de plus en plus d'entreprises cherchent à intégrer ce savoir dans tous les aspects de leurs activités.

Pourquoi ce savoir est-il aussi important pour travailler efficacement avec un LLM ? Parce que ce sont les humains à travers la création des prompts qui sont déterminants dans l’obtention de résultats exceptionnels ou au contraire totalement banals. Ce sont leurs mots et leurs idées qui conditionnent les résultats. Dans ce cadre, voici comment nous pouvons les aider.

Le pouvoir du prompt

Pour tirer le meilleur parti d'un LLM, il faut savoir l’interroger pour obtenir les résultats souhaités.

De la même manière qu’un moteur de recherche envoie des résultats en fonction de la requête formulée, les prompts orientent la réponse du modèle d’IA générative. Les mots et les phrases que vous choisissez, la structure de prompt et le contexte que vous fournissez agissent comme des instructions et des conseils qui façonnent le résultat. Si un prompt est inexacte, mal conçue ou vague, le résultat que vous obtiendrez le sera probablement aussi.

Dit autrement, les LLMs ne peuvent pas deviner ce qu’on ne leur demande pas…

Video Thumbnail

Par exemple, le modèle PaLM 2 (Pathways-based Language Model) de Google a étudié des milliards de pages de texte, de sites Web, d’articles universitaires, etc. pour donner naissance à un modèle qui génère du texte et du code en réponse à des prompts langage naturel. Toutefois, en soi, le modèle est dénué de toute compréhension consciente de ces informations. Il n’a même pas conscience de ces informations ou de la manière de les utiliser.

Prenons en exemple le prompt suivant :

« Rédige une explication de la théorie des cordes ».

Ce prompt va générer une réponse mais formulée ainsi, elle n’intègre pas de contexte suffisamment pour orienter le comportement du modèle : elle ne précise pas la tâche que vous essayez d’accomplir pas plus qu’elle ne comporte d’indications sur la nature du résultat attendu. Ce prompt, c’est un peu comme si un collègue vous demandait de finir un projet sans vous fournir de détail sur la portée ou sur ses attentes spécifiques.

Dit autrement, le contexte est fondamental lorsqu’on parle d'ingénierie des prompts. Vous n'êtes pas seulement un producteur mais aussi un metteur en scène : plus vous serez précis et pointilleux, plus votre « acteur » sera performant.

Un LLM qui traite une requête sur la théorie des cordes ne sait pas s'il doit créer un court paragraphe résumant la théorie des cordes, un script vidéo expliquant les concepts fondamentaux ou un programme éducatif complet composé de plusieurs cours couvrant l'ensemble de la théorie et son contexte.

« Le contexte est fondamental lorsqu’on parle d'ingénierie des prompts. Vous n'êtes pas seulement un producteur mais aussi un metteur en scène : plus vous serez précis et pointilleux, plus votre « acteur » sera performant ».

Un prompt plus efficace pourrait ainsi ressembler à l’exemple suivant :

« Rédige un billet de blog de 300 mots expliquant les concepts de base de la théorie des cordes à des élèves âgés de 12 à 14 ans qui étudient la physique pour la première fois. Formule ta réponse en utilisant un langage naturel et des phrases faciles à comprendre ».

Fournir des détails sur le contexte, le public ciblé, le ton, la voix et le format donne au modèle un cadre de référence pour l'aider à peser ses décisions lorsqu'il génère des réponses. Dans certains cas, vous pouvez même fournir des exemples représentatifs ou inclure des informations supplémentaires sur vos clients, votre marché et votre secteur d'activité afin d'aider les LLMs à comprendre votre environnement et vos aspirations lors de la création de contenu.

Les prompts fournissent en quelque sorte un schéma directeur au modèle qui lui permet de déterminer comment ses capacités répondent le mieux aux exigences spécifiques de votre entreprise et de votre audience. C’est pourquoi il est essentiel de concevoir les meilleures prompts possibles afin d’exploiter le modèle au mieux de ses capacités et guider sa génération de réponses pour obtenir des résultats de qualité, pertinents et précis.

Le cycle des « réponses-prompts »

L’ingénierie du prompt ne s’arrête pas à la question de départ : vos réactions aux résultats – sous forme de réponses - jouent également un rôle majeur. En fait, l’art du prompt repose sur une relation symbiotique entre « l’input et l’output », autrement dit ce qui entre et ce qui sort. Le premier prompt (entrée) donne la direction générale et les résultats générés (sortie) constituent une première base sur laquelle vous pouvez réagir en formulant de nouvelles prompts (entrée) afin d’affiner les réponses du LLM (sortie).

Les réponses du LLM sont comme un miroir, reflétant les forces et les faiblesses de votre prompt et des données utilisées pour entraîner le modèle. Les résultats « incorrects » mettent souvent en lumière ce que vous devez améliorer, en fournissant des indices utiles sur les points qui manquent de clarté ou qui nécessitent davantage d'informations pour produire la réponse attendue.

En reprenant l’exemple du prompt sur la théorie des cordes, vous pourrez constater à quel point les réponses du LLM peuvent changer si vous ajoutez des éléments de contexte supplémentaires, tels que :

  • Réponse formulée en simulant un personnage historique ou spécifique
  • Réponse formulée avec des éléments de formatage, tels que des sous-titres, des listes à puces et des appels à l'action
  • Réponse formulée avec des citations, des exemples ou encore des anecdotes
  • Réponse formulée en ajoutant des détails spécifiques et/ou en excluant des informations spécifiques

Pour chaque nouvelle entrée, prenez le temps d’analyser les résultats générés en fonction de vos attentes et continuez à échanger avec le LLM jusqu’à ce que vous soyez satisfait du résultat. Cette boucle d'interactions continue vous permet de tester différentes approches et d'identifier comment des modifications spécifiques de la structure et/ou de la formulation orientent la qualité, l'exactitude et la précision des réponses du modèle.

Le contexte est fondamental lorsqu’on parle d'ingénierie des prompts. Vous n'êtes pas seulement un producteur mais aussi un metteur en scène : plus vous serez précis et pointilleux, plus votre « acteur » sera performant

Un prompt plus efficace pourrait ainsi ressembler à l’exemple suivant :

« Rédige un billet de blog de 300 mots expliquant les concepts de base de la théorie des cordes à des élèves âgés de 12 à 14 ans qui étudient la physique pour la première fois. Formule ta réponse en utilisant un langage naturel et des phrases faciles à comprendre ».

Fournir des détails sur le contexte, le public ciblé, le ton, la voix et le format donne au modèle un cadre de référence pour l'aider à peser ses décisions lorsqu'il génère des réponses. Dans certains cas, vous pouvez même fournir des exemples représentatifs ou inclure des informations supplémentaires sur vos clients, votre marché et votre secteur d'activité afin d'aider les LLMs à comprendre votre environnement et vos aspirations lors de la création de contenu.

Les prompts fournissent en quelque sorte un schéma directeur au modèle qui lui permet de déterminer comment ses capacités répondent le mieux aux exigences spécifiques de votre entreprise et de votre audience. C’est pourquoi il est essentiel de concevoir les meilleures prompts possibles afin d’exploiter le modèle au mieux de ses capacités et guider sa génération de réponses pour obtenir des résultats de qualité, pertinents et précis.

Le cycle des « réponses-prompts »

L’ingénierie du prompt ne s’arrête pas à la question de départ : vos réactions aux résultats – sous forme de réponses - jouent également un rôle majeur. En fait, l’art du prompt repose sur une relation symbiotique entre « l’input et l’output », autrement dit ce qui entre et ce qui sort. Le premier prompt (entrée) donne la direction générale et les résultats générés (sortie) constituent une première base sur laquelle vous pouvez réagir en formulant de nouvelles prompts (entrée) afin d’affiner les réponses du LLM (sortie).

Les réponses du LLM sont comme un miroir, reflétant les forces et les faiblesses de votre prompt et des données utilisées pour entraîner le modèle. Les résultats « incorrects » mettent souvent en lumière ce que vous devez améliorer, en fournissant des indices utiles sur les points qui manquent de clarté ou qui nécessitent davantage d'informations pour produire la réponse attendue.

En reprenant l’exemple du prompt sur la théorie des cordes, vous pourrez constater à quel point les réponses du LLM peuvent changer si vous ajoutez des éléments de contexte supplémentaires, tels que :

  • Réponse formulée en simulant un personnage historique ou spécifique
  • Réponse formulée avec des éléments de formatage, tels que des sous-titres, des listes à puces et des appels à l'action
  • Réponse formulée avec des citations, des exemples ou encore des anecdotes
  • Réponse formulée en ajoutant des détails spécifiques et/ou en excluant des informations spécifiques

Pour chaque nouvelle entrée, prenez le temps d’analyser les résultats générés en fonction de vos attentes et continuez à échanger avec le LLM jusqu’à ce que vous soyez satisfait du résultat. Cette boucle d'interactions continue vous permet de tester différentes approches et d'identifier comment des modifications spécifiques de la structure et/ou de la formulation orientent la qualité, l'exactitude et la précision des réponses du modèle.

Video Thumbnail

L'ingénierie des prompts est autant un art créatif qu'une science, mais pour réussir, il faut être capable de connaître les limites techniques des grands modèles de langage afin de maximiser leur performance et leur précision. Chaque modèle utilise des architectures, méthodes d'entraînement et jeux de données différents : ce qui fonctionne avec l’un peut ne pas être pertinent avec un autre. C’est par l’expérimentation de requêtes que vous pourrez comprendre comment chaque modèle réagit et prend ses décisions. Au passage, vous apprendrez aussi à mieux contrôler les biais et les hallucinations liées à chacun d’eux. Aucun modèle n’est parfait ni sans travers.

Une invitation au travail plus productif

Nous n’en sommes qu’aux prémices de l’IA générative mais elle soulage déjà les collaborateurs sur de nombreuses tâches répétitives, fastidieuses et chronophages, libérant ainsi du temps pour réaliser des tâches à plus forte valeur ajoutée.

Les spécialistes du marketing découvrent comment rédiger un contenu contextuel et attrayant en quelques minutes.
Les développeurs gagnent en productivité grâce aux assistants à la programmation basés sur l’IA générative qui génèrent du code, complètent des lignes de code, aident au débogage, etc.
Les agents des centres de contact réduisent les temps de traitement des demandes grâce aux résumés générés et aux interfaces d’IA générative, ce qui simplifie le travail et améliore l'expérience des clients qu'ils gèrent.

Tandis que de plus en plus d’organisations adoptent l’IA générative, il devient crucial de s’assurer que les collaborateurs possèdent la connaissance et les compétences nécessaires pour exploiter pleinement les modèles et les technologies. Dans cette perspective, investir dans des programmes de formation et/ou capitaliser sur des ressources gratuites, telles que Google Cloud’s Skill Boost for Generative AI, peut clairement aider vos collaborateurs à mieux concevoir et affiner leurs prompts tout en leur évitant les pièges courants, telles que les réponses biaisées ou absurdes.

Lorsque les employés commencent à utiliser l'IA générative, avec leurs idées et leur expertise sectorielle, et qu'ils l'infusent avec les données de votre organisation, ils amplifient leurs capacités - quels que soient leurs niveaux de performance antérieurs. Cependant, le simple fait de disposer des outils ne signifie pas que tous les employés et départements de l’entreprise en tireront les mêmes avantages.

De fait, c’est en investissant dans la formation et les ressources en libre accès, telles que Google Cloud’s generative AI learning path, que les entreprises obtiendront les bénéfices attendus de l’IA générative. La valeur d’un employé formé va bien au-delà de ses performances de rédacteur des prompts : elle résonne dans toute l’entreprise, favorisant la réussite et la croissance à l’ère de l’IA générative.


L'image en début d’article a été créée avec Midjourney, fonctionnant sur Google Cloud, sur la base du prompt suivante : un groupe caricatural d'ingénieurs mixtes entourés de pensées et d'idées. (Ce n'est pas aussi facile que ça en a l'air ! Il a fallu de nombreux essais et une bonne heure d'ajustements pour y parvenir).

Publié dans