Ingénierie de prompt
L’ingénierie de prompt est la pratique qui consiste à concevoir et affiner les instructions données à des modèles linguistiques d’IA afin d’obtenir de manière fiable les résultats souhaités, en influençant leur comportement sans modifier leurs paramètres internes.
Comprendre Ingénierie de prompt
Les prompts constituent l’interface principale entre les humains et les modèles de langage. Un prompt bien conçu peut considérablement améliorer la qualité, la cohérence et la fiabilité des résultats produits par l’IA. L’ingénierie de prompt englobe tout, du choix des mots et de la clarté des instructions à la définition de rôles, l’utilisation d’exemples (few-shot), le raisonnement étape par étape (chain-of-thought) et la spécification du format de sortie. Parmi les techniques clés de l’ingénierie de prompt, on trouve le zero-shot prompting (instructions directes sans exemple), le few-shot prompting (inclusion d’exemples pour illustrer le format de sortie attendu), le chain-of-thought prompting (inciter le modèle à raisonner étape par étape avant de répondre), le role prompting (assignation d’un rôle ou d’une personnalité pour orienter l’approche du modèle) et le structured output prompting (spécification de formats exacts tels que JSON pour une utilisation programmée). Dans les systèmes à base d’agents, l’ingénierie de prompt est particulièrement cruciale, car le prompt système définit la personnalité, les capacités, les contraintes et le cadre décisionnel de l’agent. La différence entre un agent utile et un agent imprévisible réside souvent dans la conception du prompt. De bons prompts d’agents indiquent explicitement ce que l’agent doit ou ne doit pas faire, donnent des exemples clairs de comportements attendus et incluent des garde-fous pour la sécurité. L’ingénierie de prompt bénéficie de plus en plus d’approches automatisées comme DSPy, qui utilise des algorithmes d’optimisation pour trouver automatiquement les meilleurs prompts. Cependant, les prompts conçus par des humains restent essentiels pour comprendre et contrôler le comportement de l’IA.
Comment GAIA utilise Ingénierie de prompt
Le comportement des agents de GAIA est défini par des prompts système soigneusement conçus et stockés dans son répertoire de prompts. Ces prompts déterminent la manière dont GAIA raisonne sur les courriels, l’agenda et la gestion des tâches, quels outils elle doit privilégier, comment gérer les situations ambiguës et comment communiquer avec les utilisateurs. GAIA utilise également des exemples few-shot dans ses prompts pour extraire systématiquement des données structurées comme les détails des tâches et les événements d'agenda à partir de textes email non structurés.
Concepts liés
Large Language Model (LLM)
Un Large Language Model (LLM) est un modèle d'apprentissage profond entraîné sur d'immenses ensembles de textes, capable de comprendre, générer et raisonner sur le langage humain dans une grande variété de tâches.
chaînage de raisonnement
Le chaînage de raisonnement (Chain-of-Thought, ou CoT) est une technique d’invite qui incite le modèle d’IA à expliciter ses étapes de raisonnement intermédiaires avant de produire une réponse finale, ce qui améliore considérablement la précision sur des problèmes complexes à étapes multiples.
Zero-shot learning
Le zero-shot learning est la capacité d'un modèle d'IA à réaliser des tâches pour lesquelles il n'a jamais été spécifiquement entraîné, en se basant sur des connaissances générales et du raisonnement plutôt que sur des exemples propres à la tâche.
Apprentissage Few-Shot
L'apprentissage few-shot est la capacité d'un modèle d'IA à s'adapter à une nouvelle tâche ou à un nouveau format de sortie à partir de seulement quelques exemples d'entrée-sortie fournis dans l'invite, sans mise à jour des poids.
Modèle de langage volumineux (LLM)
Un modèle de langage volumineux (LLM) est une intelligence artificielle entraînée sur d'énormes quantités de textes et capable de comprendre, de générer et de raisonner sur le langage humain avec une remarquable aisance.


