TenderGraph — plateforme IA pour appels d'offresTenderGraph
MinerTITAN
ConsultingBlogOur vision
Log in
Blog/L'encodage cognitif optimal : prompt engineering de haute précision
Thought Leadership

L'encodage cognitif optimal : prompt engineering de haute précision

Published on March 27, 202613 min read

Key takeaway

La plupart des guides de prompt engineering se limitent à des recettes. Ce guide pose les fondements théoriques — théorie de l'information, architecture des transformers, pragmatique de Grice — et en tire huit principes opérationnels pour passer de l'artisanat du prompt à son ingénierie rigoureuse.

Aléaume Muller · 13 min · prompt-engineering, IA, théorie-information

Cet article prolonge La révolution informationnelle, où l'on posait le cadre théorique du signal et du bruit dans les appels d'offres. Ici, on descend d'un cran : comment encoder l'information pour qu'un LLM la traite avec une précision maximale ? La réponse se trouve à l'intersection de Shannon, de Grice et de l'architecture des transformers.

Au-delà des recettes

Donnez un rôle. Fournissez du contexte. Montrez un exemple. Ces conseils sont utiles mais superficiels. Ils ne répondent pas à la question fondamentale : pourquoi certaines formulations produisent-elles des résultats radicalement supérieurs à d'autres ?

Un LLM ne comprend pas votre intention. Il calcule, token par token, la distribution de probabilité du token suivant, conditionnée par tous les tokens précédents. Chaque mot que vous écrivez déforme le paysage probabiliste de la réponse. Optimiser un prompt, c'est sculpter un champ de probabilités.

Ce guide synthétise les fondements théoriques en huit principes opérationnels — pour quiconque veut passer de l'artisanat du prompt à son ingénierie rigoureuse.


Principe 0 — Ce que le modèle « voit »

Le LLM ne reçoit pas des mots. Il reçoit des tokens — des fragments de texte découpés par un algorithme statistique (BPE, SentencePiece). Ces tokens sont convertis en vecteurs numériques dans un espace à plusieurs milliers de dimensions. L'ensemble de votre prompt forme une matrice de contexte que le mécanisme d'attention du transformer traite de manière non linéaire.

Conséquence directe : un mot mal choisi ne crée pas simplement une ambiguïté locale. Il propage une distorsion sur l'ensemble de la génération, token après token. L'erreur se compose, comme un biais systématique dans une chaîne de calcul.


Principe 1 — Réduire l'entropie conditionnelle, pas l'entropie brute

La plupart des praticiens confondent « être précis » et « utiliser beaucoup de mots descriptifs ». En théorie de l'information (Shannon, 1948), la métrique pertinente n'est pas l'entropie brute du prompt, mais l'entropie conditionnelle — l'incertitude qui subsiste dans l'espace des réponses possibles après que le modèle ait traité votre prompt.

La fausse précision :

« Donne-moi une analyse détaillée, exhaustive et approfondie de la situation géopolitique. »

Chaque adjectif ajoute des tokens mais n'aide pas le modèle à converger. « Détaillé », « exhaustif », « approfondi » sont quasi-synonymes du point de vue de l'espace vectoriel. Le signal informatif est nul.

La vraie précision :

« Analyse la situation géopolitique sous l'angle des flux énergétiques Russie-UE depuis 2022. Structure : causes → état actuel → 3 scénarios à 5 ans. »

Ici, chaque token contraint l'espace des réponses possibles. « Flux énergétiques » exclut la politique intérieure, le militaire, le culturel. « Depuis 2022 » borne temporellement. La structure imposée élimine l'incertitude organisationnelle.

Le test mental : pour chaque mot de votre prompt, posez-vous la question : « Ce mot élimine-t-il des réponses que je ne veux pas ? » Si la réponse est non, le mot est du bruit. Supprimez-le.


Principe 2 — Exploiter la structure arborescente de l'attention

Un LLM génère séquentiellement, mais son mécanisme de « compréhension » est hiérarchique grâce aux couches d'attention multi-têtes. Il est donc plus efficace de structurer l'information du général au particulier, en arbre, plutôt qu'en liste plate.

Les mécanismes d'attention allouent leurs ressources en fonction de la pertinence positionnelle et sémantique. Une information de cadrage placée en premier « colore » l'interprétation de tout ce qui suit. La même information noyée au milieu d'une liste sera sous-pondérée.

Hiérarchie optimale d'un prompt :

NiveauFonctionExemple
1. OntologiqueQu'est-ce que la chose demandée« Produis un mémo stratégique »
2. TéléologiquePour quoi faire« destiné au comité de direction »
3. BornageCe qui est inclus ET exclu« Périmètre : UE uniquement ; exclure l'Asie »
4. FormeStructure, longueur, format« 2 pages, 3 sections, bullet points »
5. CalibrationNiveau de détail, registre« Ton factuel, niveau expert, sans vulgarisation »

Cet ordre suit la logique de réduction progressive de l'espace des possibles : chaque niveau divise l'espace restant. Inverser cet ordre oblige le modèle à des réajustements rétroactifs coûteux via le mécanisme d'attention.


Principe 3 — Définir par exclusion

En théorie de l'information, un signal est d'autant plus informatif qu'il exclut des alternatives. Corollaire contre-intuitif : dire ce que vous ne voulez pas est souvent plus informatif que dire ce que vous voulez.

Le modèle, lors de la génération, est attiré vers des attracteurs — des patterns de réponse surreprésentés dans ses données d'entraînement. Une demande ouverte comme « explique la mécanique quantique » convergera presque invariablement vers l'analogie du chat de Schrödinger et la dualité onde-corpuscule, car ces motifs sont statistiquement dominants.

Les contraintes négatives (« sans utiliser l'analogie du chat de Schrödinger ; pars du formalisme des espaces de Hilbert ») bloquent les attracteurs de faible valeur et forcent le modèle vers des chemins moins probables mais cognitivement plus riches.

Les contraintes négatives ont un ratio information/token supérieur aux contraintes positives lorsqu'elles ciblent les attracteurs statistiques du modèle.

C'est exactement ce que fait un bon cahier des charges : les exigences les plus discriminantes sont souvent celles qui excluent — « pas de solution SaaS », « pas de sous-traitance pour le lot 2 ».


Principe 4 — Minimiser la distance sémantique d'ancrage

Le modèle organise ses connaissances dans un espace vectoriel où les concepts sémantiquement proches forment des clusters. Si vous utilisez un terme situé à la frontière de deux clusters, vous introduisez une ambiguïté qui propage du bruit dans la réponse.

L'objectif est d'utiliser des termes d'ancrage — des mots qui se situent au centre d'un cluster sémantique dense :

  • Les termes techniques canoniques d'un domaine (noms exacts de théories, de méthodes)
  • Les noms propres (auteurs, frameworks nommés, publications de référence)
  • Les termes rencontrés fréquemment dans des contextes cohérents et univoques

Dire « le truc de Kahneman sur les deux modes de pensée » est sémantiquement flou. Dire « la théorie Système 1 / Système 2 (Kahneman, Thinking, Fast and Slow) » ancre le modèle sur un cluster précis. Le surcoût en tokens est marginal ; le gain en précision est disproportionné.

Règle dérivée : le jargon comme compression. Le jargon technique n'est pas du bruit. C'est un encodage haute densité : un mot technique compresse une définition entière en un ou deux tokens. Dans le bid management, dire « MECE » active un réseau sémantique dense que « structurer de façon exhaustive et mutuellement exclusive » met 30 tokens à décrire.


Principe 5 — Contrôler la température implicite par la syntaxe

Au-delà du paramètre de température explicite, la structure syntaxique même de votre prompt influence la « température effective » de la réponse — le degré d'exploration versus de convergence du modèle.

Dans le corpus d'entraînement, les textes factuels utilisent des phrases déclaratives courtes au présent (SVO), tandis que les textes spéculatifs emploient des structures conditionnelles complexes. Le modèle a internalisé ces corrélations.

Structure syntaxiqueEffet sur la générationUsage optimal
Impératif / indicatif présentConvergence, déterminismeFaits, listes, données
Phrases parataxiques (juxtaposées)Concision, focusInstructions, spécifications
Conditionnel, subordonnéesExploration, nuanceAnalyse, créativité
Modalisateurs (peut-être, il semble)Haute entropie, flou autoriséÀ éviter si précision requise

Pour une précision maximale : indicatif présent, structures parataxiques, zéro modalisateur. Chaque « peut-être » dans votre prompt est une autorisation donnée au modèle d'être flou.

C'est ce qui distingue un executive summary qui percute d'un executive summary qui noie le poisson. La syntaxe est une instruction implicite sans coût en tokens.


Principe 6 — La non-linéarité positionnelle de l'attention

Les travaux sur les transformers (Vaswani et al., 2017) révèlent que l'attention du modèle n'est pas uniformément répartie. Elle présente un biais marqué vers le début et la fin du contexte — l'effet dit de primacy-recency — avec un creux significatif au milieu, particulièrement prononcé dans les contextes longs (Liu et al., « Lost in the Middle », 2023).

Implications pour vos prompts :

  • L'instruction la plus critique doit figurer au tout début OU être rappelée à la toute fin
  • Les informations de contexte volumineuses (documents de référence, données brutes) se placent au milieu
  • Ne jamais enfouir une instruction cruciale dans un long bloc de contexte

Ce phénomène a des conséquences majeures dans les systèmes de réponse aux appels d'offres qui injectent des centaines de pages de DCE dans le contexte d'un LLM. L'information noyée au milieu est littéralement sous-pondérée par le mécanisme d'attention — une exigence P0 à la page 37 d'un CCTP de 150 pages a moins de chances d'être traitée qu'une exigence anodine en page 3.


Principe 7 — L'isomorphisme prompt-réponse

Le modèle tend à reproduire la structure de ce qu'il reçoit. C'est un biais statistique puissant et stratégiquement exploitable.

L'effet dépasse la simple imitation de format. Le niveau d'abstraction, la granularité, le registre lexical du prompt calibrent directement ceux de la réponse. Si vous posez une question avec un vocabulaire universitaire, le modèle répond à ce niveau. La même question formulée avec un vocabulaire de collège produira une simplification proportionnelle.

Le registre de votre prompt est une instruction implicite sans coût en tokens. C'est le levier de contrôle le plus sous-estimé du prompt engineering.

Corollaire : si votre prompt est un flux de conscience désordonné, la réponse héritera de ce désordre. Si votre prompt est structuré en sections clairement délimitées avec des marqueurs explicites, la réponse adoptera une rigueur comparable. C'est la raison pour laquelle un mémoire technique rédigé par un agent bien instruite est structurellement différent d'un mémoire produit par un chatbot générique — le prompt agit comme un moule.


Principe 8 — La compression sémantique par référence nommée

Le principe le plus puissant pour les experts. Plutôt que de décrire un concept, nommez-le. Chaque référence nommée — un théorème, un framework, un auteur canonique — est une compression sémantique extrême : deux ou trois tokens activent dans le modèle un réseau dense de milliers de connaissances associées.

Formulation longue (~30 tokens)Référence compressée (~5 tokens)Ratio
Structurer l'analyse de façon exhaustive et mutuellement exclusive, sans oublis ni recouvrementsUtiliser le framework MECE6:1
Mettre à jour ses croyances en fonction des nouvelles preuves, de manière proportionnée à leur forceRaisonner en bayésien6:1
Considérer que les agents sont rationnels et maximisent leur utilité espérée dans un contexte d'interactions stratégiquesCadre de la théorie des jeux5:1

Condition d'efficacité : ce mécanisme ne fonctionne que si la référence est bien représentée dans les données d'entraînement. Pour des concepts obscurs, combinez la référence avec une brève définition opérationnelle : « Utilise le framework MECE (exhaustivité + exclusivité mutuelle des catégories) ».


Méta-principe — Le prompt optimal est un programme, pas une conversation

La synthèse des huit principes conduit à un changement de paradigme. Le prompt optimal ne ressemble pas à du langage naturel conversationnel. Il s'apparente à un programme déclaratif : il spécifie un état désiré (l'output), des contraintes, des exclusions, un ordre de priorité et une structure de résultat.

Cela ne signifie pas qu'il faille écrire en pseudo-code. Mais chaque phrase doit avoir une fonction identifiable :

FonctionRôle informationnelExemple
CadrerDéfinir l'espace ontologique« Produis une note de synthèse »
ContraindreRéduire l'espace des possibles« 800 mots, registre expert »
ExclureBloquer les attracteurs« Sans lieux communs ni analogies simplistes »
StructurerImposer l'architecture de sortie« Structure : diagnostic → options → recommandation »
CalibrerAjuster le niveau et le ton« Pour un public de data scientists seniors »

Si une phrase de votre prompt n'a aucune de ces fonctions, elle est du bruit informationnel. Supprimez-la.


Conclusion : le prompt comme acte de pensée

Ces huit principes ne sont pas des « trucs et astuces ». Ils sont les conséquences logiques de l'architecture des transformers et de la théorie mathématique de l'information. Les appliquer, c'est passer d'une relation naïve avec le modèle (« je lui parle comme à un humain ») à une relation instrumentée (« je configure un système de traitement de l'information »).

Le paradoxe final est élégant : pour tirer le maximum d'une intelligence artificielle, il faut d'abord exercer rigoureusement la sienne. La qualité d'un prompt reflète la qualité de la pensée qui le précède. Aucun modèle, aussi puissant soit-il, ne compensera un cahier des charges flou.

Le prompt optimal ne demande pas. Il spécifie. Il ne suggère pas. Il contraint. Il ne bavarde pas. Il encode.


Ce que TenderGraph fait de ces principes

Les huit principes décrits dans cet article ne sont pas de la théorie pour nous. Ils sont dans le code. Chaque instruction que notre système envoie au modèle est construite selon ces règles — réduction d'entropie conditionnelle, hiérarchie ontologique, contraintes négatives, ancrage sémantique, contrôle syntaxique de la température, positionnement attentionnel, isomorphisme structurel, compression par référence.

Mais TenderGraph va plus loin. Notre architecture applique des mécanismes que cet article n'aborde pas : compression éditoriale adaptative des documents source, pré-injection de contexte stratégique dans chaque phase de travail, prompt caching pour maintenir la cohérence sur des centaines d'itérations, gestion de la mémoire de travail avec contexte frais par phase et persistance des décisions utilisateur.

Le résultat : un système cognitif qui lit un DCE de 200 pages, en extrait le signal stratégique, construit une proposition de valeur ancrée dans les faits, et rédige un mémoire technique où chaque argument est traçable à une exigence, chaque engagement est fondé, chaque section est calibrée pour maximiser le score.

C'est la différence entre un outil qui génère du texte et un système qui pense le dossier. Et c'est pour cela que les propositions produites avec TenderGraph ne ressemblent à rien de ce que le marché propose aujourd'hui.


Lire aussi :

  • La révolution informationnelle : pourquoi l'IA amplifie le bruit autant qu'elle peut l'éliminer
  • Cas pratique : quand l'IA produit de la médiocrité industrielle
  • Comment rédiger un mémoire technique qui fait gagner des marchés

Références théoriques :

  • Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal.
  • Zipf, G. K. (1935). The Psycho-Biology of Language. Houghton Mifflin.
  • Grice, H. P. (1975). Logic and Conversation. In Syntax and Semantics, Vol. 3.
  • Levy, R. & Jaeger, T. F. (2007). Speakers optimize information density through syntactic reduction. NIPS.
  • Vaswani, A. et al. (2017). Attention Is All You Need. NeurIPS.
  • Délétang, G. et al. (2024). Language Modeling Is Compression. ICLR.
  • Liu, N. F. et al. (2023). Lost in the Middle: How Language Models Use Long Contexts. arXiv.

Recommended articles

Thought Leadership

La connaissance client — la clé à double tour de l'appel d'offres

Tout le monde sait qu'il faut 'connaître son client'. Mais la connaissance client agit à deux niveaux que personne ne distingue : elle oriente la solution — et elle envoie un signal que l'évaluateur ne peut pas ignorer. Le premier niveau est attendu. Le second fait basculer les marchés.

Read article
Thought Leadership

Où en est le dossier — la question qui tue l'avant-vente

Chaque semaine, le directeur commercial pose la même question. Chaque semaine, le bid manager répond la même chose : on avance. Cette question n'est pas un problème de communication. C'est le symptôme d'un système de pilotage qui n'existe pas — et dont l'absence coûte bien plus que du temps.

Read article
Thought Leadership

Un outil pour dix — pourquoi l'avant-vente croule sous les logiciels et comment en sortir

Le bid manager moyen utilise dix outils pour un seul dossier. Chaque outil résout un problème et en crée deux autres — jusqu'à ce que la stack elle-même devienne le premier facteur de perte de temps, d'erreur et de défaite.

Read article

Recevez nos analyses

Thought leadership sur l'IA appliquée aux appels d'offres — directement dans votre boîte mail.

Pas de spam. Un email par article publié + une séquence de bienvenue de 7 jours. Désabonnement en un clic.

Ready to transform your tender responses?

Discover TenderGraphTalk to an expert
Logo TenderGraphTenderGraph

Artificial intelligence for public tenders

LinkedIn

Product

RequirementMinerShaping ClientVPC WorkshopArchitectureDesignSolutioningGap FinderTITAN HubPricing

Account

Log inCreate accountConsulting & AdvisoryOur AI visionBlog

Legal

Terms of UsePrivacySupport
© 2026 TenderGraph. All rights reserved.Entreprise française