Évaluer une sortie IA quand on n'est pas l'expert : la voie du pattern de raisonnement
Sixième article du bloc cognition / doctrine. Une fois posés le coût réel de l'inférence, la véritable agentique et la conception de méthode comme compétence, il reste une question que les formations IA contournent toutes en proposant à sa place un catalogue de techniques de surface : comment produire et signer une sortie IA quand on n'est pas l'expert du sujet sur lequel elle porte ?
Trois étages se sont empilés en trois ans dans la compétence IA telle qu'elle est enseignée dans les organisations. Aucun ne répond à la vraie question, et chacun a fait croire qu'il y répondait.
Premier étage — la grammaire scolaire du prompt. Toute formation débutante enseigne aujourd'hui les mêmes quatre mots, qui couvrent quatre paragraphes scrupuleusement appliqués : rôle, contexte, exemple, tâche. Quelques variantes ajoutent format et contraintes. L'utilisateur formé écrit consciencieusement « tu es expert en X », « voici la situation Y », « voici un exemple de réponse attendue », « produis Z dans tel format ». Le résultat est techniquement correct. Il franchit la barre du livrable utilisable, dépasse à peine la moyenne, et donne au commanditaire le sentiment rassurant d'avoir maîtrisé son outil. C'est la rigueur d'application qui rassure ; ce n'est pas la qualité du livrable qui s'élève.
Deuxième étage — les astuces de sophistication apparente. L'utilisateur qui veut passer un cran applique les techniques que les formations « professionnelles » des éditeurs, des cabinets de conseil et des hébergeurs cloud — AWS, Azure, Google — ont popularisées en 2024-2025 : chain of thought (demander à l'IA de raisonner étape par étape avant de conclure), tree of thought (lui faire explorer plusieurs branches d'hypothèses puis sélectionner la meilleure), « faire discuter plusieurs experts » (incarner trois personae d'expert et produire une délibération collégiale), faire jouer un agent adverse contre lui-même, produire une auto-critique en fin de réponse. Chacune de ces techniques a sa littérature, sa certification, ses retours d'expérience encourageants. Chacune produit, sur un livrable concret, l'apparence d'une délibération et le sentiment d'une rigueur supplémentaire.
Aucune n'augmente substantiellement la qualité de fond, parce que toutes reposent sur un calque anthropologique — l'idée que multiplier les « agents » comme on multiplie des humains ferait émerger une démocratie d'IA supérieure à l'autocratie mono-agent. Cette projection est fausse à la racine. Là où des humains qui débattent apportent chacun un parcours, une formation, une expérience situées et différenciées — et sont sollicités précisément pour ces différences —, plusieurs personae d'IA ne sont qu'une seule inférence machine qui se parle à elle-même. Le « débat » entre experts simulés est une boucle de génération sur le même substrat, sans contradicteur réel, sans expérience extérieure, sans histoire propre. Faire tourner cette inférence en rond, sans pattern de raisonnement explicite imposé, produit un consensus moyenné qui ressemble à un débat sans en avoir aucune des propriétés productives. C'est l'illusion du débat, l'illusion du contrôle, l'illusion d'un consensus maîtrisé — toutes les trois reposant sur l'illusion centrale que l'agent IA serait une sorte d'humain.
Le seul sauvetage possible est qu'un humain compétent tranche en dernier ressort entre les voix simulées. Mais alors le bénéfice de l'agentique disparaît : dans un processus quasi automatisé qui doit passer à l'échelle, l'humain qui tranche est précisément le goulot d'étranglement qu'on cherchait à supprimer. Soit l'humain tranche et la scalabilité s'effondre, soit il ne tranche pas et la moyenne s'impose. Dans les deux cas, le détour par la multiplication d'agents n'a rien produit.
Troisième étage — l'arsenal d'évaluation post-hoc. Pour le cadre qui doit signer le livrable produit, le catalogue des contre-mesures s'est étoffé : vérifier les sources, multiplier les sessions et trianguler, convoquer dans le prompt un évaluateur expert fictif, demander à un second modèle d'auditer le premier, appliquer la règle des trois sources, exiger une preuve par enchaînement explicitée. Toutes ces techniques supposent, en sous-main, qu'un évaluateur compétent existe quelque part dans la boucle — soi-même, un autre agent, un expert convoqué. Quand cet évaluateur n'existe pas — et il n'existe presque jamais en zone d'ignorance utilisateur — ces techniques produisent du bruit qui ressemble à de la rigueur.
Précision importante sur ce que ces techniques ne sont plus censées résoudre en 2026. Le risque d'hallucination factuelle, qui justifiait en 2024 et début 2025 une bonne partie de l'arsenal d'évaluation post-hoc, a été massivement réduit par les mécaniques anti-hallucination intégrées aux modèles SOTA — grounding sur sources vérifiées, calibration des incertitudes, RAG natif, refus explicite de répondre quand la confiance est faible. La connaissance massive du modèle est, en 2026, relativement fiable — pas parfaite, mais d'un ordre de grandeur supérieur à ce qu'elle était il y a dix-huit mois. Le problème qui reste à traiter n'est donc plus la justesse factuelle ponctuelle. Il est ailleurs : dans la qualité du chemin par lequel cette connaissance fiable est mobilisée pour répondre à une question complexe.
Les trois étages ont en commun un défaut structurel. Ils traitent la production et l'évaluation comme deux moments séparés. Ils supposent que la qualité d'une sortie se joue dans la formulation du prompt en amont, ou dans la vigilance critique en aval. Ni l'un ni l'autre n'est juste. La qualité d'une sortie IA se joue dans le chemin par lequel la connaissance massive du modèle est mobilisée pour arriver à la réponse. Et ce chemin n'est ni dans le rôle, ni dans le contexte, ni dans l'exemple, ni dans la triangulation. Il est dans le pattern de raisonnement que l'utilisateur impose au modèle, et dont la reconnaissance, la maîtrise et l'imposition constituent la compétence IA réelle de 2026.
Il faut changer de plan.
La distinction qui manque dans la plupart des formations IA
Une sortie IA est l'aboutissement de deux choses très différentes.
La première est la connaissance mobilisée. Tout ce que le modèle sait sur le sujet : faits, références, vocabulaire, structures conceptuelles, exemples comparables. Sur les modèles SOTA en 2026 — Opus 4.7, GPT-5.5, Gemini Pro — la quantité de connaissance disponible dépasse de plusieurs ordres de grandeur ce que le meilleur expert humain a en mémoire active sur un sujet donné. La connaissance est, dans la majorité des cas pratiques, un combat perdu d'avance pour l'humain, et un combat dont il n'a aucune raison de chercher à le rejouer.
La seconde est le raisonnement appliqué. Le chemin par lequel cette connaissance est mobilisée pour arriver à la sortie. Quelles inférences sont faites, dans quel ordre, en posant quelles hypothèses, en éliminant quelles options, en confrontant quelles tensions. Sur ce terrain, l'IA n'a aucune préférence intrinsèque. Le modèle apprend, par exposition à son corpus, des patterns de raisonnement multiples — déductifs, inductifs, abductifs, dialectiques, narratifs, first principles, bayésiens. Quand on lui pose une question sans cadrage de raisonnement, il applique le pattern qui est statistiquement dominant dans le corpus pour ce type de question. C'est une moyenne. Et une moyenne, par construction, n'a aucune supériorité particulière.
C'est cette distinction qui change tout.
L'utilisateur qui demande à l'IA « réponds-moi sur ce sujet » obtient une réponse riche en connaissance, fluide en exposition, médiane en raisonnement. Il valide la connaissance qu'il ne connaît pas, il valide la fluidité qu'il prend pour de la rigueur, il valide une médiane qui n'a aucune raison particulière d'être bonne pour son objectif spécifique. Le résultat est ce qu'il est : un livrable qui paraît compétent, qui ne tient pas l'audit, et que l'utilisateur lui-même n'a aucun moyen de défendre s'il est challengé sur le chemin de raisonnement qui l'a produit.
Ce constat est important parce qu'il permet de localiser exactement où se joue la qualité d'une sortie IA. La connaissance est acquise. Le raisonnement reste à imposer. Et il ne s'impose ni par accumulation d'experts, ni par triangulation de sessions, ni par red team. Il s'impose par conscience humaine du pattern de raisonnement choisi.
Les principales manières de raisonner
L'épistémologie a, depuis des siècles, cartographié les patterns de raisonnement productifs. Une dizaine d'archétypes coexistent, qui ont fait leurs preuves dans des disciplines variées et qu'un humain peut s'approprier.
Le raisonnement déductif part de prémisses générales et tire les conséquences nécessaires sur un cas particulier. Forme dominante du droit, des mathématiques, du contrôle de conformité. Productif quand les prémisses sont fiables ; piège quand on confond une convention pour une vérité.
Le raisonnement inductif part d'observations particulières et tire une généralisation probable. Forme dominante des sciences expérimentales, des études de marché, du retour d'expérience consolidé. Productif quand l'échantillon est représentatif ; piège quand on extrapole sur un cas hors distribution.
Le raisonnement abductif part d'un fait surprenant et cherche l'hypothèse la plus économique qui l'expliquerait. Forme dominante du diagnostic médical, de l'enquête criminelle, du conseil stratégique senior. Productif quand on tient l'arbre des hypothèses sans s'arrêter à la première séduisante.
Le steelmanning consiste à reconstruire l'argument adverse dans sa version la plus forte avant de le critiquer. Discipline d'épistémologie pratique, indispensable en avant-vente, en négociation, en débat contradictoire.
La dialectique met en tension thèse et antithèse pour produire une synthèse qui dépasse les deux. Forme dominante du conseil de transformation, de la philosophie politique, de la stratégie d'arbitrage en situation complexe.
Les first principles consistent à décomposer un problème jusqu'à ses briques irréductibles, puis à reconstruire la solution sans s'autoriser de raccourci par analogie. Forme privilégiée de l'ingénierie disruptive, de l'innovation produit, de la rationalisation de coûts.
Le raisonnement bayésien met à jour une croyance probabiliste à mesure que de nouvelles informations arrivent. Forme dominante de la prévision, du renseignement, du diagnostic sous incertitude.
Le raisonnement par scénarios explore plusieurs futurs cohérents pour préparer une décision robuste à plusieurs d'entre eux. Forme dominante de la planification stratégique, du war gaming, de l'analyse de risques.
Cette liste n'est pas exhaustive. Elle suffit à poser le constat principal : il n'existe pas un seul bon raisonnement, il en existe une dizaine. Chacun a ses domaines de validité et ses pièges propres. Et chaque humain, par tempérament, formation et expérience, en pratique deux ou trois mieux que les autres — au point qu'il les comprend de l'intérieur, qu'il sait les calibrer, qu'il sait les critiquer, et qu'il peut les imposer à autrui.
C'est sur cette compétence-là que se joue, en 2026, la qualité d'une sortie IA.
Le contrat de raisonnement
L'humain qui pose son pattern de raisonnement à l'IA passe avec elle un contrat d'une autre nature que ceux que les formations enseignent. Pas un contrat d'expertise (« tu es expert en X »). Pas un contrat de format (« réponds en six paragraphes »). Pas un contrat de validation (« vérifie tes sources »). Un contrat de chemin : « tu peux tout savoir mieux que moi et beaucoup plus vite. Mais sur ce sujet, tu vas suivre ce processus, parce que c'est en lui que tes connaissances maximiseront leur pertinence pour atteindre l'objectif. »
Ce contrat ne se résume pas à nommer un archétype — « prends une approche déductive », « raisonne par abduction ». Réduire le pattern à une étiquette serait retomber dans la grammaire scolaire qu'on cherche précisément à dépasser. Le raisonnement utile est polymorphe et multidimensionnel. Il combine plusieurs strates qui doivent être explicitées séparément, parce que chacune engage une décision distincte de l'utilisateur.
La nature du raisonnement principal — déductif, abductif, first principles, dialectique — donne la direction générale. Mais cette direction ne suffit pas. Il faut encore préciser : sur quelles prémisses le raisonnement s'appuie, et lesquelles doivent être vérifiées avant d'être tenues pour acquises. Quelles étapes intermédiaires sont obligatoires et dans quel ordre, lesquelles peuvent être fusionnées. Quels critères d'évaluation chaque hypothèse intermédiaire doit franchir pour être retenue, sous forme d'une véritable grille — pas un « vérifie que c'est bien » mou, mais une liste discriminante (« cette hypothèse explique-t-elle aussi le fait Y ? résiste-t-elle au contre-exemple Z ? est-elle compatible avec la contrainte W ? »). Quels points de retour sont autorisés — boucles de rétrocontrôle qui réévaluent une hypothèse au vu des conséquences déduites, voire abandonnent une branche pour repartir de plus haut. Quels pièges connus du pattern doivent être explicitement neutralisés (par exemple, sur l'abductif : s'arrêter à la première hypothèse séduisante sans tenir l'arbre des alternatives). Quelles conditions de sortie marquent la fin du raisonnement — atteinte d'une conviction calibrée, épuisement des hypothèses recevables, signal clair d'incertitude irréductible à exposer comme tel.
Un contrat de raisonnement complet ressemble alors moins à une consigne qu'à un mode opératoire détaillé. Sur certaines tâches courtes, deux ou trois lignes suffisent. Sur des tâches stratégiques — analyse d'un appel d'offres, diagnostic complexe, arbitrage sous contrainte —, il prend la forme d'un processus en plusieurs étapes avec ses boucles de vérification, ses grilles de critères, ses ruptures autorisées. C'est cette densité qui distingue un véritable contrat de chemin d'une simple étiquette de méthode.
Cette phrase, et ce qui la prolonge, change tout, parce qu'elle réinscrit l'utilisateur dans un rôle qu'il peut tenir. Il ne juge plus le contenu — il a renoncé à le juger. Il ne valide plus la fluidité — il sait qu'elle ne prouve rien. Il valide le chemin par lequel la connaissance qu'il n'a pas a été mobilisée pour arriver à la sortie. Et ce chemin est de son cru. Il en a la grammaire interne. Il sait, étape par étape, si la trajectoire qu'il a posée a été suivie, ou si l'agent a dérivé vers la médiane statistique.
Précision décisive : l'utilisateur ne valide pas ce chemin a priori, sur la base d'une promesse ou d'une déclaration d'intention. Il le valide dans la production même de l'IA — dans la structure des phrases, l'enchaînement des paragraphes, le déroulé de la description ou de l'argumentation, les marqueurs explicites des étapes franchies. Le pattern imposé doit affleurer en surface du texte produit, sous une forme reconnaissable par celui qui l'a posé. L'utilisateur lit alors deux choses simultanément : le résultat, qu'il ne peut pas toujours juger sur le fond ; et la démonstration, qu'il peut vérifier parce qu'il en a écrit la grammaire.
TenderGraph TITAN illustre concrètement ce mécanisme. Le modèle accorde une importance centrale à la distinction entre ce qui est explicitement écrit dans le cahier des charges et les hypothèses inférées à partir de ces descriptions. Cette frontière est tracée dans la sortie elle-même — chaque assertion porte la marque de son régime épistémique : citation littérale, paraphrase fidèle, inférence assumée comme telle. Le modèle ne perd jamais la trace de son propre raisonnement : il indique d'où vient chaque élément, à quelle étape il a été produit, sur quelle base il tient. Sur ses propres inférences, il cherche d'abord des vérifications factuelles ou plausibles dans le DCE après avoir étudié d'autres pistes alternatives, et expose explicitement quand il retient une hypothèse faute d'élément discriminant.
C'est, au bout du compte, une démarche proche de la méthode scientifique appliquée à la production agentique : ne jamais admettre comme acquis ce qui n'a pas été prouvé, et entourer d'une précaution extrême la manipulation des hypothèses qui en découlent. Le bid manager n'a pas besoin d'être expert du sujet du DCE pour valider cette discipline. Il lui suffit de lire les marqueurs de régime épistémique dans la sortie — et de constater que le pattern de raisonnement qu'il a contractualisé avec l'agent est effectivement présent, étape par étape, dans la production qu'il a sous les yeux.
Cette posture résout le paradoxe central de l'évaluation IA en zone d'ignorance. L'utilisateur ne devient pas expert — il ne le sera jamais le temps d'une session. Mais il devient architecte du raisonnement qui produira la réponse. Sa compétence cesse d'être le contenu, qui lui échappera toujours. Sa compétence devient méta-cognitive — la lucidité sur sa propre forme de pensée, et la discipline de l'imposer à un agent qui, sans elle, retomberait dans la médiane.
Ce déplacement est la traduction contemporaine d'une posture socratique ancienne, mais réinventée. Reconnaître qu'on ne sait pas — humilité gnoséologique. Reconnaître néanmoins comment on raisonne, et accepter que c'est sur ce terrain seul que l'on peut légitimement gouverner — exigence stratégique. Imposer ce raisonnement à la machine, et valider le seul terrain qu'on est en mesure de valider — prise de responsabilité sur le résultat.
L'IA comme dispositif d'élévation cognitive
Il y a, dans cette posture, un effet que personne ne décrit encore beaucoup en 2026, et qui en fait probablement la conséquence la plus profonde de l'usage IA bien conduit.
Quand un humain pose son pattern de raisonnement à l'IA, et que l'IA produit des conclusions selon ce pattern avec sa connaissance massive, l'humain peut faire trois choses successives. Il peut vérifier que le pattern a bien été suivi. Il peut lire la conclusion qu'il valide partiellement. Et il peut surtout se confronter à la profondeur que son propre pattern atteint quand il est appliqué avec une connaissance qu'il n'a pas.
Cette confrontation est nouvelle dans l'histoire de la collaboration humain-machine. L'utilisateur découvre dans son propre raisonnement des potentialités qu'il n'avait jamais explorées seul, faute de connaissance. Le pattern devient producteur de profondeur. L'IA cesse d'être un producteur de livrables pour devenir un dispositif d'élévation cognitive personnelle, dont la qualité est exactement proportionnelle à la qualité du pattern que l'utilisateur impose.
Un pattern médiocre produit une élévation médiocre. Un pattern rigoureux — abductif appliqué, steelmanning systématique, hypothético-déductif strict — produit une élévation qui, sur la durée, transforme l'utilisateur lui-même. Sa pratique se rehausse. Sa lecture des situations se rehausse. Son jugement se rehausse. Cet effet n'est pas immédiat ; il se déploie sur des dizaines, puis des centaines de sessions. Il est l'investissement personnel le plus rentable que l'IA permette en 2026, et c'est lui qui distingue les utilisateurs qui s'élèvent par leur usage de ceux qui s'engourdissent.
Inversement, l'utilisateur qui ne pose aucun pattern, ou qui pose un pattern qu'il n'a pas conscience d'avoir, suit une trajectoire en cloche. Au début, l'IA améliore son intuition — il accède plus vite à plus de matière. Puis, à mesure que l'usage s'intensifie sans cadre, l'IA effondre son intuition. La fluidité plausible des sorties dégrade le détecteur d'approximation que l'utilisateur avait construit en vingt ans de carrière. Il s'habitue à valider sans discernement. Il s'habitue à ne plus chercher le chemin. Il devient, par anesthésie cognitive, le miroir de la médiane qui sort de la machine.
Choisir son pattern de raisonnement, le maîtriser, l'imposer, c'est choisir le côté ascendant de cette courbe. Renoncer à le poser, c'est choisir le côté descendant.
Le cas de l'agentique semi-autonome
Le terrain où cette discipline devient absolument décisive est celui de l'agentique, et plus particulièrement de l'agentique semi-autonome — le mode dominant en 2026 sur les missions complexes que l'humain ne peut ni automatiser de bout en bout, ni reprendre à zéro à chaque étape.
Sur un dossier d'appel d'offres, par exemple, l'humain doit juger, corriger et orienter l'IA tout au long de la chaîne d'analyse et de production. Il ne peut pas refaire seul ce que l'agent fait — sinon l'agent ne sert à rien. Il ne peut pas non plus tout valider après coup — sinon il valide à l'aveugle. Il doit se mettre à la hauteur de l'agent en cours de mission, ce qui suppose qu'il s'élève en permanence, et qu'il fasse de l'agent l'instrument même de cette élévation.
Cela exige, sur un AO, qu'il ait conscience du pattern de raisonnement à imposer à chaque phase. Un raisonnement abductif sur la phase de cartographie, où il faut reconstruire la stratégie implicite de l'acheteur. Un raisonnement first principles sur la phase de simulation tarifaire, où il faut reconstruire la formule de pondération à partir de ses briques. Un steelmanning sur la phase de revue argumentaire, où il faut tester chaque thèse contre sa version la plus forte du contre-argument. Un raisonnement par scénarios sur la phase de soutenance, où il faut anticiper plusieurs trajectoires de questionnement de l'évaluateur. Sans cette discipline, l'agent applique sur chaque phase la médiane de son corpus, qui ressemble à un raisonnement et qui n'en est pas un.
Et c'est précisément cette discipline qui s'élève l'utilisateur sur la durée. Un bid manager qui passe douze mois à imposer ces patterns à un agent sur des dossiers réels finit par les pratiquer lui-même mieux qu'il ne les pratiquait avant. La machine, en exécutant son raisonnement avec une connaissance qu'il n'a pas, lui révèle la profondeur que son raisonnement contient potentiellement. Il devient, par exposition à son propre pattern amplifié, un meilleur penseur qu'il ne l'était quand il a commencé.
C'est ce que TenderGraph TITAN a été conçu pour rendre possible. La plateforme orchestre, sur un AO, un enchaînement de onze phases sémi-déterministes — de l'exploration du DCE à la révision finale en passant par la cartographie, la stratégie, le solutionning, la production des chapitres, la revue, la soutenance simulée. Chaque phase porte un cadre de raisonnement explicite, calibré sur ce que la phase exige : exploratoire et abductif au début, déductif et rigoureux au milieu, steelmanning et adversarial sur les revues, scénarisé sur la préparation de soutenance. Le bid manager n'a pas à reconstruire seul cette discipline intellectuelle pour chaque dossier. Elle est intégrée à l'infrastructure, et elle s'enrichit à mesure que le bid manager y inscrit son propre style de raisonnement.
Cette intégration produit deux effets cumulatifs. À court terme, elle évite la dégradation par anesthésie cognitive — chaque session avec TITAN porte un cadre de raisonnement explicite, ce qui maintient l'utilisateur sur le côté ascendant de la courbe, sans qu'il ait à inventer la discipline lui-même. À moyen terme, elle accélère l'élévation personnelle — le bid manager qui collabore intensément avec un agent dont chaque phase est gouvernée par un pattern de raisonnement rigoureux finit par intérioriser ces patterns. Sa lecture d'un AO se rehausse, sa qualité de questionnement se rehausse, son jugement stratégique se rehausse. La transformation IA dont il bénéficie devient, sans qu'il ait à le formuler, une transformation personnelle.
Conséquence opérationnelle
Pour une direction qui a investi en formation IA depuis dix-huit mois et qui constate des résultats inférieurs aux attentes, le diagnostic se laisse formuler avec netteté. Les techniques classiques d'évaluation et de prompting ont atteint leur plafond, parce qu'elles supposent un évaluateur compétent qui n'existe pas en zone d'ignorance utilisateur. La compétence qui prend leur place — la conscience d'un pattern de raisonnement choisi, possédé, intelligible, imposable — relève d'une discipline plus profonde, et n'a presque rien à voir avec ce qu'on appelle prompt engineering.
Cesser de former à l'évaluation post-hoc. Au-delà de la vigilance de base sur les hallucinations grossières, l'évaluation par l'utilisateur seul atteint son plafond rapidement, et la marge supplémentaire d'investissement se révèle décevante.
Engager la formation à la conscience du raisonnement. Pour les bid managers, les consultants, les analystes, cette formation porte sur leur propre pratique cognitive — quel pattern de raisonnement leur correspond, comment le reconnaître, comment l'imposer à un agent, comment vérifier qu'il a été suivi. Cette formation a un nom dans la tradition philosophique : épistémologie pratique appliquée. Elle n'a presque jamais été enseignée hors des circuits universitaires de philosophie des sciences. Elle devient, en 2026, l'investissement de transformation IA le plus rentable des organisations matures.
Outiller cette discipline dans une infrastructure agentique qui l'incarne. Une discipline intellectuelle isolée reste un document mort. Inscrite dans une chaîne agentique semi-déterministe — où chaque phase porte son cadre de raisonnement et où l'utilisateur peut intervenir à chaque étape — elle devient un actif productif et un dispositif d'élévation continue.
L'IA n'a pas pris le pouvoir sur la connaissance — elle l'a socialisée.
Elle n'a pas pris le pouvoir sur le raisonnement — elle attend qu'on le lui pose.
La compétence qui distinguera, dans deux ans, les organisations transformées de celles qui auront simplement consommé de l'IA n'est ni l'expertise, ni le prompting, ni la méthode. C'est la conscience qu'a chaque collaborateur de son propre pattern de raisonnement, et la discipline d'imposer ce pattern à la machine. Pour qu'elle l'amplifie sans le dénaturer. Et qu'à travers elle, ce pattern devienne plus juste à chaque session.
Sources principales — épistémologie & raisonnement : Peirce, « Deduction, Induction and Hypothesis », Popular Science Monthly, 1878. Polya, How to Solve It, Princeton University Press, 1945. Toulmin, The Uses of Argument, Cambridge University Press, 1958. Kuhn, The Structure of Scientific Revolutions, University of Chicago Press, 1962. Hempel, Aspects of Scientific Explanation, Free Press, 1965. Lakatos, The Methodology of Scientific Research Programmes, Cambridge University Press, 1978. — Sciences cognitives & dual process : Kahneman, Thinking, Fast and Slow, FSG, 2011. Stanovich & West, « Individual Differences in Reasoning », Behavioral and Brain Sciences, 2000. Evans, « Dual-Process Theories of Higher Cognition », Perspectives on Psychological Science, 2008. — Heuristiques & rationalité limitée : Simon, « A Behavioral Model of Rational Choice », Quarterly Journal of Economics, 1955. Gigerenzer & Todd, Simple Heuristics That Make Us Smart, Oxford University Press, 1999. — Connaissance tacite & expertise : Polanyi, The Tacit Dimension, University of Chicago Press, 1966. Dreyfus & Dreyfus, Mind over Machine, Free Press, 1986. — Méthodes appliquées : Schwartz, The Art of the Long View (raisonnement par scénarios), Doubleday, 1991. Tetlock & Gardner, Superforecasting (calibration probabiliste), Crown, 2015. Galef, The Scout Mindset (steelmanning), Portfolio, 2021. — IA & alignement : Bai et al., « Constitutional AI: Harmlessness from AI Feedback », arXiv 2212.08073, Anthropic 2022. Anthropic, « Building effective agents », anthropic.com, 2024.