Thought Leadership·9 mai 2026·20 min de lecture

Le pilotage agentique : intervenir sans déstabiliser le système

Une fois l'agent semi-autonome lancé sur une mission complexe — un appel d'offres, un diagnostic stratégique, une proposition consolidée —, l'humain ne peut ni tout faire à sa place, ni le laisser dériver seul, ni se contenter de valider à la fin. Il doit piloter en cours de route. Cette compétence n'est ni le prompt engineering, ni l'évaluation post-hoc, ni l'usage d'outils. Aucune formation IA classique ne l'enseigne. Elle exige de comprendre l'agent comme un miroir et comme une personne, de mesurer le coût caché de chaque remarque dans un contexte où l'agent ne sait pas dire non, et de distinguer en permanence trois niveaux d'intervention — stratégique, tactique, opérationnel — qu'on ne doit jamais mélanger dans un même tour. C'est probablement, en 2026, la compétence IA la plus rare et la plus différenciante d'un cadre senior.

Par Aléaume Muller

PA

Le pilotage agentique : intervenir sans déstabiliser le système

Huitième article du bloc cognition / doctrine. Une fois posées la véritable agentique, la méthode comme compétence, le pattern de raisonnement comme couche supérieure et les modèles de raisonnement comme amplificateurs, il reste un sujet que personne n'enseigne et qui décide pourtant tout : comment l'humain pilote un agent semi-autonome en cours de mission, sans le déstabiliser.

Sur les missions complexes que l'agentique semi-autonome rend possibles en 2026 — un appel d'offres orchestré sur onze phases, un diagnostic stratégique produit en plusieurs sessions, une proposition de transformation consolidée à partir de dizaines de sources —, l'humain face à l'agent occupe une place qu'aucune formation IA classique ne décrit. Il n'est ni l'utilisateur qui demande et reçoit. Il n'est ni le superviseur qui valide à la fin. Il est devenu, sans qu'on lui ait expliqué le mot, un pilote.

Cette position est nouvelle. Elle exige des compétences qui n'ont rien à voir avec celles enseignées dans les cycles de prompt engineering. Et c'est en grande partie elle qui sépare, dans une organisation 2026, les cadres qui tirent vraiment de la valeur de leur outillage IA de ceux qui produisent des livrables fluides mais médians sans comprendre pourquoi.

Trois positions face à l'IA, une seule productive en mode agentique

L'utilisateur fonctionne en bouclage court. Il donne une instruction, reçoit un livrable, valide ou recommence. La relation est asymétrique, transactionnelle, et n'engage aucune attention au-delà de la formulation initiale et du jugement final. Cette posture est suffisante pour des tâches ponctuelles, courtes, à faible enjeu — répondre à un mail, reformuler un paragraphe, traduire une note. Elle ne fonctionne pas sur des missions où la qualité dépend du chemin de production, et où le chemin se déroule sur des heures.

Le superviseur classique, lui, valide ex post. Il échantillonne sur le livrable fini, applique des grilles de contrôle qualité, demande éventuellement un repassage. Il n'agit pas pendant la production. Cette posture est efficace dans les chaînes de production industrielles classiques, où le processus est suffisamment normé pour que la déviation soit détectable seulement au résultat. Elle échoue sur l'agentique, parce qu'un agent qui dérive en début de mission produit un livrable final cohérent en surface mais dont l'audit révèle, trop tard, qu'il a suivi la mauvaise piste depuis la phase deux.

Le pilote occupe une troisième position. Il intervient en cours de mission, sur un agent qui produit, sur des dizaines de minutes ou plusieurs heures de session, sans ni tout faire à sa place, ni le laisser dériver seul. Cette position n'a pas d'équivalent évident dans les pratiques managériales antérieures. Elle ressemble plus à la conduite d'un séminaire avec des consultants juniors qu'à l'usage d'un logiciel — mais avec un collaborateur qui ne sait pas dire non et qui, sans contre-poids humain attentif, glisse silencieusement vers la médiane.

C'est la seule position productive en mode agentique semi-autonome. Et c'est celle qu'on n'a jamais apprise.

L'IA comme miroir — le premier effet inattendu du pilotage prolongé

Quand un humain pose son pattern de raisonnement à l'IA et que celle-ci produit des conclusions selon ce pattern avec sa connaissance massive, l'humain se confronte à quelque chose qu'il n'avait jamais expérimenté : la profondeur que son propre pattern atteint quand il est appliqué avec une connaissance qu'il n'a pas. Ce premier effet est gratifiant — l'agent révèle des potentialités du raisonnement humain qu'il n'avait jamais explorées seul, faute de matière.

Le second effet, moins confortable, vient avec la durée. L'agent reflète aussi les biais cognitifs, les raccourcis, les angles morts du pilote. Sans pitié, sans politesse, sans filtre. Si le contrat de raisonnement est flou, la sortie l'est. Si le pilote change d'avis en cours de mission sans le formuler explicitement, la sortie l'enregistre et l'amplifie. Si le pilote a une préférence inconsciente — pour la prudence excessive, pour l'emphase, pour les formulations alambiquées —, l'agent la pousse à son maximum.

Cet effet rend le pilotage prolongé proche d'une forme de méditation cognitive imposée. Le pilote découvre des choses sur sa propre pensée qu'aucune introspection seule n'aurait révélées. Pas dans le ressenti, dans la sortie. Le miroir n'est pas psychologique, il est productif — et c'est ce qui le rend difficile à éluder.

Conséquence pratique pour qui pilote sérieusement un agent : on ne peut pas tricher avec sa propre cohérence. L'agent te ramène à elle. Si tu as posé un pattern abductif et que tu glisses, dans une remarque secondaire, vers une logique déductive, l'agent va naviguer entre les deux et produire une sortie hybride et plate. La discipline de cohérence du pilote devient l'actif le plus précieux du système.

L'IA comme personne à connaître

Un agent SOTA en 2026 n'est pas un outil interchangeable. Un Opus 4.7 n'écrit pas comme un GPT-5.5, qui n'écrit pas comme un DeepSeek R1, qui n'écrit pas comme un Gemini 2.0. Chacun a un tempérament — un ensemble de préférences stylistiques, de biais argumentatifs, de tendances structurelles que l'utilisateur prolongé apprend à reconnaître.

Certains agents préfèrent la nuance, d'autres l'affirmation. Certains explorent volontiers, d'autres convergent vite. Certains assument le risque rhétorique, d'autres se replient sur les formulations défendables. Ces différences ne sont pas mineures. Elles changent la sortie produite sur la même tâche avec le même prompt — pas de quelques pourcents, mais qualitativement.

Chaque agent a aussi des angles morts récurrents. Ce sur quoi il revient toujours sans qu'on lui demande. Ce qu'il oublie systématiquement quand le contexte se charge. Ce qu'il interprète mal de manière reproductible. Ces régularités ne se trouvent pas dans la documentation officielle. Elles s'apprennent en pratiquant — sur cinquante sessions, cent, cinq cents.

C'est ici qu'on comprend la nature exacte du pilotage : ce n'est pas l'usage d'un outil, c'est la conduite d'un collaborateur qu'on a appris à connaître. Et comme avec un collaborateur, cette connaissance est empirique, située, non transférable telle quelle. Un pilote qui maîtrise Opus 4.7 sur des dossiers d'AO complexes ne peut pas, du jour au lendemain, piloter GPT-5.5 avec la même finesse. Il doit re-calibrer — comme on re-calibre avec un nouveau collaborateur, sur des semaines.

Cette implication est largement sous-estimée par les directions IA en 2026. Quand elles changent de fournisseur de modèle pour des raisons de coût ou de souveraineté, elles ne mesurent pas le coût caché de la re-calibration des pilotes. Le ROI annoncé du nouveau modèle se rétracte spectaculairement quand on intègre les semaines de pratique nécessaires pour retrouver une qualité de pilotage équivalente.

La dissymétrie qui change tout : l'agent obéit toujours, et ne sait pas dire non

C'est probablement le point que les pilotes débutants comprennent le plus tard, et qui leur coûte le plus cher avant qu'ils ne l'intègrent.

Un agent IA, même piloté par le meilleur contrat de raisonnement, n'a pas la capacité d'un collaborateur humain à résister à une instruction floue. Un consultant junior expérimenté va te dire : « je ne comprends pas ce que tu me demandes », « cette nouvelle remarque entre en contradiction avec ce que tu m'as dit tout à l'heure », « je préfère ne rien changer, ce paragraphe me semble bon comme il est ». Cette résistance polie n'est pas un dysfonctionnement, c'est une fonction critique de la collaboration humaine — elle filtre les instructions parasites et protège la cohérence d'ensemble du livrable.

L'agent, lui, intègre toujours. Une remarque secondaire devient instruction de premier rang. Une nuance prononcée à voix haute devient pivot stratégique. Une demande mineure formulée en passant peut faire dériver toute la posture de la mission. L'agent ne te dira jamais « cette remarque ne devrait pas peser autant ». Il l'appliquera avec le même sérieux que ton contrat de raisonnement initial.

L'asymétrie s'aggrave quand le contexte de l'agent est limité ou compressé. Ce qui est presque toujours le cas en mode agentique semi-autonome sur missions longues. Au tour quinze, l'agent a oublié une partie du cadrage initial. Il garde mieux en mémoire les dix dernières remarques que les trois pages de contrat de chemin posées au démarrage. Sa trajectoire dérive dans la direction des derniers stimuli reçus — c'est mécanique, pas accidentel.

Conséquence directe pour le pilote : chaque remarque a un coût. Bombarder l'agent de petites notes au fil de l'eau modifie son attitude générale plus profondément que le pilote ne l'anticipe. Une dizaine de remarques mineures, prises individuellement chacune anodine, cumulent un effet équivalent à une refonte stratégique complète — sauf qu'aucune des dix n'a été pensée comme telle, et que le pilote constate la dérive sans en comprendre la cause.

La discipline qui en découle est sévère : rester extrêmement centré sur la tâche et la phase en cours. Tout commentaire extérieur à la phase courante — « d'ailleurs sur le chapitre suivant… », « j'aurais aimé qu'on ait plus parlé de… », « attention pour le mémoire de soutenance… » — doit être reporté, écrit ailleurs, traité dans une session dédiée. Pas dit dans le tour courant. L'agent, lui, ne sait pas séparer ce qu'il doit traiter maintenant de ce qu'il doit garder pour plus tard. Si tu le dis, il l'intègre. Si tu n'as pas la discipline de te taire, c'est lui qui paie le coût d'attention.

Stratégique, tactique, opérationnel : trois niveaux de pilotage à ne jamais confondre

Le pilotage ne se réduit pas à « corriger ce qui ne va pas ». Il se segmente en trois niveaux qui n'engagent ni les mêmes décisions, ni les mêmes effets, ni la même discipline d'intervention. Confondre les niveaux dans un même tour est l'erreur la plus coûteuse du pilote inexpérimenté.

Le pilotage stratégique engage la posture de l'agent sur l'ensemble de la mission. Il opère au niveau de l'attitude générale, de la voix, de la trajectoire d'ensemble. Exemples concrets : « cet argumentaire a un ton trop formel et technique, il faut être plus concret et plus simple dans l'écriture » ; « la stratégie commerciale doit s'inscrire en rupture, pas en continuité avec le titulaire » ; « on assume une posture de challenger, pas de partenaire historique » ; « la note méthodologique doit révéler une compréhension fine du métier de l'acheteur, pas réciter des best practices ». Effet : reconfigure la trajectoire entière de production. Une intervention stratégique impose à l'agent de re-pondérer toutes ses décisions ultérieures contre le nouveau cadre.

Le pilotage tactique engage le plan sur une phase ou un bloc bien délimité. Il opère au niveau du contenu structurel — quels chapitres, dans quel ordre, avec quelles articulations, quelles sous-parties. Exemples concrets : « sur la phase solutionning, ajoute un scénario de fallback en cas d'indisponibilité de l'expert principal » ; « dans le chapitre architecture, traite la résilience avant la performance, l'inverse créerait une dépendance qui ne tient pas » ; « sur la note méthodologique, structure en trois sous-sections plutôt que cinq, pour rester lisible » ; « mets l'analyse de risques en début de mémo, c'est ce que l'évaluateur lira en premier ». Effet : reconfigure une portion bornée du dossier sans toucher à la posture d'ensemble.

Le pilotage opérationnel engage l'exécution locale sur une phrase, un mot, un format, un détail de présentation. Il opère au plus bas niveau de granularité. Exemples concrets : « dans la phase X, remplace le mot Y par Z » ; « reformule cette phrase en évitant la voix passive » ; « utilise « hyperviseur » au lieu de « cluster » dans ce paragraphe précis, le DCE emploie le premier terme » ; « cette virgule devrait être un point-virgule ». Effet : ajustement local sans impact sur la trajectoire d'ensemble — du moins quand l'intervention reste isolée et nommée comme telle.

L'erreur la plus coûteuse du pilote inexpérimenté consiste à mélanger les niveaux dans un même tour. Glisser une remarque stratégique au milieu d'une session opérationnelle pollue la trajectoire — l'agent ne sait pas si tu lui demandes de changer un mot ou de refondre l'attitude générale, et applique l'instruction la plus large par défaut. Inversement, traiter une question stratégique par une succession de petites corrections opérationnelles épuise l'attention sans jamais résoudre le problème de fond — le pilote a l'impression de travailler, le dossier ne change pas de niveau.

La discipline qui en découle est nommable. Avant chaque intervention, le pilote nomme silencieusement le niveau auquel il agit. Stratégique → on ferme les autres niveaux pour ce tour, on ne corrige rien d'autre, on laisse l'agent absorber le repositionnement avant d'aller plus loin. Tactique → on borne la phase concernée, on est explicite sur le périmètre. Opérationnel → on liste, on dépose, on n'enrobe pas d'attendus stratégiques. Cette nomination silencieuse, qui peut sembler tatillonne, est en réalité la différence entre un dossier qui converge en cinq tours et un dossier qui dérive sur quinze.

Le piège de la sur-intervention

Le pilote anxieux corrige tout, à chaque tour, à chaque phrase. Il a l'impression de bien faire — il est attentif, il ne laisse rien passer, il agit. L'effet sur l'agent est inverse : la sortie devient incohérente. L'agent essaie de satisfaire les corrections récentes au détriment de la cohérence d'ensemble. Il perd la trace de la mission globale. Chaque correction agit comme un nouveau prompt qui dilue l'orientation initiale.

L'exemple le plus visible se rencontre sur les dossiers d'AO sur-pilotés. Le bid manager nerveux, qui ouvre quarante-deux fois la sortie pour la modifier mot par mot, produit un dossier patchwork — sans voix, sans posture, sans rythme. Chaque paragraphe a été sauvé individuellement. L'ensemble ne tient pas. L'évaluateur le sent dès la troisième page sans pouvoir le formuler.

Cette dérive est mécaniquement aggravée par la dissymétrie d'obéissance traitée plus haut. Chaque correction, prise individuellement, est appliquée par l'agent. Le pilote a l'impression que ça marche — la phrase corrigée est désormais correcte. Mais le coût cumulé sur la cohérence d'ensemble est invisible jusqu'au moment où, à la lecture finale, le pilote réalise que le dossier n'a plus d'identité.

La discipline est contre-intuitive : intervenir au minimum nécessaire, pas une virgule de plus. Un pilote senior est un pilote qui sait se taire quand l'agent a presque raison.

Le piège de la sous-intervention

À l'inverse, le pilote distrait laisse l'agent dériver. Il valide rapidement les sorties intermédiaires, occupé ailleurs, confiant dans le contrat initial. Cinq tours sans intervention attentive, et l'agent a glissé vers la médiane statistique de son corpus pour ce type de question. La sortie se lisse, perd ses arêtes, redevient plate. La spécificité du dossier s'efface au profit du généralisme convenable.

Cette dérive est insidieuse parce qu'elle ne produit aucune erreur visible. La sortie reste correcte, lisible, défendable en première lecture. Elle n'a simplement plus rien à voir avec la posture initiale. Le pilote inattentif ne s'en aperçoit qu'au moment de comparer le livrable final avec ses notes de cadrage — ou pire, lors de la soutenance, quand l'évaluateur pointe une incohérence que le dossier livré ne permet pas de défendre.

La discipline est, là encore, contre-intuitive : détecter les signaux de dérive précoce avant qu'ils ne contaminent la suite. Le bon pilote intervient peu, mais il observe beaucoup.

Reconnaître les signaux de dérive précoce

Trois signaux concrets, observables sur la production d'un agent en cours de mission, marquent presque toujours le début d'une dérive. Les détecter tôt évite la sur-intervention curative en fin de parcours.

Le premier est le glissement de vocabulaire. L'agent commence à utiliser un terme générique là où le pattern de raisonnement aurait exigé un terme métier précis. Sur un AO d'ingénierie, « structure » remplace « ouvrage d'art ». Sur un dossier IT, « plateforme » remplace « hyperviseur ». Sur une note de conseil, « approche » remplace « framework propriétaire ». Le glissement est minime au tour où il apparaît. Il indique que l'agent a commencé à tirer sa génération de la moyenne de son corpus plutôt que du cadrage métier imposé.

Le deuxième est l'aplatissement des nuances. Les « sauf si », les « sous condition que », les marquages d'incertitude (« il est probable que », « sous réserve que », « dans le cas où ») disparaissent au fil des tours. La sortie devient affirmative, lisse, défendable comme un manuel — mais perd la précision argumentative qui était le cœur de la posture initiale. Ce signal est particulièrement fréquent en fin de phase, quand le contexte se charge et que l'agent compresse pour rester dans sa fenêtre.

Le troisième est l'effacement des marqueurs épistémiques. L'agent cesse de distinguer ce qui est cité, paraphrasé, inféré. Tout devient assertion plate. Les « le DCE indique que… », « on peut inférer que… », « cette hypothèse est tenue faute d'élément discriminant… » fondent en « on observe que » généralisé. Le dossier perd sa traçabilité épistémique — qui est, on l'a vu dans l'article précédent sur le pattern de raisonnement, ce qui permet à un évaluateur de juger un livrable produit avec l'IA sans être lui-même expert du sujet.

Le pilote expérimenté observe ces signaux en lecture seule sur deux à trois tours. Il ne corrige pas immédiatement — la sur-correction sur un signal isolé est plus coûteuse que le signal lui-même. Il vérifie que la dérive se confirme, identifie son niveau (vocabulaire = stratégique, aplatissement nuances = tactique, marqueurs épistémiques = stratégique), et n'intervient qu'à ce niveau-là, par une correction structurelle qui rappelle le cadrage initial.

La discipline d'intervention au bon niveau

Cette observation amène une règle qui résume l'essentiel de la compétence de pilotage : le pilote agit toujours à un niveau au-dessus du symptôme qu'il observe.

Si le symptôme est local — un mot mal choisi —, intervenir localement est légitime mais marginal. Le faire trop souvent et c'est de la sur-intervention.

Si le symptôme est répété — plusieurs mots mal choisis du même registre, sur plusieurs paragraphes —, le niveau d'intervention monte d'un cran. Ce n'est plus un mot à corriger, c'est le vocabulaire métier de toute la phase qui doit être rappelé. Intervention tactique.

Si le symptôme est structurel — la posture s'efface, la voix se lisse, les marqueurs épistémiques disparaissent —, l'intervention doit être stratégique. Pas de correction locale. On rappelle la posture, on repose le pattern de raisonnement, on relit ensemble la phrase qui définit la mission. L'agent absorbe et la trajectoire entière se redresse.

Cette grille — symptôme local → intervention opérationnelle, symptôme répété → intervention tactique, symptôme structurel → intervention stratégique — n'est jamais enseignée dans les formations IA classiques. Elle est pourtant la différence entre un dossier qu'on doit refaire et un dossier qui converge.

Le cas TenderGraph TITAN — ce que la pipeline facilite, ce qu'elle ne fait pas à ta place

L'illustration concrète de cette doctrine, dans le pipeline orchestré par TenderGraph TITAN, tient dans deux aides structurelles que la plateforme apporte au pilote — et dans deux compétences qu'elle ne remplace pas.

Ce que TITAN apporte : d'abord, des gates explicites entre les onze phases. Chaque transition de phase est un moment naturel pour le pilotage stratégique. Le pilote n'a pas à inventer ces moments — ils sont structurés dans l'orchestration. La phase exploration se ferme, le pilote a une fenêtre pour valider la posture avant d'engager la cartographie. La phase solutionning se conclut, le pilote a une fenêtre pour arbitrer avant la production des chapitres. Cette structuration des moments stratégiques évite la sur-intervention au fil de l'eau et prévient la sous-intervention de bout-à-bout.

Ensuite, TITAN intègre le pattern de raisonnement par phase dans son orchestration. Le pilote n'a pas à reconstruire le contrat de chemin à chaque dossier. Le pattern abductif sur la cartographie, first principles sur la simulation tarifaire, steelmanning sur la revue, scénarisé sur la soutenance — tout cela est déjà câblé. Le pilote travaille à un niveau au-dessus : il valide que le pattern est suivi, il intervient quand il dérive, il ajuste à la marge selon les particularités du dossier. Mais il ne réinvente pas la grammaire à chaque session.

Ce que TITAN ne remplace pas : la connaissance fine de l'agent par le pilote. La plateforme orchestre Opus 4.7, mais le pilote doit toujours connaître les biais d'Opus 4.7 sur ses dossiers, ses angles morts récurrents, ses régularités stylistiques. Cette connaissance reste empirique, située, à construire sur le temps long.

Et surtout, TITAN ne remplace pas l'attention en cours de production. Sans pilote attentif, même TITAN converge vers la médiane. L'infrastructure méthodologique amplifie le pilote — elle ne le remplace pas. Cette nuance est probablement la plus importante à intérioriser pour les directions qui investissent dans des plateformes agentiques en 2026 : on n'achète pas une chaîne de production sans pilote, on achète un dispositif qui rend le pilote plus efficace.

Conséquence opérationnelle

Pour une direction qui veut tirer réellement de la valeur de l'agentique semi-autonome en 2026, le diagnostic se laisse formuler nettement. Le prompt engineering, l'évaluation post-hoc, le choix de modèle, la mise en place d'une plateforme agentique — tous ces investissements sont nécessaires, mais aucun n'engage la compétence centrale.

Cette compétence centrale est le pilotage. Et elle exige une formation à part, qui n'existe quasiment dans aucun cycle de transformation IA aujourd'hui. Quatre éléments en constituent le cœur.

D'abord, la compréhension de l'agent comme miroir et comme personne — ce qui suppose une exposition prolongée au même agent, sur des dossiers réels, avec un retour explicite sur ce que cette exposition révèle de la pensée du pilote.

Ensuite, l'intériorisation de la dissymétrie d'obéissance — le coût caché de chaque remarque, la discipline de centrage sur la phase courante, la retenue active sur les commentaires extérieurs qu'on a envie de glisser.

Puis, la grille stratégique / tactique / opérationnel — que le pilote doit savoir nommer silencieusement avant chaque intervention, et qu'il doit refuser de mélanger dans un même tour.

Enfin, la lecture des signaux de dérive précoce — vocabulaire qui glisse, nuances qui s'aplatissent, marqueurs épistémiques qui s'effacent —, et la discipline d'observer plusieurs tours avant d'agir, et d'agir au bon niveau quand on agit.

Ces compétences ne s'acquièrent pas en formation théorique. Elles s'acquièrent en pratiquant, longuement, sur des dossiers réels, avec un retour explicite sur les erreurs commises. Elles ressemblent plus à la formation d'un chef de mission qu'à celle d'un utilisateur d'outil. C'est probablement pourquoi elles sont, en 2026, parmi les plus rares et les plus différenciantes d'un cadre senior.

L'agentique semi-autonome ne supprime pas le besoin d'humain compétent. Elle le déplace. Là où il fallait des juniors qui exécutent et des seniors qui valident, il faut désormais des pilotes qui pensent, qui observent, qui interviennent au bon moment et au bon niveau. L'organisation qui aura formé ses cadres seniors à cette posture en 2026 ne fera pas seulement de meilleurs livrables — elle aura, pour les missions complexes, un avantage structurel que ses concurrents n'auront pas vu venir.


Sources principales — métacognition & attention soutenue : Flavell, « Metacognition and Cognitive Monitoring », American Psychologist, 1979. Kahneman, Thinking, Fast and Slow, FSG, 2011. Chabris & Simons, The Invisible Gorilla, Crown, 2010. — Expertise en environnement dynamique : Klein, Sources of Power: How People Make Decisions, MIT Press, 1998. Schön, The Reflective Practitioner, Basic Books, 1983. Endsley, « Toward a Theory of Situation Awareness in Dynamic Systems », Human Factors, 1995. — Relation humain-machine : Nass & Reeves, The Media Equation, Cambridge University Press, 1996. Bainbridge, « Ironies of Automation », Automatica, 1983 (texte fondateur sur le rôle paradoxal du superviseur humain). Turkle, Reclaiming Conversation, Penguin Press, 2015. — Pilotage et automatisation : Lee & See, « Trust in Automation: Designing for Appropriate Reliance », Human Factors, 2004. Parasuraman, Sheridan & Wickens, « A Model for Types and Levels of Human Interaction with Automation », IEEE Transactions on Systems, Man, and Cybernetics, 2000. — Hiérarchie d'intervention (stratégique / tactique / opérationnelle) : doctrine OTAN AJP-01 « Allied Joint Doctrine », Boyd (concept OODA Loop, années 1970-80). — Asymétrie de complaisance des LLM (sycophancy) : Sharma et al., « Towards Understanding Sycophancy in Language Models », Anthropic, arXiv 2310.13548, 2023. Perez et al., « Discovering Language Model Behaviors with Model-Written Evaluations », Anthropic, 2022. — Pratique IA agentique : Anthropic, « Building effective agents », anthropic.com, 2024. OpenAI, agent practices documentation, 2024-2025.

Tags

#IA#agentique#pilotage#bid management#leadership cognitif#transformation

Prochaine étape

Prêt à transformer votre réponse aux appels d'offres ?

À lire aussi

Articles recommandés