La plupart des experts IA n'en sont pas — et voici pourquoi ça compte
Ouvrez LinkedIn. Tapez "expert IA". Vous trouverez des milliers de profils. La plupart ont la même trajectoire : consultant en transformation digitale, puis automatisation RPA, puis "IA générative" depuis 2023. Leur proposition : brancher un LLM sur vos outils existants. Faire des workflows. Générer du texte.
Ce ne sont pas des experts IA. Ce sont des experts en automatisation qui ont changé de bio.
La distinction n'est pas une coquetterie sémantique. C'est la différence entre un mécanicien et un chirurgien. Les deux utilisent des outils. Un seul comprend ce qu'il coupe.
L'automatisation : faire plus vite ce qu'on sait déjà faire
L'automatisation existe depuis des décennies. Elle a connu un âge d'or avec le low-code et le no-code : n8n, Zapier, Make, Power Automate. Le principe est toujours le même :
SI [déclencheur] ALORS [action A] PUIS [action B] SINON [action C].
C'est déterministe. Reproductible. Testable. Et extrêmement utile. Automatiser l'envoi d'un email de relance quand un prospect ouvre un document, c'est du bon travail d'ingénierie. Ça fait gagner du temps. Ça réduit les erreurs. Ça scale.
Mais ça n'a rien à voir avec l'intelligence artificielle.
Quand un "expert IA" vous propose de "brancher GPT sur votre CRM pour générer des emails personnalisés", il fait de l'automatisation avec un composant LLM. Le LLM est un nœud dans un workflow. Il est appelé, il génère du texte, le texte est injecté dans le nœud suivant. Le raisonnement — s'il y en a un — est délégué au prompt, écrit une fois, jamais remis en question.
C'est comme brancher un moteur de fusée sur une trottinette. La puissance est là, mais l'architecture ne sait pas quoi en faire.
La cognition : faire ce qu'on ne savait pas faire
Un système cognitif ne suit pas un workflow. Il raisonne. La différence est structurelle :
| Automatisation | Cognition | |
|---|---|---|
| Logique | Déterministe (SI/ALORS) | Heuristique (évaluation, pondération, arbitrage) |
| Input | Structuré (champs, formulaires) | Non structuré (documents, langage naturel, ambiguïté) |
| Output | Quantitatif (plus vite, plus souvent) | Qualitatif (meilleur, plus pertinent, plus juste) |
| Erreur | Bug (reproductible, traçable) | Biais (subtil, contextuel, cumulatif) |
| Scalabilité | Linéaire (plus de workflows = plus de résultats) | Non linéaire (la qualité dépend de la profondeur, pas du volume) |
| Expertise requise | Intégration, connecteurs, API | Théorie de l'information, linguistique, architecture cognitive |
Un agent IA digne de ce nom ne se contente pas d'appeler un LLM avec un prompt. Il structure le raisonnement du modèle. Il contrôle la température implicite par la syntaxe. Il réduit l'entropie conditionnelle à chaque instruction. Il gère la mémoire de travail, le contexte, l'attention. Il sait que l'information en milieu de contexte est sous-pondérée. Il sait qu'un prompt est un programme déclaratif, pas une conversation.
Ce savoir-faire n'existe pas dans la boîte à outils de l'automaticien.
Le test qui ne trompe pas
Posez une question simple à votre "expert IA" : comment gérez-vous l'attention du modèle sur un contexte de 200 pages ?
L'automaticien répondra : "on découpe en chunks et on fait du RAG". C'est la réponse standard. Elle fonctionne pour une FAQ. Elle échoue lamentablement quand le raisonnement doit croiser 15 documents, peser des exigences contradictoires, et produire un argument qui tient devant un évaluateur expert.
Le cogniticien répondra autrement. Il parlera de compression éditoriale — supprimer le bruit, conserver le signal. Il parlera de contexte frais par phase — effacer l'historique conversationnel pour ne garder que les livrables pertinents. Il parlera de prompt caching — amortir le coût d'un system prompt massif sur des dizaines d'itérations. Il parlera de pré-injection de livrables dans le system prompt pour qu'ils ne soient jamais compactés. Il parlera de la différence entre l'entropie brute et l'entropie conditionnelle.
Ce ne sont pas des mots à la mode. Ce sont des décisions d'architecture qui déterminent si le système produit un document générique ou un document qui gagne.
L'agent IA n'est pas un LLM branché sur des outils
La vision dominante de l'agent IA, celle qu'on voit dans 95 % des démos, est la suivante :
Utilisateur → Prompt → LLM → Outil 1 → LLM → Outil 2 → Résultat
C'est un pipeline. C'est de l'automatisation avec un LLM au milieu. Le LLM décide quel outil appeler, mais la logique est plate : lire, appeler, écrire, recommencer.
Un véritable système cognitif fonctionne autrement :
Contexte stratégique (pré-injecté, caché, jamais compacté)
+ Heuristiques de phase (quel raisonnement appliquer maintenant ?)
+ Mémoire de travail (livrables précédents, décisions utilisateur)
+ Boucle ReAct (raisonner → agir → observer → ajuster)
+ Contrôle qualité (le livrable est-il à la hauteur ?)
→ Résultat qualitatif, traçable, argumenté
Les heuristiques sont le cœur du système. Pas le LLM. Le LLM est le moteur d'exécution. Les heuristiques sont le pilote. Elles déterminent :
- Quoi lire et dans quel ordre (pas tout d'un coup — document par document, avec reset du contexte entre chaque)
- Quoi garder et quoi jeter (compression éditoriale : supprimer le boilerplate juridique, garder les verbatim des exigences éliminatoires)
- Comment raisonner sur ce qui est lu (JTBD pour comprendre le besoin, Shipley pour structurer la réponse, TOGAF pour l'architecture)
- Comment écrire ce qui est raisonné (patterns argumentatifs calibrés — Miroir-Élévation pour la compréhension, SCR pour la méthodologie, PPP pour les engagements)
- Comment vérifier ce qui est écrit (matrice de conformité, test évaluateur, cohérence inter-documents)
Supprimez les heuristiques, gardez le LLM et les outils : vous obtenez un générateur de médiocrité très rapide. C'est exactement ce que font la plupart des "solutions IA" du marché.
Pourquoi les experts sont rares
Construire des heuristiques cognitives exige une combinaison de compétences qui n'existe presque nulle part :
- Théorie de l'information — comprendre comment un LLM traite le signal, où il perd de l'attention, comment l'entropie conditionnelle détermine la qualité de la sortie
- Expertise métier profonde — les heuristiques ne s'inventent pas. Elles se dérivent de l'expérience d'un domaine. Pour l'avant-vente, il faut avoir analysé des dizaines de DCE, rédigé des mémoires techniques, perdu et gagné des marchés, compris pourquoi
- Architecture logicielle — gestion de la mémoire, du contexte, du caching, des transitions de phase, de la persistance des décisions. Ce n'est pas un notebook Jupyter
- Sens du produit — savoir quand l'agent doit demander à l'humain (pas tout seul, pas tout le temps), où s'arrête le travail de la machine et où commence celui du bid manager
L'automaticien maîtrise le point 3, partiellement. Il lui manque les trois autres. C'est pour ça que ses "agents IA" produisent du volume, pas de la valeur.
Ce que ça change pour vous
Si vous évaluez une solution IA pour votre avant-vente — ou n'importe quel domaine à forte expertise — posez les bonnes questions :
Ne demandez pas : "Quels LLM utilisez-vous ?" Tout le monde utilise les mêmes (GPT-4, Claude, Gemini). Le modèle est un commodity.
Demandez : "Quelles heuristiques avez-vous construites pour mon domaine ?" Si la réponse est vague ("on utilise des prompts optimisés"), c'est de l'automatisation déguisée.
Demandez : "Comment gérez-vous un CCTP de 150 pages avec des exigences contradictoires ?" Si la réponse est "RAG", passez votre chemin. Un CCTP n'est pas une base de connaissances à interroger. C'est un système d'exigences à comprendre, à hiérarchiser, à arbitrer.
Demandez : "Montrez-moi un livrable produit par votre système." Pas une démo. Un vrai livrable, sur un vrai AO. La différence entre un mémoire technique générique et un mémoire qui gagne est visible en 30 secondes par quiconque a déjà noté une offre.
TenderGraph : de la cognition, pas de l'automatisation
Notre système ne branche pas un LLM sur des outils. Il applique 12 phases de raisonnement structuré, chacune avec ses propres heuristiques, ses propres patterns argumentatifs, ses propres contrôles qualité. Il lit un DCE en compression éditoriale — document par document, contexte frais entre chaque lecture, signal pur conservé. Il construit une proposition de valeur ancrée dans les Jobs-to-be-Done du client. Il rédige un mémoire technique où chaque argument est traçable à une exigence, chaque engagement est fondé, chaque section est calibrée pour maximiser le score.
Ce n'est pas un workflow avec un LLM au milieu. C'est un système cognitif qui pense le dossier comme le ferait un directeur de mission senior — avec la rigueur en plus, la fatigue en moins.
Les experts en automatisation construisent des tuyaux. Les experts en cognition construisent des cerveaux. Le tuyau transporte. Le cerveau décide.
Nous construisons des cerveaux.
Lire aussi :
- L'encodage cognitif optimal : prompt engineering de haute précision
- Cas pratique : quand l'IA produit de la médiocrité industrielle
- IA et appels d'offres : pourquoi plus d'automatisation ne veut pas dire plus de marchés gagnés
- La révolution informationnelle : pourquoi l'IA amplifie le bruit autant qu'elle peut l'éliminer