TenderGraph — plateforme IA pour appels d'offresTenderGraph
MinerTITAN
ConsultoríaBlogNuestra visión
Iniciar sesion
Blog/La plupart des experts IA n'en sont pas — et voici pourquoi ça compte
Thought Leadership

La plupart des experts IA n'en sont pas — et voici pourquoi ça compte

Publicado el 29 de marzo de 20268 min de lectura

En resumen

Le marché est inondé d'experts IA autoproclamés qui sont en réalité des experts en automatisation reconvertis. La différence n'est pas sémantique. Elle est fondamentale : l'un fait des workflows, l'autre simule du raisonnement. Et presque personne ne sait faire le second.

Aléaume Muller · 8 min · IA, automatisation, agents-ia

Ouvrez LinkedIn. Tapez "expert IA". Vous trouverez des milliers de profils. La plupart ont la même trajectoire : consultant en transformation digitale, puis automatisation RPA, puis "IA générative" depuis 2023. Leur proposition : brancher un LLM sur vos outils existants. Faire des workflows. Générer du texte.

Ce ne sont pas des experts IA. Ce sont des experts en automatisation qui ont changé de bio.

La distinction n'est pas une coquetterie sémantique. C'est la différence entre un mécanicien et un chirurgien. Les deux utilisent des outils. Un seul comprend ce qu'il coupe.


L'automatisation : faire plus vite ce qu'on sait déjà faire

L'automatisation existe depuis des décennies. Elle a connu un âge d'or avec le low-code et le no-code : n8n, Zapier, Make, Power Automate. Le principe est toujours le même :

SI [déclencheur] ALORS [action A] PUIS [action B] SINON [action C].

C'est déterministe. Reproductible. Testable. Et extrêmement utile. Automatiser l'envoi d'un email de relance quand un prospect ouvre un document, c'est du bon travail d'ingénierie. Ça fait gagner du temps. Ça réduit les erreurs. Ça scale.

Mais ça n'a rien à voir avec l'intelligence artificielle.

Quand un "expert IA" vous propose de "brancher GPT sur votre CRM pour générer des emails personnalisés", il fait de l'automatisation avec un composant LLM. Le LLM est un nœud dans un workflow. Il est appelé, il génère du texte, le texte est injecté dans le nœud suivant. Le raisonnement — s'il y en a un — est délégué au prompt, écrit une fois, jamais remis en question.

C'est comme brancher un moteur de fusée sur une trottinette. La puissance est là, mais l'architecture ne sait pas quoi en faire.


La cognition : faire ce qu'on ne savait pas faire

Un système cognitif ne suit pas un workflow. Il raisonne. La différence est structurelle :

AutomatisationCognition
LogiqueDéterministe (SI/ALORS)Heuristique (évaluation, pondération, arbitrage)
InputStructuré (champs, formulaires)Non structuré (documents, langage naturel, ambiguïté)
OutputQuantitatif (plus vite, plus souvent)Qualitatif (meilleur, plus pertinent, plus juste)
ErreurBug (reproductible, traçable)Biais (subtil, contextuel, cumulatif)
ScalabilitéLinéaire (plus de workflows = plus de résultats)Non linéaire (la qualité dépend de la profondeur, pas du volume)
Expertise requiseIntégration, connecteurs, APIThéorie de l'information, linguistique, architecture cognitive

Un agent IA digne de ce nom ne se contente pas d'appeler un LLM avec un prompt. Il structure le raisonnement du modèle. Il contrôle la température implicite par la syntaxe. Il réduit l'entropie conditionnelle à chaque instruction. Il gère la mémoire de travail, le contexte, l'attention. Il sait que l'information en milieu de contexte est sous-pondérée. Il sait qu'un prompt est un programme déclaratif, pas une conversation.

Ce savoir-faire n'existe pas dans la boîte à outils de l'automaticien.


Le test qui ne trompe pas

Posez une question simple à votre "expert IA" : comment gérez-vous l'attention du modèle sur un contexte de 200 pages ?

L'automaticien répondra : "on découpe en chunks et on fait du RAG". C'est la réponse standard. Elle fonctionne pour une FAQ. Elle échoue lamentablement quand le raisonnement doit croiser 15 documents, peser des exigences contradictoires, et produire un argument qui tient devant un évaluateur expert.

Le cogniticien répondra autrement. Il parlera de compression éditoriale — supprimer le bruit, conserver le signal. Il parlera de contexte frais par phase — effacer l'historique conversationnel pour ne garder que les livrables pertinents. Il parlera de prompt caching — amortir le coût d'un system prompt massif sur des dizaines d'itérations. Il parlera de pré-injection de livrables dans le system prompt pour qu'ils ne soient jamais compactés. Il parlera de la différence entre l'entropie brute et l'entropie conditionnelle.

Ce ne sont pas des mots à la mode. Ce sont des décisions d'architecture qui déterminent si le système produit un document générique ou un document qui gagne.


L'agent IA n'est pas un LLM branché sur des outils

La vision dominante de l'agent IA, celle qu'on voit dans 95 % des démos, est la suivante :

Utilisateur → Prompt → LLM → Outil 1 → LLM → Outil 2 → Résultat

C'est un pipeline. C'est de l'automatisation avec un LLM au milieu. Le LLM décide quel outil appeler, mais la logique est plate : lire, appeler, écrire, recommencer.

Un véritable système cognitif fonctionne autrement :

Contexte stratégique (pré-injecté, caché, jamais compacté)
  + Heuristiques de phase (quel raisonnement appliquer maintenant ?)
    + Mémoire de travail (livrables précédents, décisions utilisateur)
      + Boucle ReAct (raisonner → agir → observer → ajuster)
        + Contrôle qualité (le livrable est-il à la hauteur ?)
          → Résultat qualitatif, traçable, argumenté

Les heuristiques sont le cœur du système. Pas le LLM. Le LLM est le moteur d'exécution. Les heuristiques sont le pilote. Elles déterminent :

  • Quoi lire et dans quel ordre (pas tout d'un coup — document par document, avec reset du contexte entre chaque)
  • Quoi garder et quoi jeter (compression éditoriale : supprimer le boilerplate juridique, garder les verbatim des exigences éliminatoires)
  • Comment raisonner sur ce qui est lu (JTBD pour comprendre le besoin, Shipley pour structurer la réponse, TOGAF pour l'architecture)
  • Comment écrire ce qui est raisonné (patterns argumentatifs calibrés — Miroir-Élévation pour la compréhension, SCR pour la méthodologie, PPP pour les engagements)
  • Comment vérifier ce qui est écrit (matrice de conformité, test évaluateur, cohérence inter-documents)

Supprimez les heuristiques, gardez le LLM et les outils : vous obtenez un générateur de médiocrité très rapide. C'est exactement ce que font la plupart des "solutions IA" du marché.


Pourquoi les experts sont rares

Construire des heuristiques cognitives exige une combinaison de compétences qui n'existe presque nulle part :

  1. Théorie de l'information — comprendre comment un LLM traite le signal, où il perd de l'attention, comment l'entropie conditionnelle détermine la qualité de la sortie
  2. Expertise métier profonde — les heuristiques ne s'inventent pas. Elles se dérivent de l'expérience d'un domaine. Pour l'avant-vente, il faut avoir analysé des dizaines de DCE, rédigé des mémoires techniques, perdu et gagné des marchés, compris pourquoi
  3. Architecture logicielle — gestion de la mémoire, du contexte, du caching, des transitions de phase, de la persistance des décisions. Ce n'est pas un notebook Jupyter
  4. Sens du produit — savoir quand l'agent doit demander à l'humain (pas tout seul, pas tout le temps), où s'arrête le travail de la machine et où commence celui du bid manager

L'automaticien maîtrise le point 3, partiellement. Il lui manque les trois autres. C'est pour ça que ses "agents IA" produisent du volume, pas de la valeur.


Ce que ça change pour vous

Si vous évaluez une solution IA pour votre avant-vente — ou n'importe quel domaine à forte expertise — posez les bonnes questions :

Ne demandez pas : "Quels LLM utilisez-vous ?" Tout le monde utilise les mêmes (GPT-4, Claude, Gemini). Le modèle est un commodity.

Demandez : "Quelles heuristiques avez-vous construites pour mon domaine ?" Si la réponse est vague ("on utilise des prompts optimisés"), c'est de l'automatisation déguisée.

Demandez : "Comment gérez-vous un CCTP de 150 pages avec des exigences contradictoires ?" Si la réponse est "RAG", passez votre chemin. Un CCTP n'est pas une base de connaissances à interroger. C'est un système d'exigences à comprendre, à hiérarchiser, à arbitrer.

Demandez : "Montrez-moi un livrable produit par votre système." Pas une démo. Un vrai livrable, sur un vrai AO. La différence entre un mémoire technique générique et un mémoire qui gagne est visible en 30 secondes par quiconque a déjà noté une offre.


TenderGraph : de la cognition, pas de l'automatisation

Notre système ne branche pas un LLM sur des outils. Il applique 12 phases de raisonnement structuré, chacune avec ses propres heuristiques, ses propres patterns argumentatifs, ses propres contrôles qualité. Il lit un DCE en compression éditoriale — document par document, contexte frais entre chaque lecture, signal pur conservé. Il construit une proposition de valeur ancrée dans les Jobs-to-be-Done du client. Il rédige un mémoire technique où chaque argument est traçable à une exigence, chaque engagement est fondé, chaque section est calibrée pour maximiser le score.

Ce n'est pas un workflow avec un LLM au milieu. C'est un système cognitif qui pense le dossier comme le ferait un directeur de mission senior — avec la rigueur en plus, la fatigue en moins.

Les experts en automatisation construisent des tuyaux. Les experts en cognition construisent des cerveaux. Le tuyau transporte. Le cerveau décide.

Nous construisons des cerveaux.


Lire aussi :

  • L'encodage cognitif optimal : prompt engineering de haute précision
  • Cas pratique : quand l'IA produit de la médiocrité industrielle
  • IA et appels d'offres : pourquoi plus d'automatisation ne veut pas dire plus de marchés gagnés
  • La révolution informationnelle : pourquoi l'IA amplifie le bruit autant qu'elle peut l'éliminer

Artículos recomendados

Thought Leadership

La connaissance client — la clé à double tour de l'appel d'offres

Tout le monde sait qu'il faut 'connaître son client'. Mais la connaissance client agit à deux niveaux que personne ne distingue : elle oriente la solution — et elle envoie un signal que l'évaluateur ne peut pas ignorer. Le premier niveau est attendu. Le second fait basculer les marchés.

Leer artículo
Thought Leadership

Où en est le dossier — la question qui tue l'avant-vente

Chaque semaine, le directeur commercial pose la même question. Chaque semaine, le bid manager répond la même chose : on avance. Cette question n'est pas un problème de communication. C'est le symptôme d'un système de pilotage qui n'existe pas — et dont l'absence coûte bien plus que du temps.

Leer artículo
Thought Leadership

Un outil pour dix — pourquoi l'avant-vente croule sous les logiciels et comment en sortir

Le bid manager moyen utilise dix outils pour un seul dossier. Chaque outil résout un problème et en crée deux autres — jusqu'à ce que la stack elle-même devienne le premier facteur de perte de temps, d'erreur et de défaite.

Leer artículo

Recevez nos analyses

Thought leadership sur l'IA appliquée aux appels d'offres — directement dans votre boîte mail.

Pas de spam. Un email par article publié + une séquence de bienvenue de 7 jours. Désabonnement en un clic.

¿Listo para transformar sus respuestas a licitaciones?

Descubrir TenderGraphHablar con un experto
Logo TenderGraphTenderGraph

Inteligencia artificial para licitaciones publicas

LinkedIn

Producto

RequirementMinerShaping ClientVPC WorkshopArchitectureDesignSolutioningGap FinderTITAN HubTarifas

Cuenta

Iniciar sesionCrear cuentaConsultoria & AcompanamientoNuestra visión IABlog

Legal

Condiciones de usoPrivacidadSupport
© 2026 TenderGraph. Todos los derechos reservados.Entreprise française