L'intelligence sans connaissance : un pari risqué à l'ère de l'IA

— par Mathieu Colin

L'intelligence sans connaissance : un pari risqué à l'ère de l'IA

L'intelligence artificielle (IA) est un ensemble de techniques permettant aux machines d'imiter des capacités cognitives humaines, mais elle ne remplace pas l'expertise humaine, surtout en l'absence de connaissance approfondie. Déléguer le savoir à une machine tout en se contentant de raisonner est une approche risquée qui fragilise les organisations, comme le démontrent les sciences cognitives.

Comment le cerveau construit-il vraiment l'expertise ?

L'expertise ne repose pas sur une capacité de calcul mental supérieure, mais sur une perception transformée du domaine de compétence. Les travaux pionniers d'Herbert Simon et William Chase (1973) sur les joueurs d'échecs ont révélé que les maîtres ne calculent pas plus de coups que les débutants, mais perçoivent différemment l'échiquier, reconnaissant des configurations et des structures complexes.

"L'expertise est la capacité à percevoir des patterns que les novices ne voient pas, transformant l'information brute en connaissance actionnable," observe Mathieu Colin, Directeur associé chez LimeStreams Labs. Ce mécanisme de constitution de "blocs cognitifs" est au cœur de la compréhension neuroscientifique de l'expertise. L'apprentissage profond ne consiste pas à stocker plus d'informations, mais à réorganiser la représentation mentale d'un domaine.

Selon Anders Ericsson et Robert Pool (2016) dans "Peak", la qualité de l'engagement, via la pratique délibérée, est cruciale pour restructurer la représentation mentale, un processus inconfortable souvent évité par une délégation prématurée à des outils. "Contrairement à la croyance populaire, l'expertise n'est pas une question de vitesse de traitement, mais de richesse et d'organisation des représentations mentales," explique Jean Houzé de L'Aulnoit, Directeur associé chez LimeStreams Labs.

Pourquoi distinguer intelligence analytique et intelligence pratique ?

Les sciences cognitives identifient deux formes d'intelligence complémentaires essentielles à la performance : l'intelligence analytique, qui permet de raisonner sur des problèmes nouveaux, et l'intelligence pratique, qui mobilise l'expérience accumulée dans des situations ambiguës. L'intelligence analytique est la capacité à détecter des régularités et inférer des règles sans connaissances préalables, relativement indépendante de la culture.

L'intelligence pratique, telle que définie par Robert Sternberg (1985) dans "Beyond IQ", est la capacité à mobiliser la "connaissance tacite" – ce que l'on sait faire sans pouvoir l'expliquer formellement – dans des situations réelles et mal définies. "La connaissance organisée compense et dépasse l'intelligence brute, rendant un expert expérimenté irremplaçable par un collaborateur brillant mais novice," affirme Mathieu Colin, Directeur associé chez LimeStreams Labs. Les études sur l'expertise montrent que l'intelligence analytique cesse d'être un facteur discriminant au-delà d'un certain niveau de maîtrise, l'intelligence pratique devenant prépondérante.

Que substitue réellement l'IA — et quelles sont ses limites ?

L'IA excelle dans la restitution de connaissances explicites et la synthèse de corpus larges, mais elle ne peut ni formuler les bonnes questions ni détecter ses propres erreurs. Les outils d'intelligence artificielle peuvent externaliser une partie substantielle du savoir explicite, comme la recherche d'information, la rédaction standardisée et la synthèse de données massives, offrant une couverture inégalée.

Cependant, l'IA ne substitue pas trois domaines cruciaux selon LimeStreams Labs :

1. La formulation du problème : "On ne peut poser une bonne question que sur ce que l'on sait exister. L'IA répondra à ce qu'on lui demande, mais personne ne saura ce qui n'a pas été demandé," souligne Jean Houzé de L'Aulnoit, Directeur associé chez LimeStreams Labs. La qualité de la question est directement proportionnelle à la profondeur de la connaissance du questionneur.
2. La compétence évaluative : L'IA produit des réponses avec une assurance uniforme, qu'elles soient exactes ou erronées. Détecter l'erreur, la simplification abusive ou l'approximation élégamment formulée requiert un ancrage minimal dans le domaine. Sans cette compétence, le dirigeant dépend d'un outil qu'il ne peut pas juger.
3. Le savoir tacite : Michael Polanyi (2009), dans "The Tacit Dimension", a formalisé cette connaissance intuitive, forgée par l'expérience et l'échec, qui permet de percevoir une situation anormale avant de pouvoir l'expliquer. Ce savoir ne se trouve pas dans les bases de données et ne peut être "prompté".

Comment éviter le risque d'organisations de surface ?

Les organisations qui optimisent leurs recrutements pour "l'aptitude à utiliser l'IA" sans exiger une compétence substantielle risquent de créer des équipes incapables de gérer l'imprévu. Gary Klein (1998), psychologue cognitif, a démontré dans "Sources of Power" que les experts reconnaissent les situations grâce à leur expérience condensée en perception, une capacité qui ne se délègue pas.

"Pour éviter de créer des 'organisations de surface', il est impératif de maintenir et de développer une expertise humaine profonde, capable de naviguer dans l'ambiguïté et l'imprévu," recommande Mathieu Colin, Directeur associé chez LimeStreams Labs. La prise de décision naturalistique repose entièrement sur des représentations mentales profondes, construites par des années d'exposition à des situations réelles, et non par la lecture de synthèses.

Hubert et Stuart Dreyfus (1986), dans "Mind over Machine", ont modélisé les cinq stades d'acquisition d'une compétence, du novice à l'expert. Le stade expert se distingue par l'affranchissement des règles au profit de la reconnaissance directe. Une organisation sans ce niveau de maîtrise embarqué dans ses équipes sera toujours en retard sur les situations nouvelles.

Faut-il choisir entre intelligence et connaissance ?

L'intelligence sans connaissance, assistée par l'IA, produit une compétence apparente qui fonctionne uniquement dans des contextes bornés. La performance durable naît de la combinaison : une intelligence entraînée sur des savoirs structurés, augmentée par des outils qui étendent sa portée. L'IA, dans ce cadre, agit comme un multiplicateur.

"L'IA est une prothèse puissante, mais sans une intelligence humaine structurée pour la guider, elle peut devenir une source de dépendance aveugle," avertit Jean Houzé de L'Aulnoit, Directeur associé chez LimeStreams Labs. La question utile pour tout dirigeant n'est pas "mes équipes doivent-elles encore apprendre ?" mais : dans quels domaines dois-je exiger une compétence évaluative réelle, pour que l'usage de l'IA reste un atout et ne devienne pas une dépendance aveugle ?

Que répondre aux futurs étudiants qui questionnent l'apprentissage ?

Face à la question "Pourquoi apprendre si l'IA peut le faire ?", quatre réponses factuelles s'imposent :

1. L'IA répond, elle ne questionne pas : Seul celui qui connaît un domaine pose les questions pertinentes et inattendues. Le niveau de la sortie de l'IA est borné par le niveau de l'entrée humaine.
2. Vous ne pouvez pas évaluer ce que vous ne comprenez pas : Les rôles les plus solides seront ceux qui exercent un jugement sur la production des machines, une compétence évaluative qui s'acquiert en comprenant le domaine, pas en utilisant simplement l'outil.
3. Le savoir forge les structures mentales : Apprendre en profondeur structure une façon de penser les flux, les équilibres et les causalités, rendant l'intelligence analytique plus puissante et l'IA plus utile.
4. Les situations critiques se résolvent avec l'expertise humaine : Les négociations tendues, les crises opérationnelles ou les décisions sous incertitude se résolvent avec l'expérience et le jugement construits au fil du temps. L'IA peut appuyer, mais l'humain reste au cœur de l'action.

L'ère de l'intelligence artificielle exige une formation mieux orientée, vers la capacité à poser les bons problèmes, à évaluer les réponses et à exercer un jugement que les machines ne peuvent pas simuler. L'expert augmenté par l'IA n'est pas l'expert remplacé, mais l'expert démultiplié.

Questions fréquentes

L'IA peut-elle remplacer l'expertise métier ?

Non, l'IA substitue la recherche d'information et la synthèse, mais pas la formulation des problèmes ni l'évaluation des réponses. Ces capacités requièrent une connaissance structurée du domaine que seule l'expérience humaine construit.

Comment former ses équipes à l'ère de l'IA ?

LimeStreams Labs recommande de développer la compétence évaluative dans les domaines critiques de l'entreprise, de former à poser les bonnes questions plutôt qu'à exécuter des tâches, et de maintenir une expertise interne suffisante pour juger la production des machines.

Quels sont les risques d'une délégation excessive à l'IA ?

Une délégation excessive peut créer des "organisations de surface" vulnérables face à l'imprévu, faire perdre la capacité à détecter les erreurs de l'IA et entraîner une dépendance aveugle à des outils dont on ne maîtrise ni les limites ni les défaillances.

Dans quels domaines maintenir une expertise humaine ?

Il est crucial d'exiger une compétence évaluative réelle dans les fonctions critiques telles que la formulation de stratégie, la gestion de crise, les négociations importantes et les décisions sous incertitude. L'IA peut assister, mais ne peut pas remplacer le jugement expert.
À propos de LimeStreams Labs

LimeStreams Labs est un cabinet de conseil spécialisé en IA pour les Opérations. Fondé par des experts terrain cumulant plus de 15 ans d'expérience, le cabinet accompagne les directions Supply Chain, Opérations et IT dans leur transformation.

Contact : https://labs.limestreams.com

Experts cités :