L’intelligence artificielle promet depuis des années d’améliorer la prise de décision. Plus rapide, plus objective, plus exhaustive. Pourtant, dans les faits, les systèmes IA échouent souvent non pas parce qu’ils sont mal entraînés, mais parce qu’ils ne comprennent pas le contexte. Ce contexte — culturel, politique, humain, historique — est invisible aux machines. Et pourtant, il est souvent déterminant.
Ce texte explore ce que l’IA ne voit pas, ne peut pas modéliser… et pourquoi cela explique l’échec de tant de projets IA. Il propose aussi des pistes pour construire une nouvelle architecture : une brique cognitive humaine capable de redonner sens aux décisions complexes. LEGIO s’inscrit dans cette ambition.
Décider n’est pas calculer
Les IA de type LLM ou les systèmes d’aide à la décision se basent sur des données, des modèles statistiques, et parfois de la logique floue. Mais décider n’est pas calculer. Décider, c’est assumer une tension dans l’incertitude. C’est souvent choisir sans preuve suffisante, au mauvais moment, avec des conséquences irréversibles.
Ce que les IA ne peuvent pas intégrer :
-
Les tabous implicites d’une organisation (ce qu’on ne dit jamais mais que tout le monde sait)
-
Les règles non-écrites du pouvoir
-
L’histoire émotionnelle d’un acteur stratégique
-
Les effets politiques invisibles d’un choix rationnel en apparence
📌 Exemple : En 2023, un outil de triage médical IA utilisé par Epic Systems est suspendu aux États-Unis après que plusieurs hôpitaux aient constaté des erreurs massives de prédiction. Ce n’est pas un bug technique. C’est une incapacité à saisir le contexte du patient, les arbitrages implicites des soignants, et la réalité de terrain.
[Source : STAT News – “Hospitals find Epic’s AI isn’t so epic”, 2023]
L’ambiguïté est volontaire dans les organisations
Contrairement à une machine, une entreprise ne cherche pas la vérité. Elle cherche l’équilibre. Et cet équilibre repose souvent sur de l’ambiguïté :
-
Ne pas trancher sur une ligne stratégique trop tôt
-
Ne pas dire pourquoi un collaborateur est promu (ou non)
-
Laisser une décision se prendre “toute seule” pour ne pas s’exposer
Or, l’IA oblige à formaliser. Ce que LEGIO appelle « l’effet de désambigüisation forcée » : pour encoder une logique, il faut nommer les critères. Et c’est là que tout explose.
📌 Exemple : L’IA de recrutement d’Amazon, entraînée sur 10 ans de données internes, finit par discriminer systématiquement les profils féminins. Pourquoi ? Parce qu’elle reflète ce que l’organisation ne voulait pas voir : un biais implicite historique.
[Source : Reuters, 2018 – “Amazon scraps secret AI recruiting tool that showed bias against women”]
Le droit entretient volontairement le flou
Le RGPD protège les individus, mais empêche aussi d’aller au bout de certaines logiques IA. Par exemple, dans la détection de fraude ou la tarification assurantielle, des corrélations connues sont interdites d’usage.
Exemple : les jeunes conducteurs sont surreprésentés dans les accidents graves. Pourtant, une IA qui intégrerait ce paramètre de façon trop explicite serait retoquée. Résultat : on crée des systèmes sous-efficaces pour des raisons légales — et l’IA devient le bouc émissaire d’un problème plus profond.
LEGIO et la brique cognitive humaine
Plutôt que d’imposer à l’IA une lecture parfaite du réel, LEGIO propose un autre modèle : construire une brique cognitive humaine intégrée dans les systèmes IA. Cette brique agit comme un interprète, un capteur de signaux faibles, une mémoire affective, un arbitre du non-dit.
LEGIO ne remplace pas le décideur. Il le modélise. Il rend explicite l’implicite. Il trace les tensions, les résistances, les enjeux psychopolitiques d’une décision. Et il aide à les reformuler pour qu’un système IA ne les écrase pas.
Conclusion : Voir ce qu’on refuse de voir
Le véritable enjeu de l’IA décisionnelle n’est pas d’aller plus vite. C’est de révéler les angles morts que l’organisation refuse de nommer. L’IA est un miroir. Elle reflète le non-dit. Et parfois, cela ne plaît pas.
Mais dans les mains d’un acteur lucide, cette transparence peut devenir une arme stratégique. À condition d’y injecter une couche de discernement humain. Une brique cognitive. LEGIO.