L’intelligence artificielle peut prédire, catégoriser, scorer. Mais elle ne comprend pas. Et surtout, elle ne comprend rien aux tensions humaines. Ce n’est pas une faiblesse passagère, c’est une limite structurelle.
L’IA peut traiter des données massives, extraire des régularités, modéliser des probabilités. Mais dès qu’elle est confrontée à un conflit implicite, une tension interpersonnelle, une loyauté invisible, elle échoue. Ce que les dirigeants vivent chaque jour — double discours, dissonance stratégique, sabotage passif — est hors cadre pour une IA.
LEGIO est né de ce constat. Ce texte explore pourquoi les IA échouent sur le terrain humain, quelles en sont les conséquences concrètes, et comment une brique cognitive (Matilda, Rhadamanthe) permet de réintégrer l’humain dans la boucle décisionnelle sans le déformer.
1. Les tensions humaines : ce que l’IA ne voit pas
Une tension humaine, c’est un conflit qui ne se dit pas, mais qui pilote. C’est un désaccord entre ce qu’une organisation dit faire… et ce que ses acteurs croient devoir faire.
Ce peut être :
-
Un conflit de loyauté entre deux figures managériales
-
Une résistance à une transformation vécue comme injuste
-
Une tension entre valeurs personnelles et discours corporate
-
Un inconfort éthique jamais verbalisé
📌 Exemple : dans une entreprise de conseil, un projet IA de pricing est mis en œuvre par le siège. Mais les commerciaux terrain le sabotent discrètement, car ils le perçoivent comme destructeur de relation client. Résultat : le ROI est nul, le système est utilisé à 40%, le dashboard dit “succès”, mais le client sent la rupture.
2. Pourquoi l’IA ne comprend pas ces tensions
Parce que l’IA fonctionne par régularité. Elle cherche les patterns dominants. Elle ignore :
-
Les signaux faibles isolés
-
Les non-dits verbaux
-
Les micro-comportements d’alerte
-
Les contradictions émotionnelles
Elle est entraînée pour filtrer le “bruit”. Or ce qu’elle appelle bruit est parfois précisément ce qui contient la vérité humaine du système.
📌 Exemple : un outil IA RH signale une collaboratrice comme « à risque de départ ». En réalité, elle reste — mais entre en résistance passive. Baisse de coopération, gel d’initiatives, blocage de flux. Aucun signal visible. Aucun modèle n’alerte.
3. Cas d’échecs liés à ces tensions non vues
📌 IBM Watson en oncologie : les recommandations de traitement étaient jugées « incohérentes » par les oncologues… parce que le modèle ne comprenait pas la complexité des arbitrages médicaux. [Source : STAT News, 2018]
📌 Amazon IA RH : le système auto-entraîné exclut les profils féminins, non par malveillance, mais parce qu’il reproduit des schémas de sélection passés… sans en questionner l’éthique ou le biais systémique. [Source : Reuters, 2018]
📌 Cas d’un acteur logistique européen : un projet IA de planification génère une crise sociale car il ignore les pratiques “hors système” sur lesquelles reposaient des équilibres humains locaux. Résultat : grèves, gel du projet, perte de confiance.
4. Ce que LEGIO modélise : la tension, pas juste l’indicateur
LEGIO ne score pas les gens. Il cartographie les conflits invisibles, les dissonances, les zones de friction. C’est là que Matilda intervient : module de perception affective, éthique et humaine.
Matilda modélise :
-
L’inconfort collectif non exprimé
-
Les chocs de valeurs invisibles
-
Les logiques affectives qui court-circuitent le système rationnel
Et Rhadamanthe, en miroir, modélise :
-
La rigueur morale implicite d’une décision
-
Le déséquilibre entre narratif et exécution
-
L’écart entre l’action et la légitimité perçue
📌 Exemple simulé : LEGIO détecte qu’un manager promeut un discours de “transparence”, mais que ses actions ne sont pas relayées par ses équipes. Une friction narrative est identifiée. Résultat : LEGIO alerte non sur la performance, mais sur la perte de crédibilité à horizon 6 mois.
5. Ce que cela change dans un projet IA
Une IA augmentée par LEGIO devient :
-
capable de dire “je ne sais pas”
-
sensible aux contextes affectifs
-
prudente face aux données propres mais creuses
-
stratégique dans sa gouvernance, pas juste dans ses performances
Un projet IA qui ignore les tensions humaines produit du rejet, du sabotage, ou du vide. Un projet IA qui intègre LEGIO produit de la lucidité collective.
Conclusion : La tension est un signal, pas un bug
Ce que les IA filtrent comme “anomalie”, LEGIO le lit comme symptôme. Ce que l’entreprise veut lisser, LEGIO le révèle. Pas pour faire peur. Mais pour aider à décider — en pleine conscience des zones de fragilité.
L’IA ne comprendra jamais les tensions humaines. Mais elle peut apprendre à ne plus les ignorer. À condition qu’on l’y aide.
LEGIO est cette aide. Une brique cognitive. Une conscience contextuelle. Une architecture du non-dit.