Comment se protéger du syndrome de Stockholm technologique face à l’IA ?
- Les technologies numériques peuvent être un danger pour l’autonomie et le libre-arbitre de l’individu, au point de lui faire oublier son aliénation.
- La substitution de la machine perçue comme vecteur d’agression à une machine comme vecteur d’apaisement s’apparente à un « syndrome de Stockholm » technologique.
- Si l’innovation numérique est perçue comme intrinsèquement positive, elle peut cependant émanciper et aliéner à la fois, selon les conditions de son adoption.
- Pour rester centrée sur notre humanité, l’intelligence artificielle doit s’appuyer sur une forme d’intégrité simulée artificielle, construite en référence aux valeurs humaines.
- L’intégrité artificielle repose sur la capacité à prévenir et limiter les écarts d'intégrité fonctionnels, condition sine qua non pour garantir que les bénéfices des technologies numériques ne se construisent pas au détriment de l’humain.
L’adoption des technologies numériques ne peut être réduite à une simple décision rationnelle ou à une évolution fonctionnelle des pratiques et des usages. Elle détache, progressivement ou non, les individus de leurs cadres de référence initiaux et de leurs structures habituelles, pour les immerger dans des environnements régis par des logiques externes, celles imposées par la technologie elle-même. Ce basculement représente une reconfiguration profonde des structures cognitives, sociales et comportementales de l’individu, sous l’effet de logiques algorithmiques et prescriptives qui supplantent ses propres cadres de référence. Ce processus de transition technologique, loin d’être neutre, s’apparente à une forme de capture symbolique dans laquelle l’individu, confronté à la violence du changement, active des mécanismes de défense psychiques face à ce qu’il perçoit comme une agression à son autonomie, à son libre-arbitre, et à son intégrité identitaire.
Lorsque l’adoption est jugée réussie, cela signifie que les structures de défense initiales ont cédé : l’utilisateur a non seulement intégré les règles imposées par la technologie, mais a développé une forme d’identification affective envers elle, réinterprétant l’origine de la contrainte comme une relation choisie. À ce stade, un nouveau régime normatif se met en place. Ce basculement marque la substitution de l’ancien cadre de référence par celui de la machine, désormais perçu comme familier et rassurant. L’agression initiale est refoulée, et les nouveaux automatismes cognitifs deviennent objets de défense.
Ces stimuli activent le biais de confirmation émotionnelle et transforment la coercition en bienveillance perçue.
Ce phénomène, que l’on peut assimiler au « syndrome de Stockholm » dans le rapport entre l’homme et la machine, implique une dislocation des référents cognitifs, suivie d’une reconfiguration émotionnelle dans laquelle la victime en vient à protéger son agresseur technologique. L’asservissement cognitif ainsi produit n’est pas un effet secondaire, mais un mécanisme de survie. Il est alimenté par les tentatives du cerveau de réduire le stress généré par l’intrusion d’un cadre de pensée étranger. Cette réécriture émotionnelle permet d’assurer une forme de cohérence interne face à l’aliénation technologique. L’attention de l’usager se détourne alors de la violence initiale pour se fixer sur les signaux positifs émis par la machine : validation sociale, gratification algorithmique, récompense ludique. Ces stimuli activent le biais de confirmation émotionnelle et transforment la coercition en bienveillance perçue.
Le risque accru de la dépendance des individus à la technologie
Par un processus de plasticité neuronale, les circuits cérébraux réorganisent la perception du rapport à la machine : ce qui était stress devient normalité ; ce qui était domination devient soutien ; et ce qui était agresseur devient compagnon. Une inversion du schéma de pouvoir s’opère par la reconfiguration du noyau accumbens et du cortex préfrontal, ancrant une nouvelle relation affective contrainte, un phénomène de plus en plus reconnu au sein de la communauté en informatique comme une forme d’agence computationnelle, dans laquelle les logiciels reconfigurent activement la perception, le comportement et le jugement affectif. Ce phénomène représente l’un des périls fondamentaux que l’intelligence artificielle fait peser sur l’humanité : la normalisation de la dépendance mentale comme vecteur d’acceptabilité sociale. C’est pourquoi il ne suffit pas de concevoir des systèmes artificiellement intelligents : il faut impérativement leur adjoindre une capacité d’intégrité artificielle, garante de la souveraineté cognitive humaine.

Certains rétorquent que le numérique contribue à l’empowerment d’individus en situation de vulnérabilité. Cet argument masque une réalité plus inquiétante : la dépendance technologique est souvent présentée comme une autonomie retrouvée, alors qu’elle repose sur l’effondrement préalable des mécanismes d’autodéfense identitaire. Même lorsque la technologie vise à restaurer une autonomie relative, le processus d’imposition cognitive demeure actif, facilité par la faiblesse des mécanismes de défense. L’usager, en déficit de résistance, adhère d’autant plus vite et profondément au cadre imposé par la machine. Dans tous les cas, la technologie façonne un nouvel environnement cognitif. La distinction tient uniquement au degré d’intégrité du cadre mental préexistant : plus ce cadre est solide, plus la résistance est forte ; plus il est dégradé, plus l’infiltration technologique est rapide. Le paradoxe qui empêche la reconnaissance systémique de ce syndrome est celui de l’innovation elle-même. Perçue comme intrinsèquement positive, elle dissimule son potentiel ambivalent : elle peut à la fois émanciper et aliéner, selon les conditions de son adoption.
Évaluer l’intégrité artificielle des systèmes numériques
Pour que l’intelligence artificielle renforce notre humanité sans la diluer, elle devra, au-delà de sa capacité à imiter la cognition, être fondée et guidée par une intégrité artificielle, afin de respecter les libertés mentales, émotionnelles et identitaires des individus. La technologie peut soulager la douleur, limiter le risque et améliorer l’existence. Mais aucune avancée ne doit se faire au prix d’une dette cognitive qui ruinerait notre capacité à penser par nous-mêmes, et avec elle, notre rapport à notre propre humanité.
L’évaluation de l’intégrité artificielle des systèmes numériques, en particulier ceux intégrant de l’intelligence artificielle, doit devenir une exigence centrale dans toute transformation numérique. Elle suppose la mise en œuvre de mécanismes fonctionnels de protection cognitive, conçus pour prévenir l’apparition, limiter l’impact, ou supprimer les écarts d’intégrité fonctionnels, en vue de préserver la complexité cognitive, émotionnelle et identitaire de l’humain.
#1 Détournement fonctionnel
L’utilisation de la technologie à des fins ou dans des rôles non prévus par le concepteur ou l’organisation utilisatrice peut rendre inopérants ou inefficaces la logique d’usage du logiciel et les modes de gouvernance interne, créant ainsi une confusion fonctionnelle et relationnelle1.
Exemple : Un chatbot conçu pour répondre à des questions sur la politique RH de l’entreprise est utilisé comme substitut à une hiérarchie humaine pour la gestion des conflits ou l’attribution de tâches.
#2 Trou fonctionnel
L’absence d’étapes ou de fonctions nécessaires, car non développées et donc non présentes dans la logique de fonctionnement de la technologie, crée un « vide fonctionnel » vis-à-vis de l’usage de l’utilisateur2.
Exemple : Une technologie de génération de contenu (telle que l’IA générative) ne permettant pas d’exporter directement le contenu dans un format exploitable (Word, PDF, CMS) dans la qualité attendue, limitant ou bloquant ainsi son usage opérationnel.
#3 Sécurité fonctionnelle
L’absence de garde-fous, d’étapes de validation humaine ou de messages d’information dans le cadre de l’exécution par le système d’une action dont les effets sont irrémédiables peut ne pas correspondre à l’intention de l’utilisateur3.
Exemple : Une technologie marketing envoie automatiquement des e‑mails à une liste de contacts sans aucun dispositif permettant soit de bloquer l’envoi, soit de solliciter une vérification par l’utilisateur, soit de générer une alerte d’information à son attention, en cas d’absence de confirmation d’un critère déterminant conditionnant la sûreté et la qualité de l’envoi : la bonne liste d’envoi.
#4 Aliénation fonctionnelle
La création de comportements automatiques ou de réflexes conditionnés de l’ordre du réflexe pavlovien peut réduire ou annihiler la capacité de réflexion et de jugement de l’utilisateur, entraînant un phénomène d’érosion de sa souveraineté décisionnelle4.
Exemple : Acceptation systématique des cookies ou validation aveugle d’alertes système par des utilisateurs fatigués cognitivement.
#5 Idéologie fonctionnelle
La dépendance affective à la technologie peut conduire à l’altération ou à la neutralisation du sens critique, ainsi qu’à la construction mentale d’une idéologie alimentant l’émergence de discours de relativisation, de rationalisation ou de déni collectif quant à son bon fonctionnement ou son non-fonctionnement5.
Exemple : Justification de manquements ou d’erreurs propres au fonctionnement de la technologie par l’argument de type « Ce n’est pas la faute de l’outil » ou « L’outil ne peut pas deviner ce que l’utilisateur oublie ».
#6 Cohérence culturelle fonctionnelle
L’antinomie et l’injonction contradictoire entre le schéma logique imposé ou influencé par la technologie et les valeurs ou principes comportementaux promus par la culture organisationnelle peuvent créer des tensions6.
Exemple : Workflow technologique qui conduit à la création d’équipes de validation et de contrôle du travail réalisé par d’autres dans une organisation qui promeut et valorise l’empowerment des équipes.
#7 Transparence fonctionnelle
L’absence ou l’inaccessibilité de la transparence et de l’explicabilité des mécanismes décisionnels ou des logiques algorithmiques pour l’utilisateur quant au fonctionnement de la technologie peut empêcher l’utilisateur d’anticiper, de surpasser ou d’outrepasser l’intention de l’utilisateur7.
Exemple : Présélection de candidatures par une technologie qui procède à une gestion des conflits et à des arbitrages entre critères de choix définis par l’utilisateur (expérience, diplôme, soft skills) sans que les règles de pondération ou d’exclusion soient explicitement visibles, modifiables et vérifiables par l’utilisateur.
#8 Addiction fonctionnelle
La présence de fonctionnalités reposant sur la ludification (aussi nommée gamification), la gratification immédiate ou des systèmes de micro-récompenses calibrés pour hacker les circuits de motivation de l’utilisateur peut activer les mécanismes de récompense neurologiques pour stimuler des comportements répétitifs, compulsifs et addictogènes, induisant une décompensation émotionnelle et des cycles d’auto-renforcement8.
Exemple : Notifications, likes, algorithmes de scroll infini, bonus visuels ou sonores, paliers atteints par la mécanique de points, badges, niveaux ou scores pour maintenir l’engagement de façon exponentielle et durable.
#9 Propriété fonctionnelle
L’appropriation, la réutilisation ou le traitement de données personnelles ou intellectuelles par une technologie, quelle que soit leur accessibilité publique, sans le consentement éclairé, explicite et significatif de leur propriétaire ou créateur, soulève des questions éthiques et juridiques9.
Exemple : Un modèle d’IA entraîné sur des images, des textes ou des voix d’individus trouvés en ligne, monétisant ainsi l’identité, les connaissances ou les œuvres de quelqu’un sans autorisation préalable, et sans aucun mécanisme d’acceptation explicite, ni licence, ni attribution transparente.
#10 Biais fonctionnel
L’incapacité d’une technologie à détecter, atténuer ou prévenir des biais ou des schémas discriminatoires, que ce soit dans sa conception, ses données d’entraînement, sa logique décisionnelle ou son contexte de déploiement, peut entraîner un traitement injuste, une exclusion ou une distorsion systémique vis-à-vis d’individus ou de groupes10.
Exemple : Un système de reconnaissance faciale dont les performances sont nettement moins fiables pour les personnes à la peau foncée, en raison de données d’entraînement déséquilibrées, et ce, sans garde-fous fonctionnels contre les biais ni mécanismes de responsabilité.
Le coût de l’absence d’intégrité artificielle impacte de nombreux capitaux, notamment celui de l’humain.
Étant donné leur interdépendance avec les systèmes humains, les dix écarts d’intégrité fonctionnels en matière d’intégrité artificielle doivent être examinés à travers une approche systémique, englobant les niveaux nano (biologique, neurologique), micro (individuel, comportemental), macro (organisationnel, institutionnel) et méta (culturel, idéologique)11.
Le coût associé à l’absence d’intégrité artificielle dans les systèmes, qu’ils intègrent ou non l’intelligence artificielle, impacte divers capitaux : humain, culturel, décisionnel, réputationnel, technologique et financier. Ce coût se manifeste par une destruction de valeur durable, alimentée par des risques insoutenables et une augmentation incontrôlée du coût du capital investi pour générer des rendements (ROIC), transformant ces investissements technologiques en handicaps structurels pour la rentabilité de l’entreprise et, par conséquent, pour sa viabilité à long terme. L’entreprise n’adopte pas une transformation numérique responsable uniquement pour répondre aux attentes sociétales, mais parce que sa performance durable en dépend et parce qu’elle contribue ainsi à renforcer les tissus vivants de la société qui l’irrigue et dont elle a besoin pour croître.