Accueil / Chroniques / Comment se protéger du syndrome de Stockholm technologique face à l’IA ?
A smartphone bound by chains represents addiction. Generated by AI
Généré par l'IA / Generated using AI
π Numérique π Société

Comment se protéger du syndrome de Stockholm technologique face à l’IA ?

Hamilton Mann
Hamilton Mann
vice-président du groupe chargé du marketing numérique et de la transformation numérique chez Thales et maître de conférences à l'INSEAD
En bref
  • Les technologies numériques peuvent être un danger pour l’autonomie et le libre-arbitre de l’individu, au point de lui faire oublier son aliénation.
  • La substitution de la machine perçue comme vecteur d'agression à une machine qui apaise s'apparente à un « syndrome de Stockholm » technologique.
  • Si l’innovation numérique est perçue comme intrinsèquement positive, elle peut cependant émanciper et aliéner à la fois, selon les conditions de son adoption.
  • Pour rester centrée sur notre humanité, l’intelligence artificielle doit s’appuyer sur une forme d’intégrité simulée artificielle, construite en référence aux valeurs humaines.
  • L’intégrité artificielle repose sur la capacité à prévenir et limiter les écarts d'intégrité fonctionnels, condition sine qua non pour garantir que les bénéfices des technologies numériques ne se construisent pas au détriment de l’humain.

L’adoption des tech­no­lo­gies numé­riques ne peut être réduite à une simple déci­sion ration­nelle ou à une évo­lu­tion fonc­tion­nelle des pra­tiques et des usages. Elle détache, pro­gres­si­ve­ment ou non, les indi­vi­dus de leurs cadres de réfé­rence ini­tiaux et de leurs struc­tures habi­tuelles, pour les immer­ger dans des envi­ron­ne­ments régis par des logiques externes, celles impo­sées par la tech­no­lo­gie elle-même. Ce bas­cu­le­ment repré­sente une recon­fi­gu­ra­tion pro­fonde des struc­tures cog­ni­tives, sociales et com­por­te­men­tales de l’individu, sous l’effet de logiques algo­rith­miques et pres­crip­tives qui sup­plantent ses propres cadres de réfé­rence. Ce pro­ces­sus de tran­si­tion tech­no­lo­gique, loin d’être neutre, s’apparente à une forme de cap­ture sym­bo­lique dans laquelle l’individu, confron­té à la vio­lence du chan­ge­ment, active des méca­nismes de défense psy­chiques face à ce qu’il per­çoit comme une agres­sion à son auto­no­mie, à son libre-arbitre, et à son inté­gri­té identitaire.

Lorsque l’adoption est jugée réus­sie, cela signi­fie que les struc­tures de défense ini­tiales ont cédé : l’utilisateur a non seule­ment inté­gré les règles impo­sées par la tech­no­lo­gie, mais a déve­lop­pé une forme d’identification affec­tive envers elle, réin­ter­pré­tant l’origine de la contrainte comme une rela­tion choi­sie. À ce stade, un nou­veau régime nor­ma­tif se met en place. Ce bas­cu­le­ment marque la sub­sti­tu­tion de l’an­cien cadre de réfé­rence par celui de la machine, désor­mais per­çu comme fami­lier et ras­su­rant. L’agression ini­tiale est refou­lée, et les nou­veaux auto­ma­tismes cog­ni­tifs deviennent objets de défense.

Ces sti­mu­li activent le biais de confir­ma­tion émo­tion­nelle et trans­forment la coer­ci­tion en bien­veillance perçue.

Ce phé­no­mène, que l’on peut assi­mi­ler au « syn­drome de Stock­holm » dans le rap­port entre l’homme et la machine, implique une dis­lo­ca­tion des réfé­rents cog­ni­tifs, sui­vie d’une recon­fi­gu­ra­tion émo­tion­nelle dans laquelle la vic­time en vient à pro­té­ger son agres­seur tech­no­lo­gique. L’asservissement cog­ni­tif ain­si pro­duit n’est pas un effet secon­daire, mais un méca­nisme de sur­vie. Il est ali­men­té par les ten­ta­tives du cer­veau de réduire le stress géné­ré par l’intrusion d’un cadre de pen­sée étran­ger. Cette réécri­ture émo­tion­nelle per­met d’assurer une forme de cohé­rence interne face à l’aliénation tech­no­lo­gique. L’attention de l’usager se détourne alors de la vio­lence ini­tiale pour se fixer sur les signaux posi­tifs émis par la machine : vali­da­tion sociale, gra­ti­fi­ca­tion algo­rith­mique, récom­pense ludique. Ces sti­mu­li activent le biais de confir­ma­tion émo­tion­nelle et trans­forment la coer­ci­tion en bien­veillance perçue.

Le risque accru de la dépendance des individus à la technologie

Par un pro­ces­sus de plas­ti­ci­té neu­ro­nale, les cir­cuits céré­braux réor­ga­nisent la per­cep­tion du rap­port à la machine : ce qui était stress devient nor­ma­li­té ; ce qui était domi­na­tion devient sou­tien ; et ce qui était agres­seur devient com­pa­gnon. Une inver­sion du sché­ma de pou­voir s’opère par la recon­fi­gu­ra­tion du noyau accum­bens et du cor­tex pré­fron­tal, ancrant une nou­velle rela­tion affec­tive contrainte, un phé­no­mène de plus en plus recon­nu au sein de la com­mu­nau­té en infor­ma­tique comme une forme d’agence com­pu­ta­tion­nelle, dans laquelle les logi­ciels recon­fi­gurent acti­ve­ment la per­cep­tion, le com­por­te­ment et le juge­ment affec­tif. Ce phé­no­mène repré­sente l’un des périls fon­da­men­taux que l’intelligence arti­fi­cielle fait peser sur l’humanité : la nor­ma­li­sa­tion de la dépen­dance men­tale comme vec­teur d’acceptabilité sociale. C’est pour­quoi il ne suf­fit pas de conce­voir des sys­tèmes arti­fi­ciel­le­ment intel­li­gents : il faut impé­ra­ti­ve­ment leur adjoindre une capa­ci­té d’intégrité arti­fi­cielle, garante de la sou­ve­rai­ne­té cog­ni­tive humaine.

Cer­tains rétorquent que le numé­rique contri­bue à l’empo­werment d’individus en situa­tion de vul­né­ra­bi­li­té. Cet argu­ment masque une réa­li­té plus inquié­tante : la dépen­dance tech­no­lo­gique est sou­vent pré­sen­tée comme une auto­no­mie retrou­vée, alors qu’elle repose sur l’effondrement préa­lable des méca­nismes d’autodéfense iden­ti­taire. Même lorsque la tech­no­lo­gie vise à res­tau­rer une auto­no­mie rela­tive, le pro­ces­sus d’imposition cog­ni­tive demeure actif, faci­li­té par la fai­blesse des méca­nismes de défense. L’usager, en défi­cit de résis­tance, adhère d’autant plus vite et pro­fon­dé­ment au cadre impo­sé par la machine. Dans tous les cas, la tech­no­lo­gie façonne un nou­vel envi­ron­ne­ment cog­ni­tif. La dis­tinc­tion tient uni­que­ment au degré d’intégrité du cadre men­tal pré­exis­tant : plus ce cadre est solide, plus la résis­tance est forte ; plus il est dégra­dé, plus l’infiltration tech­no­lo­gique est rapide. Le para­doxe qui empêche la recon­nais­sance sys­té­mique de ce syn­drome est celui de l’innovation elle-même. Per­çue comme intrin­sè­que­ment posi­tive, elle dis­si­mule son poten­tiel ambi­va­lent : elle peut à la fois éman­ci­per et alié­ner, selon les condi­tions de son adoption.

Évaluer l’intégrité artificielle des systèmes numériques

Pour que l’intelligence arti­fi­cielle ren­force notre huma­ni­té sans la diluer, elle devra, au-delà de sa capa­ci­té à imi­ter la cog­ni­tion, être fon­dée et gui­dée par une inté­gri­té arti­fi­cielle, afin de res­pec­ter les liber­tés men­tales, émo­tion­nelles et iden­ti­taires des indi­vi­dus. La tech­no­lo­gie peut sou­la­ger la dou­leur, limi­ter le risque et amé­lio­rer l’exis­tence. Mais aucune avan­cée ne doit se faire au prix d’une dette cog­ni­tive qui rui­ne­rait notre capa­ci­té à pen­ser par nous-mêmes, et avec elle, notre rap­port à notre propre humanité.

L’évaluation de l’intégrité arti­fi­cielle des sys­tèmes numé­riques, en par­ti­cu­lier ceux inté­grant de l’intelligence arti­fi­cielle, doit deve­nir une exi­gence cen­trale dans toute trans­for­ma­tion numé­rique. Elle sup­pose la mise en œuvre de méca­nismes fonc­tion­nels de pro­tec­tion cog­ni­tive, conçus pour pré­ve­nir l’apparition, limi­ter l’impact, ou sup­pri­mer les écarts d’intégrité fonc­tion­nels, en vue de pré­ser­ver la com­plexi­té cog­ni­tive, émo­tion­nelle et iden­ti­taire de l’humain.

#1 Détournement fonctionnel

L’u­ti­li­sa­tion de la tech­no­lo­gie à des fins ou dans des rôles non pré­vus par le concep­teur ou l’or­ga­ni­sa­tion uti­li­sa­trice peut rendre inopé­rants ou inef­fi­caces la logique d’u­sage du logi­ciel et les modes de gou­ver­nance interne, créant ain­si une confu­sion fonc­tion­nelle et rela­tion­nelle1.

Exemple : Un chat­bot conçu pour répondre à des ques­tions sur la poli­tique RH de l’en­tre­prise est uti­li­sé comme sub­sti­tut à une hié­rar­chie humaine pour la ges­tion des conflits ou l’at­tri­bu­tion de tâches.

#2 Trou fonctionnel  

L’ab­sence d’é­tapes ou de fonc­tions néces­saires, car non déve­lop­pées et donc non pré­sentes dans la logique de fonc­tion­ne­ment de la tech­no­lo­gie, crée un « vide fonc­tion­nel » vis-à-vis de l’u­sage de l’u­ti­li­sa­teur2.

Exemple : Une tech­no­lo­gie de géné­ra­tion de conte­nu (telle que l’IA géné­ra­tive) ne per­met­tant pas d’ex­por­ter direc­te­ment le conte­nu dans un for­mat exploi­table (Word, PDF, CMS) dans la qua­li­té atten­due, limi­tant ou blo­quant ain­si son usage opérationnel.

#3 Sécurité fonctionnelle

L’ab­sence de garde-fous, d’é­tapes de vali­da­tion humaine ou de mes­sages d’in­for­ma­tion dans le cadre de l’exé­cu­tion par le sys­tème d’une action dont les effets sont irré­mé­diables peut ne pas cor­res­pondre à l’in­ten­tion de l’u­ti­li­sa­teur3.

Exemple : Une tech­no­lo­gie mar­ke­ting envoie auto­ma­ti­que­ment des e‑mails à une liste de contacts sans aucun dis­po­si­tif per­met­tant soit de blo­quer l’en­voi, soit de sol­li­ci­ter une véri­fi­ca­tion par l’u­ti­li­sa­teur, soit de géné­rer une alerte d’in­for­ma­tion à son atten­tion, en cas d’ab­sence de confir­ma­tion d’un cri­tère déter­mi­nant condi­tion­nant la sûre­té et la qua­li­té de l’en­voi : la bonne liste d’envoi.

#4 Aliénation fonctionnelle 

La créa­tion de com­por­te­ments auto­ma­tiques ou de réflexes condi­tion­nés de l’ordre du réflexe pav­lo­vien peut réduire ou anni­hi­ler la capa­ci­té de réflexion et de juge­ment de l’u­ti­li­sa­teur, entraî­nant un phé­no­mène d’é­ro­sion de sa sou­ve­rai­ne­té déci­sion­nelle4.

Exemple : Accep­ta­tion sys­té­ma­tique des cookies ou vali­da­tion aveugle d’alertes sys­tème par des uti­li­sa­teurs fati­gués cognitivement.

#5 Idéologie fonctionnelle  

La dépen­dance affec­tive à la tech­no­lo­gie peut conduire à l’al­té­ra­tion ou à la neu­tra­li­sa­tion du sens cri­tique, ain­si qu’à la construc­tion men­tale d’une idéo­lo­gie ali­men­tant l’é­mer­gence de dis­cours de rela­ti­vi­sa­tion, de ratio­na­li­sa­tion ou de déni col­lec­tif quant à son bon fonc­tion­ne­ment ou son non-fonc­tion­ne­ment5.

Exemple : Jus­ti­fi­ca­tion de man­que­ments ou d’er­reurs propres au fonc­tion­ne­ment de la tech­no­lo­gie par l’ar­gu­ment de type « Ce n’est pas la faute de l’outil » ou « L’outil ne peut pas devi­ner ce que l’utilisateur oublie ».

#6 Cohérence culturelle fonctionnelle  

L’an­ti­no­mie et l’in­jonc­tion contra­dic­toire entre le sché­ma logique impo­sé ou influen­cé par la tech­no­lo­gie et les valeurs ou prin­cipes com­por­te­men­taux pro­mus par la culture orga­ni­sa­tion­nelle peuvent créer des ten­sions6.

Exemple : Work­flow tech­no­lo­gique qui conduit à la créa­tion d’é­quipes de vali­da­tion et de contrôle du tra­vail réa­li­sé par d’autres dans une orga­ni­sa­tion qui pro­meut et valo­rise l’empo­werment des équipes.

#7 Transparence fonctionnelle 

L’ab­sence ou l’i­nac­ces­si­bi­li­té de la trans­pa­rence et de l’ex­pli­ca­bi­li­té des méca­nismes déci­sion­nels ou des logiques algo­rith­miques pour l’u­ti­li­sa­teur quant au fonc­tion­ne­ment de la tech­no­lo­gie peut empê­cher l’u­ti­li­sa­teur d’an­ti­ci­per, de sur­pas­ser ou d’ou­tre­pas­ser l’in­ten­tion de l’u­ti­li­sa­teur7.

Exemple : Pré­sé­lec­tion de can­di­da­tures par une tech­no­lo­gie qui pro­cède à une ges­tion des conflits et à des arbi­trages entre cri­tères de choix défi­nis par l’u­ti­li­sa­teur (expé­rience, diplôme, soft skills) sans que les règles de pon­dé­ra­tion ou d’ex­clu­sion soient expli­ci­te­ment visibles, modi­fiables et véri­fiables par l’utilisateur.

#8 Addiction fonctionnelle  

La pré­sence de fonc­tion­na­li­tés repo­sant sur la ludi­fi­ca­tion (aus­si nom­mée gami­fi­ca­tion), la gra­ti­fi­ca­tion immé­diate ou des sys­tèmes de micro-récom­penses cali­brés pour hacker les cir­cuits de moti­va­tion de l’u­ti­li­sa­teur peut acti­ver les méca­nismes de récom­pense neu­ro­lo­giques pour sti­mu­ler des com­por­te­ments répé­ti­tifs, com­pul­sifs et addic­to­gènes, indui­sant une décom­pen­sa­tion émo­tion­nelle et des cycles d’au­to-ren­for­ce­ment8.

Exemple : Noti­fi­ca­tions, likes, algo­rithmes de scroll infi­ni, bonus visuels ou sonores, paliers atteints par la méca­nique de points, badges, niveaux ou scores pour main­te­nir l’en­ga­ge­ment de façon expo­nen­tielle et durable.

#9 Propriété fonctionnelle 

L’appropriation, la réuti­li­sa­tion ou le trai­te­ment de don­nées per­son­nelles ou intel­lec­tuelles par une tech­no­lo­gie, quelle que soit leur acces­si­bi­li­té publique, sans le consen­te­ment éclai­ré, expli­cite et signi­fi­ca­tif de leur pro­prié­taire ou créa­teur, sou­lève des ques­tions éthiques et juri­diques9.

Exemple : Un modèle d’IA entraî­né sur des images, des textes ou des voix d’individus trou­vés en ligne, moné­ti­sant ain­si l’identité, les connais­sances ou les œuvres de quelqu’un sans auto­ri­sa­tion préa­lable, et sans aucun méca­nisme d’acceptation expli­cite, ni licence, ni attri­bu­tion transparente.

#10 Biais fonctionnel 

L’incapacité d’une tech­no­lo­gie à détec­ter, atté­nuer ou pré­ve­nir des biais ou des sché­mas dis­cri­mi­na­toires, que ce soit dans sa concep­tion, ses don­nées d’entraînement, sa logique déci­sion­nelle ou son contexte de déploie­ment, peut entraî­ner un trai­te­ment injuste, une exclu­sion ou une dis­tor­sion sys­té­mique vis-à-vis d’individus ou de groupes10.

Exemple : Un sys­tème de recon­nais­sance faciale dont les per­for­mances sont net­te­ment moins fiables pour les per­sonnes à la peau fon­cée, en rai­son de don­nées d’entraînement dés­équi­li­brées, et ce, sans garde-fous fonc­tion­nels contre les biais ni méca­nismes de responsabilité.

Le coût de l’ab­sence d’in­té­gri­té arti­fi­cielle impacte de nom­breux capi­taux, notam­ment celui de l’humain.

Étant don­né leur inter­dé­pen­dance avec les sys­tèmes humains, les dix écarts d’intégrité fonc­tion­nels en matière d’in­té­gri­té arti­fi­cielle doivent être exa­mi­nés à tra­vers une approche sys­té­mique, englo­bant les niveaux nano (bio­lo­gique, neu­ro­lo­gique), micro (indi­vi­duel, com­por­te­men­tal), macro (orga­ni­sa­tion­nel, ins­ti­tu­tion­nel) et méta (cultu­rel, idéo­lo­gique)11.

Le coût asso­cié à l’ab­sence d’in­té­gri­té arti­fi­cielle dans les sys­tèmes, qu’ils intègrent ou non l’in­tel­li­gence arti­fi­cielle, impacte divers capi­taux : humain, cultu­rel, déci­sion­nel, répu­ta­tion­nel, tech­no­lo­gique et finan­cier. Ce coût se mani­feste par une des­truc­tion de valeur durable, ali­men­tée par des risques insou­te­nables et une aug­men­ta­tion incon­trô­lée du coût du capi­tal inves­ti pour géné­rer des ren­de­ments (ROIC), trans­for­mant ces inves­tis­se­ments tech­no­lo­giques en han­di­caps struc­tu­rels pour la ren­ta­bi­li­té de l’en­tre­prise et, par consé­quent, pour sa via­bi­li­té à long terme. L’en­tre­prise n’a­dopte pas une trans­for­ma­tion numé­rique res­pon­sable uni­que­ment pour répondre aux attentes socié­tales, mais parce que sa per­for­mance durable en dépend et parce qu’elle contri­bue ain­si à ren­for­cer les tis­sus vivants de la socié­té qui l’ir­rigue et dont elle a besoin pour croître.

1Ash, J., Kit­chin, R., & Leszc­zyns­ki, A. (2018). Digi­tal turn, digi­tal geo­gra­phies ? Pro­gress in Human Geo­gra­phy, 42(1), 25–43. https://​doi​.org/​1​0​.​1​1​7​7​/​0​3​0​9​1​3​2​5​1​6​6​64800
2Ver­beek, P.-P. (2005). What things do : Phi­lo­so­phi­cal reflec­tions on tech­no­lo­gy, agen­cy, and desi­gn. Penn State Press.
3Per­row, C. (1999). Nor­mal acci­dents : Living with high-risk tech­no­lo­gies. Prin­ce­ton Uni­ver­si­ty Press.
4Gray, C. M., Kou, Y., Bat­tles, B., Hog­gatt, J., & Toombs, A. L. (2018). The dark (pat­terns) side of UX desi­gn. In Pro­cee­dings of the 2018 CHI Confe­rence on Human Fac­tors in Com­pu­ting Sys­tems (CHI ’18) (Paper No. 534, pp. 1–14). Asso­cia­tion for Com­pu­ting Machi­ne­ry. https://​doi​.org/​1​0​.​1​1​4​5​/​3​1​7​3​5​7​4​.​3​1​74108
5Flo­ri­di, L., Cowls, J., Bel­tra­met­ti, M., Cha­ti­la, R., Cha­ze­rand, P., Dignum, V., … & Vaye­na, E. (2018). AI4People—An ethi­cal fra­me­work for a good AI socie­ty : Oppor­tu­ni­ties, risks, prin­ciples, and recom­men­da­tions. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018‑9482‑5
6Ge, X., Xu, C., Misa­ki, D., Mar­kus, H. R., & Tsai, J. L. (2024). How culture shapes what people want from AI. Stan­ford SPARQ. https://​sparq​.stan​ford​.edu/​s​i​t​e​s​/​g​/​f​i​l​e​s​/​s​b​i​y​b​j​1​9​0​2​1​/​f​i​l​e​s​/​m​e​d​i​a​/​f​i​l​e​/​c​u​l​t​u​r​e​-​a​i.pdf 
7Gutiér­rez, J. D. (2025, April 9). Why does algo­rith­mic trans­pa­ren­cy mat­ter and what can we do about it ? Open Glo­bal Rights. https://​www​.open​glo​bal​rights​.org/​w​h​y​-​d​o​e​s​-​a​l​g​o​r​i​t​h​m​i​c​-​t​r​a​n​s​p​a​r​e​n​c​y​-​m​a​t​t​e​r​-​a​n​d​-​w​h​a​t​-​c​a​n​-​w​e​-​d​o​-​a​b​o​u​t-it/
8Yin, C., Wa, A., Zhang, Y., Huang, R., & Zheng, J. (2025). Explo­ring the dark pat­terns in user expe­rience desi­gn for short-form videos. In N. A. Streitz & S. Kono­mi (Eds.), Dis­tri­bu­ted, ambient and per­va­sive inter­ac­tions (Lec­ture Notes in Com­pu­ter Science, Vol. 15802, pp. (pp. 330–347). Sprin­ger. https://doi.org/10.1007/978–3‑031–92977-9_21
9Flo­ri­di, L., Cowls, J., Bel­tra­met­ti, M., Cha­ti­la, R., Cha­ze­rand, P., Dignum, V., … & Vaye­na, E. (2018). AI4People—An ethi­cal fra­me­work for a good AI socie­ty : Oppor­tu­ni­ties, risks, prin­ciples, and recom­men­da­tions. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018‑9482‑5
10Natio­nal Ins­ti­tute of Stan­dards and Tech­no­lo­gy. (2021). NIST Spe­cial Publi­ca­tion 1270 : Towards a stan­dard for iden­ti­fying and mana­ging bias in arti­fi­cial ntel­li­gencehttps://​nvl​pubs​.nist​.gov/​n​i​s​t​p​u​b​s​/​S​p​e​c​i​a​l​P​u​b​l​i​c​a​t​i​o​n​s​/​N​I​S​T​.​S​P​.​1​2​7​0.pdf
11H. (2024). Arti­fi­cial inte­gri­ty : The paths to lea­ding AI toward a human-cen­te­red future. Wiley ;

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don