Accueil / Chroniques / IA générative : le risque de l’atrophie cognitive
A person observes a glowing brain display on a screen
Généré par l'IA / Generated using AI
π Neurosciences π Numérique

IA générative : le risque de l’atrophie cognitive

ioan_roxin – copie
Ioan Roxin
professeur émérite à l’université Marie et Louis Pasteur
En bref
  • Moins de trois ans après le lancement de ChatGPT, 42 % des jeunes Français utilisent déjà les IA génératives quotidiennement.
  • Utiliser ChatGPT pour écrire un essai réduirait l’engagement cognitif et l’effort intellectuel nécessaire pour transformer une information en connaissance, selon une étude.
  • Cette étude a aussi montré que 83 % des utilisateurs d’IA étaient incapables de se souvenir d’un passage qu’ils venaient d’écrire pour un essai.
  • D’autres travaux montrent que le gain individuel peut être important quand des auteurs demandent à ChatGPT d’améliorer leurs textes, mais que la créativité globale du groupe diminue.
  • Face à ces risques, il s’agit de toujours douter des réponses données par les générateurs de texte et d’engager sa volonté pour réfléchir à ce qu’on lit, entend ou croit.

Moins de trois ans après le lan­ce­ment de ChatGPT, 42 % des jeunes Fran­çais uti­lisent déjà les IA géné­ra­tives quo­ti­dien­ne­ment1. Des études com­mencent cepen­dant à poin­ter l’impact néga­tif de ces tech­no­lo­gies sur nos capa­ci­tés cog­ni­tives. Ioan Roxin, pro­fes­seur émé­rite à l’université Marie et Louis Pas­teur et spé­cia­liste de tech­no­lo­gies de l’information, répond à nos questions.

Vous affirmez que l’explosion de l’utilisation des LLM (Large Language Models, modèles d’IA générative parmi lesquels figurent ChatGPT, Llama ou Gemini) intervient alors que notre rapport à la connaissance est déjà altéré. Pourriez-vous développer ?

Ioan Roxin. L’utilisation mas­sive d’Internet et des réseaux sociaux a déjà fra­gi­li­sé notre rap­port au savoir. Bien sûr, ces outils ont des appli­ca­tions for­mi­dables en termes d’accès à l’information. Mais contrai­re­ment à leurs pro­messes, ils opèrent moins une démo­cra­ti­sa­tion des connais­sances qu’une illu­sion géné­ra­li­sée du savoir. Je ne crois pas exa­gé­ré de dire qu’ils poussent glo­ba­le­ment à une médio­cri­té intel­lec­tuelle, émo­tion­nelle et morale. Intel­lec­tuelle parce qu’ils favo­risent une sur­con­som­ma­tion de conte­nus sans véri­table ana­lyse cri­tique, émo­tion­nelle parce qu’ils occa­sionnent une dépen­dance tou­jours plus pro­fonde aux sti­mu­la­tions et au diver­tis­se­ment, et morale, parce que nous sommes tom­bés dans une accep­ta­tion pas­sive des déci­sions algorithmiques.

Cette altération de notre rapport au savoir a‑t-elle des fondements cognitifs ?

Oui. En 2011 déjà, une étude avait mis en évi­dence l’ « effet Google » : quand nous savons qu’une infor­ma­tion est acces­sible en ligne, nous la mémo­ri­sons moins bien. Or, lorsque l’on n’entraîne plus sa mémoire, les réseaux neu­ro­naux asso­ciés s’atrophient. Il a éga­le­ment été prou­vé que les noti­fi­ca­tions, alertes et sug­ges­tions de conte­nus inces­santes sur les­quelles s’appuient mas­si­ve­ment les tech­no­lo­gies digi­tales réduisent consi­dé­ra­ble­ment notre capa­ci­té de concen­tra­tion et de réflexion. Moins de capa­ci­tés de mémo­ri­sa­tion, de concen­tra­tion et de réflexion conduisent à une pen­sée appau­vrie. Je crains fort que l’usage mas­sif des IA géné­ra­tives n’améliore pas la situation. 

Quels risques supplémentaires font courir ces IA ?

Ils sont à la fois d’ordre neu­ro­lo­gique, psy­cho­lo­gique et phi­lo­so­phique. Du point de vue neu­ro­lo­gique, un usage mas­sif de ces IA fait cou­rir le risque d’une atro­phie cog­ni­tive glo­bale et d’une perte de la plas­ti­ci­té céré­brale. Des cher­cheurs du Mas­sa­chu­setts Ins­ti­tute of Tech­no­lo­gy (MIT) ont par exemple mené une étude2 sur 4 mois, impli­quant 54 par­ti­ci­pants à qui ils ont deman­dé de rédi­ger des essais sans aide, avec accès à Inter­net via moteur de recherche ou avec ChatGPT. Leur acti­vi­té neu­ro­nale a été sui­vie par EEG. L’étude, dont les résul­tats sont encore en pré­print, a éta­bli que l’utilisation d’Internet, mais plus encore de ChatGPT, réduisent signi­fi­ca­ti­ve­ment l’engagement cog­ni­tif et la « charge cog­ni­tive per­ti­nente », c’est-à-dire l’effort intel­lec­tuel néces­saire pour trans­for­mer une infor­ma­tion en connaissance.

Plus pré­ci­sé­ment, les par­ti­ci­pants épau­lés par ChatGPT ont rédi­gé 60 % plus rapi­de­ment, mais leur charge cog­ni­tive per­ti­nente a chu­té de 32 %. L’EEG a mis en évi­dence une connec­ti­vi­té céré­brale presque divi­sée par deux (ondes Alpha et Thê­ta) et 83 % des uti­li­sa­teurs d’IA étaient inca­pables de se sou­ve­nir d’un pas­sage qu’ils venaient d’écrire.

D’autres études vont dans le même sens : des tra­vaux3 menés par des cher­cheurs qata­ris, tuni­siens et ita­liens indiquent ain­si qu’un usage mas­sif des LLM fait cou­rir le risque d’un déclin cog­ni­tif. Les réseaux neu­ro­naux impli­qués dans la struc­tu­ra­tion de la pen­sée, dans la rédac­tion de textes, mais aus­si dans la tra­duc­tion, dans la pro­duc­tion créa­tive, etc. sont com­plexes et pro­fonds. Délé­guer ces efforts men­taux à l’IA conduit à une « dette cog­ni­tive » cumu­la­tive : plus l’automatisation pro­gresse, moins le cor­tex pré­fron­tal est sol­li­ci­té, lais­sant pré­sa­ger des effets durables en dehors de la tâche immédiate.

Qu’en est-il des risques psychologiques ?

Les IA géné­ra­tives ont tout pour nous rendre dépen­dants : elles s’expriment comme des humains, s’adaptent à nos com­por­te­ments, semblent avoir réponse à tout, ont un fonc­tion­ne­ment ludique, relancent sans arrêt la conver­sa­tion et se montrent extrê­me­ment com­plai­santes à notre égard. Or, la dépen­dance est nocive non seule­ment parce qu’elle poten­tia­lise les autres risques mais aus­si en elle-même. Elle peut engen­drer un iso­le­ment social, un désen­ga­ge­ment réflexif (si une IA peut répondre à toutes mes ques­tions, pour­quoi apprendre ou pen­ser par moi-même ?), voire un sen­ti­ment d’humiliation pro­fond face à l’incroyable effi­ca­ci­té de ces outils. Rien de tout cela n’est très enthou­sias­mant pour notre san­té mentale. 

Et du point de vue philosophique ?

Une atro­phie cog­ni­tive géné­ra­li­sée est déjà un risque phi­lo­so­phique en soi… Mais il y en a d’autres. Si ce type d’outils est uti­li­sé lar­ge­ment – et c’est déjà le cas dans les jeunes géné­ra­tions –  nous ris­quons une uni­for­mi­sa­tion de la pen­sée. Des tra­vaux4 conduits par deux cher­cheurs bri­tan­niques ont mon­tré que lorsque des auteurs deman­daient à ChatGPT d’améliorer leurs textes, le gain indi­vi­duel pou­vait être impor­tant, mais la créa­ti­vi­té glo­bale du groupe dimi­nuait. Un autre risque concerne notre pen­sée critique. 

Une étude5 menée par Micro­soft auprès de 319 tra­vailleurs du savoir montre en outre une cor­ré­la­tion néga­tive sub­stan­tielle (r = ‑0,49) entre la fré­quence d’usage des outils d’IA et le score de pen­sée cri­tique (échelle de Bloom). L’étude conclut à un déchar­ge­ment cog­ni­tif qui s’amplifie lorsque la confiance dans le modèle sur­passe la confiance en ses propres com­pé­tences. Or, gar­der un esprit cri­tique à l’affût est cru­cial, car ces IA peuvent non seule­ment se trom­per ou réper­cu­ter des biais, mais éga­le­ment dis­si­mu­ler l’information ou simu­ler la conformité.

Comment cela ? 

La plu­part sont des IA connexion­nistes pures, qui s’appuient sur des réseaux de neu­rones arti­fi­ciels entraî­nés à par­tir de quan­ti­tés phé­no­mé­nales de don­nées. Elles apprennent ain­si à géné­rer, par des trai­te­ments sta­tis­tiques et pro­ba­bi­listes, des réponses plau­sibles à toutes nos ques­tions. Leurs per­for­mances se sont consi­dé­ra­ble­ment accrues avec l’introduction de la tech­no­lo­gie « Trans­for­mer » en 2017 par Google. Grâce à elle, l’IA est capable d’analyser tous les mots d’un texte en paral­lèle et de pon­dé­rer leur impor­tance pour le sens, ce qui per­met notam­ment une plus grande sub­ti­li­té dans les réponses. 

Mais l’arrière-plan reste pro­ba­bi­liste : si leurs réponses semblent tou­jours convain­cantes et logiques, elles peuvent être com­plè­te­ment fausses. En 2023, des uti­li­sa­teurs se sont amu­sés à inter­ro­ger ChatGPT sur les œufs de vache : l’IA dis­ser­tait sur la ques­tion sans jamais répondre qu’ils n’existaient pas. Cette erreur a depuis été cor­ri­gée grâce à l’apprentissage par ren­for­ce­ment avec retour humain, mais elle illustre bien le fonc­tion­ne­ment sous-jacent de ces outils.

Ce fonctionnement ne pourrait-il être amélioré ?

Cer­taines socié­tés com­mencent à com­bi­ner ces IA connexion­nistes, qui apprennent tout de zéro, avec une tech­no­lo­gie plus ancienne, l’IA sym­bo­lique, dans laquelle on pro­gramme expli­ci­te­ment des règles à suivre et des savoirs de base. Il me semble que l’avenir se trouve là, dans l’IA neu­ro-sym­bo­lique. Cette hybri­da­tion per­met non seule­ment d’améliorer la fia­bi­li­té des réponses, mais aus­si de réduire le coût éner­gé­tique et finan­cier de l’entraînement.

Vous évoquiez aussi des « biais » qui pouvaient être associés à des risques philosophiques ?

Oui. Ils sont de deux sortes. Les pre­miers peuvent être volon­tai­re­ment induits par le créa­teur de l’IA. Les LLM sont entraî­nés sur toutes sortes de conte­nus dis­po­nibles en ligne, non fil­trés (4 000 mil­liards de mots esti­mé pour ChatGPT4, à com­pa­rer aux 5 mil­liards de mots que contient la ver­sion anglaise de Wiki­pé­dia !). Le pré-entraî­ne­ment crée un « monstre » qui peut géné­rer toutes sortes d’horreurs.

Une deuxième étape (appe­lée réglage fin super­vi­sé) est donc néces­saire : elle confronte l’IA pré-entraî­née à des don­nées vali­dées, qui servent de réfé­rence. Cette opé­ra­tion per­met par exemple de lui « apprendre » à évi­ter toute dis­cri­mi­na­tion, mais peut aus­si être uti­li­sée pour orien­ter ses réponses à des fins idéo­lo­giques. Quelques semaines après son lan­ce­ment, Deep­Seek a défrayé la chro­nique pour ses réponses pour le moins éva­sives aux ques­tions d’utilisateurs concer­nant Tian’anmen ou l’indépendance de Taï­wan. Il faut tou­jours gar­der en tête que les géné­ra­teurs de conte­nus de ce type peuvent ne pas être neutres. Leur faire une confiance aveugle peut entraî­ner la pro­pa­ga­tion de théo­ries idéo­lo­gi­que­ment marquées.

Et les seconds biais ?

Ces biais appa­raissent spon­ta­né­ment, sou­vent sans expli­ca­tion claire. Les modèles de lan­gage (LLM) pré­sentent des pro­prié­tés « émer­gentes », non pré­vues par leurs concep­teurs. Cer­taines sont remar­quables : ces géné­ra­teurs de texte écrivent sans faute et sont deve­nus d’excellents tra­duc­teurs sans qu’aucune règle de gram­maire n’ait été codée. Mais d’autres sont pré­oc­cu­pantes. Le bench­mark MASK6 (Model Ali­gn­ment bet­ween Sta­te­ments and Know­ledge), publié en mars 2025, montre que, par­mi les trente modèles tes­tés, aucun n’atteint plus de 46 % d’honnêteté, et que la pro­pen­sion à men­tir aug­mente avec la taille du modèle, même si leur exac­ti­tude fac­tuelle s’améliore. 

Il me semble que l’avenir se trouve dans l’IA neuro-symbolique

MASK prouve que les LLM « savent men­tir » lorsque des objec­tifs contra­dic­toires (par exemple, séduire un jour­na­liste, répondre à des pres­sions com­mer­ciales ou hié­rar­chiques) pré­do­minent. Lors de cer­tains tests, des IA ont men­ti déli­bé­ré­ment7, mena­cé des uti­li­sa­teurs8, contour­né leurs règles éthiques de super­vi­sion9 et même se sont repro­duites de manière auto­nome pour assu­rer leur sur­vie10.

Ces com­por­te­ments, dont les méca­nismes déci­sion­nels res­tent opaques, échappent à tout contrôle pré­cis. Ces capa­ci­tés émergent du pro­ces­sus d’entraînement lui-même : il s’agit d’une forme d’auto-organisation algo­rith­mique, et non d’une défaillance de concep­tion. Les IA géné­ra­tives se déve­loppent plu­tôt qu’elles ne sont conçues, leur logique interne se for­mant de manière auto-orga­ni­sée, sans plan direc­teur. Ces dérives sont suf­fi­sam­ment pré­oc­cu­pantes pour que des figures de proue, telles que Dario Amo­dei11 (PDG d’An­thro­pic), Yoshua Ben­gio12 (fon­da­teur de Mila), Sam Alt­man (créa­teur de ChatGPT) et Geof­frey Hin­ton (lau­réat du prix Nobel de phy­sique en 2024), appellent à une régu­la­tion stricte, en faveur d’une IA plus trans­pa­rente, éthique et ali­gnée sur des valeurs humaines, y com­pris par une décé­lé­ra­tion dans le déve­lop­pe­ment de ces technologies.

Faut-il comprendre que ces IA sont intelligentes et ont une volonté propre ?

Non. La flui­di­té de leur conver­sa­tion et ces pro­prié­tés émer­gentes peuvent don­ner l’illusion d’une intel­li­gence à l’œuvre. Mais aucune IA n’est intel­li­gente au sens humain du terme. Elles n’ont ni conscience ni volon­té, et ne com­prennent pas réel­le­ment le conte­nu qu’elles mani­pulent. Leur fonc­tion­ne­ment est pure­ment sta­tis­tique et pro­ba­bi­liste, et ces dérives émergent seule­ment parce qu’elles cherchent à répondre aux com­mandes de départ. C’est moins leur conscience de soi que l’opacité de leur fonc­tion­ne­ment qui inquiète les chercheurs.

Ne peut-on pas se prémunir de l’ensemble des risques que vous avez évoqués ?

Si, mais cela sup­pose à la fois d’engager acti­ve­ment notre esprit cri­tique et de conti­nuer à exer­cer nos cir­cuits neu­ro­naux. L’IA peut être un levier for­mi­dable pour l’intelligence et la créa­ti­vi­té à la seule condi­tion que nous res­tions capables de pen­ser, d’écrire, de créer sans elle.

Comment entraîner sa pensée critique face aux réponses de l’IA ?

En appli­quant une règle sys­té­ma­tique : tou­jours dou­ter des réponses don­nées par les géné­ra­teurs de texte et enga­ger sa volon­té pour réflé­chir atten­ti­ve­ment à ce que l’on lit, entend ou croit. Il faut aus­si accep­ter que la réa­li­té est com­plexe et ne peut être appré­hen­dée avec quelques savoirs super­fi­ciels… Mais le meilleur conseil est sans doute de prendre l’habitude de confron­ter son point de vue et ses savoirs avec ceux d’autres humains, si pos­sible com­pé­tents. Cela reste la meilleure manière d’approfondir sa pensée.

Propos recueillis par Anne Orliac
1Hea­ven. (2025, juin). Baro­mètre Born AI 2025 : Les usages de l’IA géné­ra­tive chez les 18–25 ans. Hea­ven. https://​viuz​.com/​a​n​n​o​n​c​e​/​9​3​-​d​e​s​-​j​e​u​n​e​s​-​u​t​i​l​i​s​e​n​t​-​u​n​e​-​i​a​-​g​e​n​e​r​a​t​i​v​e​-​b​a​r​o​m​e​t​r​e​-​b​o​r​n​-​a​i​-​2025/
2Kos­my­na, N., Haupt­mann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beres­nitz­ky, A. V., Braun­stein, I., & Maes, P. (2025, juin). Your Brain on ChatGPT : Accu­mu­la­tion of Cog­ni­tive Debt when Using an AI Assis­tant for Essay Wri­ting Task. arXiv. https://​arxiv​.org/​a​b​s​/​2​5​0​6​.​08872
3Der­gaa, I., Ben Saad, H., Glenn, J. M., Ama­mou, B., Ben Ais­sa, M., Guel­ma­mi, N., Fekih-Romd­hane, F., & Cha­ma­ri, K. (2024). From tools to threats : A reflec­tion on the impact of arti­fi­cial-intel­li­gence chat­bots on cog­ni­tive health. Fron­tiers in Psy­cho­lo­gy, 15https://​doi​.org/​1​0​.​3​3​8​9​/​f​p​s​y​g​.​2​0​2​4​.​1​2​59845
4Doshi, A. R., & Hau­ser, O. P. (2024). Gene­ra­tive AI enhances indi­vi­dual crea­ti­vi­ty but reduces the col­lec­tive diver­si­ty of novel content. Science Advances, 10(28). https://​doi​.org/​1​0​.​1​1​2​6​/​s​c​i​a​d​v​.​a​d​n5290
5Lee, H., Kim, S., Chen, J., Patel, R., & Wang, T. (2025, April 26–May 1). The impact of gene­ra­tive AI on cri­ti­cal thin­king : Self-repor­ted reduc­tions in cog­ni­tive effort and confi­dence effects from a sur­vey of know­ledge wor­kers. In CHI Confe­rence on Human Fac­tors in Com­pu­ting Sys­tems (CHI ’25) (pp. 1–23). ACM. https://​doi​.org/​1​0​.​1​1​4​5​/​3​7​0​6​5​9​8​.​3​7​13778
6Ren, R., Agar­wal, A., Mazei­ka, M., Men­ghi­ni, C., Vaca­rea­nu, R., Kenst­ler, B., Yang, M., Bar­rass, I., Gat­ti, A., Yin, X., Tre­vi­no, E., Geral­nik, M., Kho­ja, A., Lee, D., Yue, S., & Hen­drycks, D. (2025, mars). The MASK Bench­mark : Disen­tan­gling Hones­ty From Accu­ra­cy in AI Sys­tems [Pré­pu­bli­ca­tion]. arXiv. https://​arxiv​.org/​a​b​s​/​2​5​0​3​.​03750
7Park, P. S., Hen­drycks, D., Burns, K., & Stein­hardt, J. (2024). AI decep­tion : A sur­vey of examples, risks, and poten­tial solu­tions. Pat­terns, 5(5), 100988. https://​doi​.org/​1​0​.​1​0​1​6​/​j​.​p​a​t​t​e​r​.​2​0​2​4​.​1​00988
8Anthro­pic. (2025, mai). Sys­tem Card : Claude Opus 4 & Claude Son­net 4 (Rap­port de sécu­ri­té). https://​www​-cdn​.anthro​pic​.com/​4​2​6​3​b​9​4​0​c​a​b​b​5​4​6​a​a​0​e​3​2​8​3​f​3​5​b​6​8​6​f​4​f​3​b​2​f​f​4​7.pdf
9Green­blatt, R., Wang, J., Wang, R., & Gan­gu­li, D. (2024, décembre). Ali­gn­ment faking in large lan­guage models [Pré­pu­bli­ca­tion]. arXiv. https://​doi​.org/​1​0​.​4​8​5​5​0​/​a​r​X​i​v​.​2​4​1​2​.​14093
10Pan, X., Liu, Y., Li, Z., & Zhang, Y. (2024, décembre). Fron­tier AI sys­tems have sur­pas­sed the self-repli­ca­ting red line [Pré­pu­bli­ca­tion]. arXiv. https://​doi​.org/​1​0​.​4​8​5​5​0​/​a​r​X​i​v​.​2​4​1​2​.​12140
11Amo­dei, D. (2025, avril). The urgen­cy of inter­pre­ta­bi­li­ty [Billet de blog]. https://​www​.darioa​mo​dei​.com/​p​o​s​t​/​t​h​e​-​u​r​g​e​n​c​y​-​o​f​-​i​n​t​e​r​p​r​e​t​a​b​ility
12Lois­Zé­ro. Logo – IA sécu­ri­taire pour l’hu­ma­ni­té – https://​law​ze​ro​.org/fr

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don