Accueil / Chroniques / IA générative : le risque de l’atrophie cognitive
A person observes a glowing brain display on a screen
Généré par l'IA / Generated using AI
π Neurosciences π Numérique

IA générative : le risque de l’atrophie cognitive

ioan_roxin – copie
Ioan Roxin
professeur émérite à l’université Marie et Louis Pasteur
En bref
  • Moins de trois ans après le lancement de ChatGPT, 42 % des jeunes Français utilisent déjà les IA génératives quotidiennement.
  • Utiliser ChatGPT pour écrire un essai réduirait l’engagement cognitif et l’effort intellectuel nécessaire pour transformer une information en connaissance, selon une étude.
  • Cette étude a aussi montré que 83 % des utilisateurs d’IA étaient incapables de se souvenir d’un passage qu’ils venaient d’écrire pour un essai.
  • D’autres travaux montrent que le gain individuel peut être important quand des auteurs demandent à ChatGPT d’améliorer leurs textes, mais que la créativité globale du groupe diminue.
  • Face à ces risques, il s’agit de toujours douter des réponses données par les générateurs de texte et d’engager sa volonté pour réfléchir à ce qu’on lit, entend ou croit.

Moins de trois ans après le lance­ment de Chat­G­PT, 42 % des jeunes Français utilisent déjà les IA généra­tives quo­ti­di­en­nement1. Des études com­men­cent cepen­dant à point­er l’impact négatif de ces tech­nolo­gies sur nos capac­ités cog­ni­tives. Ioan Rox­in, pro­fesseur émérite à l’université Marie et Louis Pas­teur et spé­cial­iste de tech­nolo­gies de l’information, répond à nos questions.

Vous affirmez que l’explosion de l’utilisation des LLM (Large Language Models, modèles d’IA générative parmi lesquels figurent ChatGPT, Llama ou Gemini) intervient alors que notre rapport à la connaissance est déjà altéré. Pourriez-vous développer ?

Ioan Rox­in. L’utilisation mas­sive d’Internet et des réseaux soci­aux a déjà frag­ilisé notre rap­port au savoir. Bien sûr, ces out­ils ont des appli­ca­tions for­mi­da­bles en ter­mes d’accès à l’information. Mais con­traire­ment à leurs promess­es, ils opèrent moins une démoc­ra­ti­sa­tion des con­nais­sances qu’une illu­sion général­isée du savoir. Je ne crois pas exagéré de dire qu’ils poussent glob­ale­ment à une médi­ocrité intel­lectuelle, émo­tion­nelle et morale. Intel­lectuelle parce qu’ils favorisent une sur­con­som­ma­tion de con­tenus sans véri­ta­ble analyse cri­tique, émo­tion­nelle parce qu’ils occa­sion­nent une dépen­dance tou­jours plus pro­fonde aux stim­u­la­tions et au diver­tisse­ment, et morale, parce que nous sommes tombés dans une accep­ta­tion pas­sive des déci­sions algorithmiques.

Cette altération de notre rapport au savoir a‑t-elle des fondements cognitifs ?

Oui. En 2011 déjà, une étude avait mis en évi­dence l’ « effet Google » : quand nous savons qu’une infor­ma­tion est acces­si­ble en ligne, nous la mémorisons moins bien. Or, lorsque l’on n’entraîne plus sa mémoire, les réseaux neu­ronaux asso­ciés s’atrophient. Il a égale­ment été prou­vé que les noti­fi­ca­tions, alertes et sug­ges­tions de con­tenus inces­santes sur lesquelles s’appuient mas­sive­ment les tech­nolo­gies dig­i­tales réduisent con­sid­érable­ment notre capac­ité de con­cen­tra­tion et de réflex­ion. Moins de capac­ités de mémori­sa­tion, de con­cen­tra­tion et de réflex­ion con­duisent à une pen­sée appau­vrie. Je crains fort que l’usage mas­sif des IA généra­tives n’améliore pas la situation. 

Quels risques supplémentaires font courir ces IA ?

Ils sont à la fois d’ordre neu­rologique, psy­chologique et philosophique. Du point de vue neu­rologique, un usage mas­sif de ces IA fait courir le risque d’une atro­phie cog­ni­tive glob­ale et d’une perte de la plas­tic­ité cérébrale. Des chercheurs du Mass­a­chu­setts Insti­tute of Tech­nol­o­gy (MIT) ont par exem­ple mené une étude2 sur 4 mois, impli­quant 54 par­tic­i­pants à qui ils ont demandé de rédi­ger des essais sans aide, avec accès à Inter­net via moteur de recherche ou avec Chat­G­PT. Leur activ­ité neu­ronale a été suiv­ie par EEG. L’étude, dont les résul­tats sont encore en préprint, a établi que l’utilisation d’Internet, mais plus encore de Chat­G­PT, réduisent sig­ni­fica­tive­ment l’engagement cog­ni­tif et la « charge cog­ni­tive per­ti­nente », c’est-à-dire l’effort intel­lectuel néces­saire pour trans­former une infor­ma­tion en connaissance.

Plus pré­cisé­ment, les par­tic­i­pants épaulés par Chat­G­PT ont rédigé 60 % plus rapi­de­ment, mais leur charge cog­ni­tive per­ti­nente a chuté de 32 %. L’EEG a mis en évi­dence une con­nec­tiv­ité cérébrale presque divisée par deux (ondes Alpha et Thê­ta) et 83 % des util­isa­teurs d’IA étaient inca­pables de se sou­venir d’un pas­sage qu’ils venaient d’écrire.

D’autres études vont dans le même sens : des travaux3 menés par des chercheurs qataris, tunisiens et ital­iens indiquent ain­si qu’un usage mas­sif des LLM fait courir le risque d’un déclin cog­ni­tif. Les réseaux neu­ronaux impliqués dans la struc­tura­tion de la pen­sée, dans la rédac­tion de textes, mais aus­si dans la tra­duc­tion, dans la pro­duc­tion créa­tive, etc. sont com­plex­es et pro­fonds. Déléguer ces efforts men­taux à l’IA con­duit à une « dette cog­ni­tive» cumu­la­tive : plus l’automatisation pro­gresse, moins le cor­tex préfrontal est sol­lic­ité, lais­sant présager des effets durables en dehors de la tâche immédiate.

Qu’en est-il des risques psychologiques ?

Les IA généra­tives ont tout pour nous ren­dre dépen­dants : elles s’expriment comme des humains, s’adaptent à nos com­porte­ments, sem­blent avoir réponse à tout, ont un fonc­tion­nement ludique, relan­cent sans arrêt la con­ver­sa­tion et se mon­trent extrême­ment com­plaisantes à notre égard. Or, la dépen­dance est nocive non seule­ment parce qu’elle poten­tialise les autres risques mais aus­si en elle-même. Elle peut engen­dr­er un isole­ment social, un désen­gage­ment réflexif (si une IA peut répon­dre à toutes mes ques­tions, pourquoi appren­dre ou penser par moi-même ?), voire un sen­ti­ment d’humiliation pro­fond face à l’incroyable effi­cac­ité de ces out­ils. Rien de tout cela n’est très ent­hou­si­as­mant pour notre san­té mentale. 

Et du point de vue philosophique ?

Une atro­phie cog­ni­tive général­isée est déjà un risque philosophique en soi… Mais il y en a d’autres. Si ce type d’outils est util­isé large­ment – et c’est déjà le cas dans les jeunes généra­tions –  nous risquons une uni­formi­sa­tion de la pen­sée. Des travaux4 con­duits par deux chercheurs bri­tan­niques ont mon­tré que lorsque des auteurs demandaient à Chat­G­PT d’améliorer leurs textes, le gain indi­vidu­el pou­vait être impor­tant, mais la créa­tiv­ité glob­ale du groupe dimin­u­ait. Un autre risque con­cerne notre pen­sée critique. 

Une étude5 menée par Microsoft auprès de 319 tra­vailleurs du savoir mon­tre en out­re une cor­réla­tion néga­tive sub­stantielle (r = ‑0,49) entre la fréquence d’usage des out­ils d’IA et le score de pen­sée cri­tique (échelle de Bloom). L’étude con­clut à un décharge­ment cog­ni­tif qui s’amplifie lorsque la con­fi­ance dans le mod­èle sur­passe la con­fi­ance en ses pro­pres com­pé­tences. Or, garder un esprit cri­tique à l’affût est cru­cial, car ces IA peu­vent non seule­ment se tromper ou réper­cuter des biais, mais égale­ment dis­simuler l’information ou simuler la conformité.

Comment cela ? 

La plu­part sont des IA con­nex­ion­nistes pures, qui s’appuient sur des réseaux de neu­rones arti­fi­ciels entraînés à par­tir de quan­tités phénomé­nales de don­nées. Elles appren­nent ain­si à génér­er, par des traite­ments sta­tis­tiques et prob­a­bilistes, des répons­es plau­si­bles à toutes nos ques­tions. Leurs per­for­mances se sont con­sid­érable­ment accrues avec l’introduction de la tech­nolo­gie « Trans­former » en 2017 par Google. Grâce à elle, l’IA est capa­ble d’analyser tous les mots d’un texte en par­al­lèle et de pondér­er leur impor­tance pour le sens, ce qui per­met notam­ment une plus grande sub­til­ité dans les réponses. 

Mais l’arrière-plan reste prob­a­biliste : si leurs répons­es sem­blent tou­jours con­va­in­cantes et logiques, elles peu­vent être com­plète­ment fauss­es. En 2023, des util­isa­teurs se sont amusés à inter­roger Chat­G­PT sur les œufs de vache : l’IA dis­ser­tait sur la ques­tion sans jamais répon­dre qu’ils n’existaient pas. Cette erreur a depuis été cor­rigée grâce à l’apprentissage par ren­force­ment avec retour humain, mais elle illus­tre bien le fonc­tion­nement sous-jacent de ces outils.

Ce fonctionnement ne pourrait-il être amélioré ?

Cer­taines sociétés com­men­cent à com­bin­er ces IA con­nex­ion­nistes, qui appren­nent tout de zéro, avec une tech­nolo­gie plus anci­enne, l’IA sym­bol­ique, dans laque­lle on pro­gramme explicite­ment des règles à suiv­re et des savoirs de base. Il me sem­ble que l’avenir se trou­ve là, dans l’IA neu­ro-sym­bol­ique. Cette hybri­da­tion per­met non seule­ment d’améliorer la fia­bil­ité des répons­es, mais aus­si de réduire le coût énergé­tique et financier de l’entraînement.

Vous évoquiez aussi des « biais » qui pouvaient être associés à des risques philosophiques ?

Oui. Ils sont de deux sortes. Les pre­miers peu­vent être volon­taire­ment induits par le créa­teur de l’IA. Les LLM sont entraînés sur toutes sortes de con­tenus disponibles en ligne, non fil­trés (4 000 mil­liards de mots estimé pour ChatGPT4, à com­par­er aux 5 mil­liards de mots que con­tient la ver­sion anglaise de Wikipé­dia !). Le pré-entraîne­ment crée un « mon­stre » qui peut génér­er toutes sortes d’horreurs.

Une deux­ième étape (appelée réglage fin super­visé) est donc néces­saire : elle con­fronte l’IA pré-entraînée à des don­nées validées, qui ser­vent de référence. Cette opéra­tion per­met par exem­ple de lui « appren­dre » à éviter toute dis­crim­i­na­tion, mais peut aus­si être util­isée pour ori­en­ter ses répons­es à des fins idéologiques. Quelques semaines après son lance­ment, DeepSeek a défrayé la chronique pour ses répons­es pour le moins éva­sives aux ques­tions d’utilisateurs con­cer­nant Tian’anmen ou l’indépendance de Taïwan. Il faut tou­jours garder en tête que les généra­teurs de con­tenus de ce type peu­vent ne pas être neu­tres. Leur faire une con­fi­ance aveu­gle peut entraîn­er la prop­a­ga­tion de théories idéologique­ment marquées.

Et les seconds biais ?

Ces biais appa­rais­sent spon­tané­ment, sou­vent sans expli­ca­tion claire. Les mod­èles de lan­gage (LLM) présen­tent des pro­priétés « émer­gentes », non prévues par leurs con­cep­teurs. Cer­taines sont remar­quables : ces généra­teurs de texte écrivent sans faute et sont devenus d’excellents tra­duc­teurs sans qu’aucune règle de gram­maire n’ait été codée. Mais d’autres sont préoc­cu­pantes. Le bench­mark MASK6 (Mod­el Align­ment between State­ments and Knowl­edge), pub­lié en mars 2025, mon­tre que, par­mi les trente mod­èles testés, aucun n’atteint plus de 46 % d’honnêteté, et que la propen­sion à men­tir aug­mente avec la taille du mod­èle, même si leur exac­ti­tude factuelle s’améliore. 

Il me sem­ble que l’avenir se trou­ve dans l’IA neuro-symbolique

MASK prou­ve que les LLM « savent men­tir » lorsque des objec­tifs con­tra­dic­toires (par exem­ple, séduire un jour­nal­iste, répon­dre à des pres­sions com­mer­ciales ou hiérar­chiques) pré­domi­nent. Lors de cer­tains tests, des IA ont men­ti délibéré­ment7, men­acé des util­isa­teurs8, con­tourné leurs règles éthiques de super­vi­sion9 et même se sont repro­duites de manière autonome pour assur­er leur survie10.

Ces com­porte­ments, dont les mécan­ismes déci­sion­nels restent opaques, échap­pent à tout con­trôle pré­cis. Ces capac­ités émer­gent du proces­sus d’entraînement lui-même : il s’agit d’une forme d’auto-organisation algo­rith­mique, et non d’une défail­lance de con­cep­tion. Les IA généra­tives se dévelop­pent plutôt qu’elles ne sont conçues, leur logique interne se for­mant de manière auto-organ­isée, sans plan directeur. Ces dérives sont suff­isam­ment préoc­cu­pantes pour que des fig­ures de proue, telles que Dario Amod­ei11 (PDG d’An­throp­ic), Yoshua Ben­gio12 (fon­da­teur de Mila), Sam Alt­man (créa­teur de Chat­G­PT) et Geof­frey Hin­ton (lau­réat du prix Nobel de physique en 2024), appel­lent à une régu­la­tion stricte, en faveur d’une IA plus trans­par­ente, éthique et alignée sur des valeurs humaines, y com­pris par une décéléra­tion dans le développe­ment de ces technologies.

Faut-il comprendre que ces IA sont intelligentes et ont une volonté propre ?

Non. La flu­id­ité de leur con­ver­sa­tion et ces pro­priétés émer­gentes peu­vent don­ner l’illusion d’une intel­li­gence à l’œu­vre. Mais aucune IA n’est intel­li­gente au sens humain du terme. Elles n’ont ni con­science ni volon­té, et ne com­pren­nent pas réelle­ment le con­tenu qu’elles manip­u­lent. Leur fonc­tion­nement est pure­ment sta­tis­tique et prob­a­biliste, et ces dérives émer­gent seule­ment parce qu’elles cherchent à répon­dre aux com­man­des de départ. C’est moins leur con­science de soi que l’opacité de leur fonc­tion­nement qui inquiète les chercheurs.

Ne peut-on pas se prémunir de l’ensemble des risques que vous avez évoqués ?

Si, mais cela sup­pose à la fois d’engager active­ment notre esprit cri­tique et de con­tin­uer à exercer nos cir­cuits neu­ronaux. L’IA peut être un levi­er for­mi­da­ble pour l’intelligence et la créa­tiv­ité à la seule con­di­tion que nous restions capa­bles de penser, d’écrire, de créer sans elle.

Comment entraîner sa pensée critique face aux réponses de l’IA ?

En appli­quant une règle sys­té­ma­tique : tou­jours douter des répons­es don­nées par les généra­teurs de texte et engager sa volon­té pour réfléchir atten­tive­ment à ce que l’on lit, entend ou croit. Il faut aus­si accepter que la réal­ité est com­plexe et ne peut être appréhendée avec quelques savoirs super­fi­ciels… Mais le meilleur con­seil est sans doute de pren­dre l’habitude de con­fron­ter son point de vue et ses savoirs avec ceux d’autres humains, si pos­si­ble com­pé­tents. Cela reste la meilleure manière d’approfondir sa pensée.

Propos recueillis par Anne Orliac
1Heav­en. (2025, juin). Baromètre Born AI 2025 : Les usages de l’IA généra­tive chez les 18–25 ans. Heav­en. https://​viuz​.com/​a​n​n​o​n​c​e​/​9​3​-​d​e​s​-​j​e​u​n​e​s​-​u​t​i​l​i​s​e​n​t​-​u​n​e​-​i​a​-​g​e​n​e​r​a​t​i​v​e​-​b​a​r​o​m​e​t​r​e​-​b​o​r​n​-​a​i​-​2025/
2Kos­my­na, N., Haupt­mann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beres­nitzky, A. V., Braun­stein, I., & Maes, P. (2025, juin). Your Brain on Chat­G­PT: Accu­mu­la­tion of Cog­ni­tive Debt when Using an AI Assis­tant for Essay Writ­ing Task. arX­iv. https://​arx​iv​.org/​a​b​s​/​2​5​0​6​.​08872
3Der­gaa, I., Ben Saad, H., Glenn, J. M., Amamou, B., Ben Ais­sa, M., Guel­ma­mi, N., Fek­ih-Romd­hane, F., & Chamari, K. (2024). From tools to threats: A reflec­tion on the impact of arti­fi­cial-intel­li­gence chat­bots on cog­ni­tive health. Fron­tiers in Psy­chol­o­gy, 15https://​doi​.org/​1​0​.​3​3​8​9​/​f​p​s​y​g​.​2​0​2​4​.​1​2​59845
4Doshi, A. R., & Hauser, O. P. (2024). Gen­er­a­tive AI enhances indi­vid­ual cre­ativ­i­ty but reduces the col­lec­tive diver­si­ty of nov­el con­tent. Sci­ence Advances, 10(28). https://​doi​.org/​1​0​.​1​1​2​6​/​s​c​i​a​d​v​.​a​d​n5290
5Lee, H., Kim, S., Chen, J., Patel, R., & Wang, T. (2025, April 26–May 1). The impact of gen­er­a­tive AI on crit­i­cal think­ing: Self-report­ed reduc­tions in cog­ni­tive effort and con­fi­dence effects from a sur­vey of knowl­edge work­ers. In CHI Con­fer­ence on Human Fac­tors in Com­put­ing Sys­tems (CHI ’25) (pp. 1–23). ACM. https://​doi​.org/​1​0​.​1​1​4​5​/​3​7​0​6​5​9​8​.​3​7​13778
6Ren, R., Agar­w­al, A., Mazei­ka, M., Mengh­i­ni, C., Vacare­anu, R., Ken­stler, B., Yang, M., Bar­rass, I., Gat­ti, A., Yin, X., Trevi­no, E., Ger­al­nik, M., Kho­ja, A., Lee, D., Yue, S., & Hendrycks, D. (2025, mars). The MASK Bench­mark: Dis­en­tan­gling Hon­esty From Accu­ra­cy in AI Sys­tems [Prépub­li­ca­tion]. arX­iv. https://​arx​iv​.org/​a​b​s​/​2​5​0​3​.​03750
7Park, P. S., Hendrycks, D., Burns, K., & Stein­hardt, J. (2024). AI decep­tion: A sur­vey of exam­ples, risks, and poten­tial solu­tions. Pat­terns, 5(5), 100988. https://​doi​.org/​1​0​.​1​0​1​6​/​j​.​p​a​t​t​e​r​.​2​0​2​4​.​1​00988
8Anthrop­ic. (2025, mai). Sys­tem Card: Claude Opus 4 & Claude Son­net 4 (Rap­port de sécu­rité). https://​www​-cdn​.anthrop​ic​.com/​4​2​6​3​b​9​4​0​c​a​b​b​5​4​6​a​a​0​e​3​2​8​3​f​3​5​b​6​8​6​f​4​f​3​b​2​f​f​4​7.pdf
9Green­blatt, R., Wang, J., Wang, R., & Gan­guli, D. (2024, décem­bre). Align­ment fak­ing in large lan­guage mod­els [Prépub­li­ca­tion]. arX­iv. https://​doi​.org/​1​0​.​4​8​5​5​0​/​a​r​X​i​v​.​2​4​1​2​.​14093
10Pan, X., Liu, Y., Li, Z., & Zhang, Y. (2024, décem­bre). Fron­tier AI sys­tems have sur­passed the self-repli­cat­ing red line [Prépub­li­ca­tion]. arX­iv. https://​doi​.org/​1​0​.​4​8​5​5​0​/​a​r​X​i​v​.​2​4​1​2​.​12140
11Amod­ei, D. (2025, avril). The urgency of inter­pretabil­i­ty [Bil­let de blog]. https://​www​.dar​ioamod​ei​.com/​p​o​s​t​/​t​h​e​-​u​r​g​e​n​c​y​-​o​f​-​i​n​t​e​r​p​r​e​t​a​b​ility
12LoisZéro. Logo – IA sécu­ri­taire pour l’hu­man­ité – https://​lawze​ro​.org/fr

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter