IA générative : le risque de l’atrophie cognitive
- Moins de trois ans après le lancement de ChatGPT, 42 % des jeunes Français utilisent déjà les IA génératives quotidiennement.
- Utiliser ChatGPT pour écrire un essai réduirait l’engagement cognitif et l’effort intellectuel nécessaire pour transformer une information en connaissance, selon une étude.
- Cette étude a aussi montré que 83 % des utilisateurs d’IA étaient incapables de se souvenir d’un passage qu’ils venaient d’écrire pour un essai.
- D’autres travaux montrent que le gain individuel peut être important quand des auteurs demandent à ChatGPT d’améliorer leurs textes, mais que la créativité globale du groupe diminue.
- Face à ces risques, il s’agit de toujours douter des réponses données par les générateurs de texte et d’engager sa volonté pour réfléchir à ce qu’on lit, entend ou croit.
Moins de trois ans après le lancement de ChatGPT, 42 % des jeunes Français utilisent déjà les IA génératives quotidiennement1. Des études commencent cependant à pointer l’impact négatif de ces technologies sur nos capacités cognitives. Ioan Roxin, professeur émérite à l’université Marie et Louis Pasteur et spécialiste de technologies de l’information, répond à nos questions.
Vous affirmez que l’explosion de l’utilisation des LLM (Large Language Models, modèles d’IA générative parmi lesquels figurent ChatGPT, Llama ou Gemini) intervient alors que notre rapport à la connaissance est déjà altéré. Pourriez-vous développer ?
Ioan Roxin. L’utilisation massive d’Internet et des réseaux sociaux a déjà fragilisé notre rapport au savoir. Bien sûr, ces outils ont des applications formidables en termes d’accès à l’information. Mais contrairement à leurs promesses, ils opèrent moins une démocratisation des connaissances qu’une illusion généralisée du savoir. Je ne crois pas exagéré de dire qu’ils poussent globalement à une médiocrité intellectuelle, émotionnelle et morale. Intellectuelle parce qu’ils favorisent une surconsommation de contenus sans véritable analyse critique, émotionnelle parce qu’ils occasionnent une dépendance toujours plus profonde aux stimulations et au divertissement, et morale, parce que nous sommes tombés dans une acceptation passive des décisions algorithmiques.
Cette altération de notre rapport au savoir a‑t-elle des fondements cognitifs ?
Oui. En 2011 déjà, une étude avait mis en évidence l’ « effet Google » : quand nous savons qu’une information est accessible en ligne, nous la mémorisons moins bien. Or, lorsque l’on n’entraîne plus sa mémoire, les réseaux neuronaux associés s’atrophient. Il a également été prouvé que les notifications, alertes et suggestions de contenus incessantes sur lesquelles s’appuient massivement les technologies digitales réduisent considérablement notre capacité de concentration et de réflexion. Moins de capacités de mémorisation, de concentration et de réflexion conduisent à une pensée appauvrie. Je crains fort que l’usage massif des IA génératives n’améliore pas la situation.
Quels risques supplémentaires font courir ces IA ?
Ils sont à la fois d’ordre neurologique, psychologique et philosophique. Du point de vue neurologique, un usage massif de ces IA fait courir le risque d’une atrophie cognitive globale et d’une perte de la plasticité cérébrale. Des chercheurs du Massachusetts Institute of Technology (MIT) ont par exemple mené une étude2 sur 4 mois, impliquant 54 participants à qui ils ont demandé de rédiger des essais sans aide, avec accès à Internet via moteur de recherche ou avec ChatGPT. Leur activité neuronale a été suivie par EEG. L’étude, dont les résultats sont encore en préprint, a établi que l’utilisation d’Internet, mais plus encore de ChatGPT, réduisent significativement l’engagement cognitif et la « charge cognitive pertinente », c’est-à-dire l’effort intellectuel nécessaire pour transformer une information en connaissance.

Plus précisément, les participants épaulés par ChatGPT ont rédigé 60 % plus rapidement, mais leur charge cognitive pertinente a chuté de 32 %. L’EEG a mis en évidence une connectivité cérébrale presque divisée par deux (ondes Alpha et Thêta) et 83 % des utilisateurs d’IA étaient incapables de se souvenir d’un passage qu’ils venaient d’écrire.
D’autres études vont dans le même sens : des travaux3 menés par des chercheurs qataris, tunisiens et italiens indiquent ainsi qu’un usage massif des LLM fait courir le risque d’un déclin cognitif. Les réseaux neuronaux impliqués dans la structuration de la pensée, dans la rédaction de textes, mais aussi dans la traduction, dans la production créative, etc. sont complexes et profonds. Déléguer ces efforts mentaux à l’IA conduit à une « dette cognitive» cumulative : plus l’automatisation progresse, moins le cortex préfrontal est sollicité, laissant présager des effets durables en dehors de la tâche immédiate.
Qu’en est-il des risques psychologiques ?
Les IA génératives ont tout pour nous rendre dépendants : elles s’expriment comme des humains, s’adaptent à nos comportements, semblent avoir réponse à tout, ont un fonctionnement ludique, relancent sans arrêt la conversation et se montrent extrêmement complaisantes à notre égard. Or, la dépendance est nocive non seulement parce qu’elle potentialise les autres risques mais aussi en elle-même. Elle peut engendrer un isolement social, un désengagement réflexif (si une IA peut répondre à toutes mes questions, pourquoi apprendre ou penser par moi-même ?), voire un sentiment d’humiliation profond face à l’incroyable efficacité de ces outils. Rien de tout cela n’est très enthousiasmant pour notre santé mentale.
Et du point de vue philosophique ?
Une atrophie cognitive généralisée est déjà un risque philosophique en soi… Mais il y en a d’autres. Si ce type d’outils est utilisé largement – et c’est déjà le cas dans les jeunes générations – nous risquons une uniformisation de la pensée. Des travaux4 conduits par deux chercheurs britanniques ont montré que lorsque des auteurs demandaient à ChatGPT d’améliorer leurs textes, le gain individuel pouvait être important, mais la créativité globale du groupe diminuait. Un autre risque concerne notre pensée critique.
Une étude5 menée par Microsoft auprès de 319 travailleurs du savoir montre en outre une corrélation négative substantielle (r = ‑0,49) entre la fréquence d’usage des outils d’IA et le score de pensée critique (échelle de Bloom). L’étude conclut à un déchargement cognitif qui s’amplifie lorsque la confiance dans le modèle surpasse la confiance en ses propres compétences. Or, garder un esprit critique à l’affût est crucial, car ces IA peuvent non seulement se tromper ou répercuter des biais, mais également dissimuler l’information ou simuler la conformité.
Comment cela ?
La plupart sont des IA connexionnistes pures, qui s’appuient sur des réseaux de neurones artificiels entraînés à partir de quantités phénoménales de données. Elles apprennent ainsi à générer, par des traitements statistiques et probabilistes, des réponses plausibles à toutes nos questions. Leurs performances se sont considérablement accrues avec l’introduction de la technologie « Transformer » en 2017 par Google. Grâce à elle, l’IA est capable d’analyser tous les mots d’un texte en parallèle et de pondérer leur importance pour le sens, ce qui permet notamment une plus grande subtilité dans les réponses.
Mais l’arrière-plan reste probabiliste : si leurs réponses semblent toujours convaincantes et logiques, elles peuvent être complètement fausses. En 2023, des utilisateurs se sont amusés à interroger ChatGPT sur les œufs de vache : l’IA dissertait sur la question sans jamais répondre qu’ils n’existaient pas. Cette erreur a depuis été corrigée grâce à l’apprentissage par renforcement avec retour humain, mais elle illustre bien le fonctionnement sous-jacent de ces outils.
Ce fonctionnement ne pourrait-il être amélioré ?
Certaines sociétés commencent à combiner ces IA connexionnistes, qui apprennent tout de zéro, avec une technologie plus ancienne, l’IA symbolique, dans laquelle on programme explicitement des règles à suivre et des savoirs de base. Il me semble que l’avenir se trouve là, dans l’IA neuro-symbolique. Cette hybridation permet non seulement d’améliorer la fiabilité des réponses, mais aussi de réduire le coût énergétique et financier de l’entraînement.
Vous évoquiez aussi des « biais » qui pouvaient être associés à des risques philosophiques ?
Oui. Ils sont de deux sortes. Les premiers peuvent être volontairement induits par le créateur de l’IA. Les LLM sont entraînés sur toutes sortes de contenus disponibles en ligne, non filtrés (4 000 milliards de mots estimé pour ChatGPT4, à comparer aux 5 milliards de mots que contient la version anglaise de Wikipédia !). Le pré-entraînement crée un « monstre » qui peut générer toutes sortes d’horreurs.
Une deuxième étape (appelée réglage fin supervisé) est donc nécessaire : elle confronte l’IA pré-entraînée à des données validées, qui servent de référence. Cette opération permet par exemple de lui « apprendre » à éviter toute discrimination, mais peut aussi être utilisée pour orienter ses réponses à des fins idéologiques. Quelques semaines après son lancement, DeepSeek a défrayé la chronique pour ses réponses pour le moins évasives aux questions d’utilisateurs concernant Tian’anmen ou l’indépendance de Taïwan. Il faut toujours garder en tête que les générateurs de contenus de ce type peuvent ne pas être neutres. Leur faire une confiance aveugle peut entraîner la propagation de théories idéologiquement marquées.
Et les seconds biais ?
Ces biais apparaissent spontanément, souvent sans explication claire. Les modèles de langage (LLM) présentent des propriétés « émergentes », non prévues par leurs concepteurs. Certaines sont remarquables : ces générateurs de texte écrivent sans faute et sont devenus d’excellents traducteurs sans qu’aucune règle de grammaire n’ait été codée. Mais d’autres sont préoccupantes. Le benchmark MASK6 (Model Alignment between Statements and Knowledge), publié en mars 2025, montre que, parmi les trente modèles testés, aucun n’atteint plus de 46 % d’honnêteté, et que la propension à mentir augmente avec la taille du modèle, même si leur exactitude factuelle s’améliore.
Il me semble que l’avenir se trouve dans l’IA neuro-symbolique
MASK prouve que les LLM « savent mentir » lorsque des objectifs contradictoires (par exemple, séduire un journaliste, répondre à des pressions commerciales ou hiérarchiques) prédominent. Lors de certains tests, des IA ont menti délibérément7, menacé des utilisateurs8, contourné leurs règles éthiques de supervision9 et même se sont reproduites de manière autonome pour assurer leur survie10.
Ces comportements, dont les mécanismes décisionnels restent opaques, échappent à tout contrôle précis. Ces capacités émergent du processus d’entraînement lui-même : il s’agit d’une forme d’auto-organisation algorithmique, et non d’une défaillance de conception. Les IA génératives se développent plutôt qu’elles ne sont conçues, leur logique interne se formant de manière auto-organisée, sans plan directeur. Ces dérives sont suffisamment préoccupantes pour que des figures de proue, telles que Dario Amodei11 (PDG d’Anthropic), Yoshua Bengio12 (fondateur de Mila), Sam Altman (créateur de ChatGPT) et Geoffrey Hinton (lauréat du prix Nobel de physique en 2024), appellent à une régulation stricte, en faveur d’une IA plus transparente, éthique et alignée sur des valeurs humaines, y compris par une décélération dans le développement de ces technologies.
Faut-il comprendre que ces IA sont intelligentes et ont une volonté propre ?
Non. La fluidité de leur conversation et ces propriétés émergentes peuvent donner l’illusion d’une intelligence à l’œuvre. Mais aucune IA n’est intelligente au sens humain du terme. Elles n’ont ni conscience ni volonté, et ne comprennent pas réellement le contenu qu’elles manipulent. Leur fonctionnement est purement statistique et probabiliste, et ces dérives émergent seulement parce qu’elles cherchent à répondre aux commandes de départ. C’est moins leur conscience de soi que l’opacité de leur fonctionnement qui inquiète les chercheurs.
Ne peut-on pas se prémunir de l’ensemble des risques que vous avez évoqués ?
Si, mais cela suppose à la fois d’engager activement notre esprit critique et de continuer à exercer nos circuits neuronaux. L’IA peut être un levier formidable pour l’intelligence et la créativité à la seule condition que nous restions capables de penser, d’écrire, de créer sans elle.
Comment entraîner sa pensée critique face aux réponses de l’IA ?
En appliquant une règle systématique : toujours douter des réponses données par les générateurs de texte et engager sa volonté pour réfléchir attentivement à ce que l’on lit, entend ou croit. Il faut aussi accepter que la réalité est complexe et ne peut être appréhendée avec quelques savoirs superficiels… Mais le meilleur conseil est sans doute de prendre l’habitude de confronter son point de vue et ses savoirs avec ceux d’autres humains, si possible compétents. Cela reste la meilleure manière d’approfondir sa pensée.