Accueil / Chroniques / L’IA générative bouleverse-t-elle les pratiques pédagogiques ?
Group of graduates walk through digital futuristic city. Illustration represents education innovation, future careers. Symbolizes e‑learning transformation artificial intelligence tech, progress.
π Numérique π Société

L’IA générative bouleverse-t-elle les pratiques pédagogiques ?

Michel Barabel_VF
Michel Barabel
professeur affilié à Sciences Po et maître de conférences à l’Université Paris-Est Créteil
En bref
  • Rendu public par OpenAI en 2023, GPT-4 a atteint des niveaux de performance comparables à ceux d’étudiants de second cycle sur des exercices de logique, de mathématiques et de rédaction académique.
  • Les modèles de langage modifient la manière dont les étudiants mobilisent leur raisonnement et leur capacité analytique, ce qui peut mener à une fragilisation de leur plasticité cérébrale et de leur densification des réseaux neuronaux.
  • Lorsque assisté par l’IA, l’acquisition des connaissances peut être affaiblie dès qu’elle remplace systématiquement l’effort intellectuel : les productions écrites, le travail autonome et les modalités d’évaluation.
  • De nombreuses questions sur l’équilibre entre assistance algorithmique et effort cognitif humain sont soulevées, d’autant par la rapide évolution des modèles d’IA.
  • Des cadres commencent à émerger où l’IA n’est ni absente ni centrale, mais intégrée de manière différenciée selon les objectifs cognitifs poursuivis.

L’irruption de l’intelligence arti­fi­cielle géné­ra­tive dans les sys­tèmes édu­ca­tifs marque un tour­nant tech­no­lo­gique.  Contrai­re­ment aux pla­te­formes d’apprentissage en ligne ou aux outils d’assistance péda­go­gique des années 2000 et 2010, les modèles de lan­gage de grande taille pro­duisent désor­mais des rai­son­ne­ments struc­tu­rés, syn­thé­tisent des cor­pus com­plexes et inter­agissent avec les appre­nants de manière adaptative. 

GPT‑4, ren­du public par Ope­nAI en 2023, a atteint des niveaux de per­for­mance com­pa­rables à ceux d’étudiants de second cycle sur des exer­cices de logique, de mathé­ma­tiques et de rédac­tion aca­dé­mique1. D’autres archi­tec­tures comme Claude d’Anthropic ou LLa­MA de Meta confirment cette dyna­mique tout en explo­rant des stra­té­gies de gou­ver­nance des sor­ties géné­ra­tives et de réduc­tion des biais2.

Ces avan­cées offrent de nou­velles oppor­tu­ni­tés pour per­son­na­li­ser les par­cours, ren­for­cer le tuto­rat indi­vi­dua­li­sé et élar­gir l’accès aux res­sources péda­go­giques. Elles sou­lèvent tou­te­fois des inter­ro­ga­tions sur les fré­quences d’utilisations (voir figure 1) et les condi­tions cog­ni­tives de l’apprentissage assis­té par IA, car cer­taines dimen­sions de l’acquisition des connais­sances peuvent être fra­gi­li­sées lorsque cette tech­no­lo­gie rem­place sys­té­ma­ti­que­ment l’effort intel­lec­tuel3

Fré­quence d’utilisation de l’IA dans un cadre pro­fes­sion­nel. Source : Minis­tère char­gé de l’enseignement supé­rieur et de la recherche4.

Ces enjeux touchent direc­te­ment des dis­po­si­tifs clés de l’enseignement supé­rieur, tels que la pro­duc­tion écrite, le tra­vail auto­nome et les moda­li­tés d’évaluation. De plus, ces trans­for­ma­tions appellent une approche com­bi­nant recherche aca­dé­mique et obser­va­tion des pra­tiques pédagogiques. 

L’effort cognitif à l’épreuve des modèles génératifs

Les modèles de lan­gage de grande taille modi­fient la manière dont les étu­diants mobi­lisent leur rai­son­ne­ment et leur capa­ci­té ana­ly­tique. GPT‑4, par exemple, atteint des per­for­mances com­pa­rables à celles d’étudiants de second cycle sur des exer­cices de logique, de mathé­ma­tiques et de syn­thèse tex­tuelle5. Cette por­tée sou­lève des ques­tions sur l’équilibre entre assis­tance algo­rith­mique et effort cog­ni­tif humain.

« Le pro­blème, dans le champ édu­ca­tif, appa­raît lorsque l’étudiant uti­lise sys­té­ma­ti­que­ment l’IA pour réa­li­ser un expo­sé, un mémoire, une dis­ser­ta­tion ou même pour apprendre une notion » affirme Michel Bara­bel, maître de confé­rences à l’Université Paris-Est dont les tra­vaux portent sur la trans­for­ma­tion des orga­ni­sa­tions, en par­ti­cu­lier la ges­tion des com­pé­tences, la for­ma­tion pro­fes­sion­nelle et les cultures appre­nantes. La sous-trai­tance sys­té­ma­tique peut nuire au déve­lop­pe­ment de capa­ci­tés cog­ni­tives essen­tielles. « Les tra­vaux de recherche montrent que dans ce cas, le coût de l’effort cog­ni­tif aug­mente rapi­de­ment et que faire seul devient de plus en plus dif­fi­cile ».

Les cadres théo­riques de la psy­cho­lo­gie cog­ni­tive per­mettent d’éclairer ce phé­no­mène. Les dis­tinc­tions de Daniel Kah­ne­man entre le cer­veau de type 1, ana­ly­tique et pares­seux, et le cer­veau de type 2, créa­tif et mobi­li­sé dans la réso­lu­tion de situa­tions inédites, servent de réfé­rence. Bara­bel observe que « la grande pro­messe de l’IA est pré­ci­sé­ment de sous-trai­ter les tâches rele­vant du cer­veau de type 1, simples et répé­ti­tives, afin de libé­rer du temps pour des acti­vi­tés de type 2 ». Son usage répé­té dans des tâches fon­da­men­tales du type 1 peut ain­si limi­ter la den­si­fi­ca­tion des réseaux neu­ro­naux néces­saires à la créa­ti­vi­té et à la pen­sée critique.

Une com­pa­rai­son avec d’autres usages tech­no­lo­giques illustre ce risque. « Cette dépen­dance pose une ques­tion cen­trale, celle d’un appau­vris­se­ment pro­gres­sif des capa­ci­tés cog­ni­tives », explique Bara­bel, fai­sant réfé­rence à des exemples obser­vés dans d’autres contextes, comme la navi­ga­tion des chauf­feurs de taxi lon­do­niens deve­nue dépen­dante du GPS. Les tra­vaux en neu­ros­ciences montrent que l’apprentissage repo­sant sur un enga­ge­ment cog­ni­tif actif favo­rise la plas­ti­ci­té céré­brale et la den­si­fi­ca­tion des réseaux neu­ro­naux, tan­dis qu’une réduc­tion durable de l’effort ana­ly­tique limite ces méca­nismes et fra­gi­lise la mobi­li­sa­tion des com­pé­tences dans des situa­tions com­plexes6« Or, on sait qu’il est très dif­fi­cile de faire émer­ger une créa­ti­vi­té authen­tique sans ce socle d’effort cog­ni­tif préa­lable », ajoute l’expert.

Cette réflexion sur l’effort cog­ni­tif sou­ligne que les effets de l’IA géné­ra­tive dépendent moins de la tech­no­lo­gie que des moda­li­tés d’usage. L’usage réflé­chi et régu­lé peut sou­te­nir la créa­ti­vi­té et la pro­duc­ti­vi­té, tan­dis qu’un usage pas­sif peut com­pro­mettre le déve­lop­pe­ment de com­pé­tences intel­lec­tuelles essentielles.

Des recours pédagogiques en recomposition progressive

La dif­fu­sion rapide des outils d’IA géné­ra­tive a ren­du visibles des usages déjà lar­ge­ment ins­tal­lés chez les étu­diants, sou­vent en dehors de tout cadre ins­ti­tu­tion­nel. Plu­sieurs tra­vaux montrent que ces outils sont mobi­li­sés pour rédi­ger des expo­sés, struc­tu­rer des mémoires ou pré­pa­rer des éva­lua­tions, sans que les dis­po­si­tifs péda­go­giques aient été conçus pour en tenir compte7. Cette situa­tion a conduit cer­tains éta­blis­se­ments à repen­ser non pas seule­ment la régu­la­tion, mais la nature même des acti­vi­tés proposées.

D’après Michel Bara­bel, « la ques­tion ne peut se réduire à une oppo­si­tion entre auto­ri­sa­tion et inter­dic­tion. Le pro­blème ne doit pas être posé en ces termes ». Il sti­pule que l’IA com­bine des poten­tia­li­tés péda­go­giques fortes et des limites réelles. Dans les dis­po­si­tifs qu’il observe, l’enjeu consiste à dis­tin­guer plu­sieurs formes d’activités selon le rôle attri­bué à la machine. « Cer­taines acti­vi­tés peuvent être tota­le­ment confiées à l’IA sans régu­la­tion par­ti­cu­lière », notam­ment lorsqu’il s’agit de pro­cé­dures ou d’aide métho­do­lo­gique, tan­dis que d’autres doivent res­ter exclu­si­ve­ment humaines. « L’usage de l’IA y est inter­dit afin de pré­ser­ver la rela­tion péda­go­gique, le tra­vail du cer­veau de type 1 et la créa­ti­vi­té et l’esprit cri­tique ».

Cette dif­fé­ren­cia­tion se tra­duit concrè­te­ment par des dis­po­si­tifs de trans­pa­rence. « À Sciences Po et à l’IAE Paris-Est, les étu­diants doivent expli­ci­ter leur usage de l’IA dans une annexe dédiée. Nous auto­ri­sons son exploi­ta­tion, mais nous impo­sons une annexe IA dans tous les tra­vaux », pré­cise Bara­bel. Cette exi­gence per­met de dépla­cer l’évaluation du seul résul­tat vers le pro­ces­sus intel­lec­tuel mobi­li­sé. « Le nou­veau pla­giat, pour nous, n’est pas d’utiliser l’IA, mais de l’utiliser sans le décla­rer », ajoute-t-il.

Les moda­li­tés d’évaluation ont éga­le­ment été ajus­tées pour tenir compte de ces pra­tiques. Bara­bel observe qu’« un expo­sé à rendre pour la semaine sui­vante a aujourd’hui une pro­ba­bi­li­té très éle­vée d’être pro­duit à 60, 70, voire 90 % à l’aide de l’IA ». Dans ce contexte, « là où l’écrit pesait aupa­ra­vant davan­tage, l’oral est désor­mais majo­ri­taire », afin de véri­fier la com­pré­hen­sion, l’appropriation des concepts et la facul­té de l’étudiant à défendre son raisonnement.

Entre délé­ga­tion, assis­tance et aug­men­ta­tion, les appli­ca­tions péda­go­giques se struc­turent ain­si autour d’un prin­cipe d’articulation. « Il existe des situa­tions où l’IA assiste l’étudiant », note Bara­bel, tan­dis que dans d’autres confi­gu­ra­tions, « l’étudiant pro­duit une pre­mière ver­sion et l’IA l’aide à l’améliorer par ques­tion­ne­ment et sug­ges­tions ». Ces expé­ri­men­ta­tions des­sinent pro­gres­si­ve­ment un cadre où cette tech­no­lo­gie n’est ni absente ni cen­trale, mais inté­grée de manière dif­fé­ren­ciée selon les objec­tifs cog­ni­tifs poursuivis.

Entre promesses d’augmentation et risques de fragmentation

Les limites actuelles de l’IA géné­ra­tive en contexte édu­ca­tif tiennent moins à ses per­for­mances tech­niques qu’aux effets sys­té­miques qu’elle induit sur les tra­jec­toires d’apprentissage. Les béné­fices cog­ni­tifs obser­vés dépendent for­te­ment des condi­tions d’emploi, avec des résul­tats par­fois contra­dic­toires selon les pro­to­coles expérimentaux[8]. Michel Bara­bel invite ain­si à la pru­dence dans l’interprétation des pre­mières don­nées dis­po­nibles. « Cer­taines études, notam­ment du MIT, ont mon­tré une baisse rapide de cer­taines capa­ci­tés cog­ni­tives, mais sur des échan­tillons très réduits et avec des pro­to­coles dis­cu­tables », rap­pelle-t-il, tout en notant que d’autres tra­vaux mettent en évi­dence des effets posi­tifs sur cer­taines compétences.

Cette hété­ro­gé­néi­té des résul­tats ren­voie à une ques­tion cen­trale, celle de l’intensité et sur­tout de la nature des uti­li­sa­tions. « Il pas cer­tain qu’il existe un seuil uni­ver­sel », pré­cise Bara­bel, en sou­li­gnant que « le pro­blème réside davan­tage dans l’organisation des acti­vi­tés que dans le volume d’interaction avec l’IA ». Il pro­pose un équi­libre théo­rique dans lequel « le 100 % humain devrait repré­sen­ter au moins 20 % des acti­vi­tés », afin de pré­ser­ver les fonc­tions cog­ni­tives fon­da­men­tales liées à l’effort, à la réflexion auto­nome et à la construc­tion du jugement.

Cette réflexion sur l’effort cog­ni­tif sou­ligne que les effets de l’IA géné­ra­tive dépendent moins de la tech­no­lo­gie que des moda­li­tés d’usage

Au-delà des effets indi­vi­duels, les cher­cheurs s’inquiètent de dyna­miques d’inégalités sus­cep­tibles d’être ampli­fiées par les sys­tèmes intel­li­gents. Les écarts d’accès aux ver­sions les plus per­for­mantes des modèles, sou­vent condi­tion­nés par des abon­ne­ments payants, consti­tuent un pre­mier fac­teur de différenciation[9]. Bara­bel met en évi­dence le fait que « le capi­tal éco­no­mique des familles pour­rait condi­tion­ner l’accès à des IA plus per­for­mantes, uti­li­sées dans un cadre pri­vé », créant un avan­tage cumu­la­tif pour cer­tains étu­diants. À cela s’ajoutent les dis­pa­ri­tés ins­ti­tu­tion­nelles. « Cer­tains éta­blis­se­ments dis­posent des moyens finan­ciers et péda­go­giques pour déployer des IA, for­mer les ensei­gnants et mettre en place des chartes éthiques. D’autres non ».

Ces écarts maté­riels se doublent d’inégalités cultu­relles et cog­ni­tives. « Le risque majeur est alors l’accroissement des écarts entre étu­diants », pointe Bara­bel, dis­tin­guant ceux qui uti­lisent l’IA de manière stra­té­gique, ceux qui en font un usage méca­nique et ceux qui réin­ves­tissent le temps libé­ré dans des acti­vi­tés à forte valeur cog­ni­tive. Les recherches en socio­lo­gie de l’éducation montrent que ces méca­nismes d’appropriation dif­fé­ren­ciée jouent un rôle déter­mi­nant dans la repro­duc­tion ou la trans­for­ma­tion des hié­rar­chies sco­laires8.

Enfin, la rapi­di­té d’évolution des tech­no­lo­gies pose un défi struc­tu­rel aux ins­ti­tu­tions édu­ca­tives. « Ce que nous disons aujourd’hui peut être remis en cause dans quelques mois par une nou­velle géné­ra­tion d’IA », signale Bara­bel. Cette insta­bi­li­té tech­no­lo­gique inter­roge la capa­ci­té des sys­tèmes édu­ca­tifs à arti­cu­ler inno­va­tion, équi­té et déve­lop­pe­ment des com­pé­tences humaines fon­da­men­tales, dans un contexte où la pro­duc­tion et la trans­mis­sion des savoirs sont elles-mêmes en pro­fonde recomposition.

Aicha Fall
1Ope­nAI, GPT‑4 Tech­ni­cal Report, 2023 https://cdn.openai.com/papers/gpt‑4.pdf
2Bubeck Sébas­tien, Chan­dra­se­ka­ran Varun, Eldan Ronen, Gehrke Johannes, Hor­vitz Eric, Kamar Ece, Lee Peter, Lee Yi‑Ting, Li Yin Tat, Lund­berg Scott, Nori Har­sha, Palan­gi Hamid, Ribei­ro Mar­co Tulio, Zhang Yi, Sparks of Arti­fi­cial Gene­ral Intel­li­gence Ear­ly Expe­ri­ments with GPT‑4, 2023 https://​arxiv​.org/​p​d​f​/​2​3​0​3​.​12712
3Unes­coGuide pour l’IA géné­ra­tive dans l’éducation et la recherche, 2023 https://​www​.unes​co​.org/​f​r​/​d​i​g​i​t​a​l​-​e​d​u​c​a​t​i​o​n​/​a​i​-​f​u​t​u​r​e​-​l​e​a​r​n​i​n​g​/​g​u​i​dance
4Minis­tère char­gé de l’enseignement supé­rieur et de la recherche, IA et ensei­gne­ment supé­rieur : for­ma­tion, struc­tu­ra­tion et appro­pria­tion par la socié­té, Juin 2025
https://www.enseignementsup-recherche.gouv.fr/sites/default/files/2025–07/rapport-intelligence-artificielle-et-enseignement-sup-rieur-formation-structuration-et-appropriation-par-la-soci‑t–37540.pdf
5OECD, OECD Digi­tal Edu­ca­tion Out­look 2023 : Towards an Effec­tive Digi­tal Edu­ca­tion Eco­sys­tem, 2023 https://​www​.oecd​.org/​c​o​n​t​e​n​t​/​d​a​m​/​o​e​c​d​/​e​n​/​p​u​b​l​i​c​a​t​i​o​n​s​/​r​e​p​o​r​t​s​/​2​0​2​3​/​1​2​/​o​e​c​d​-​d​i​g​i​t​a​l​-​e​d​u​c​a​t​i​o​n​-​o​u​t​l​o​o​k​-​2​0​2​3​_​c​8​2​7​b​8​1​a​/​c​7​4​f​0​3​d​e​-​e​n.pdf
6Kolb, B., Gibb, R. (2011). Brain plas­ti­ci­ty and beha­viour in the deve­lo­ping brain. Jour­nal of the Cana­dian Aca­de­my of Child and Ado­les­cent Psy­chia­try, 20(4), 265–276. https://​pmc​.ncbi​.nlm​.nih​.gov/​a​r​t​i​c​l​e​s​/​P​M​C​3​2​2​2570/
7Usage des Intel­li­gences arti­fi­cielles géné­ra­tives à l’université : regards croi­sés entre usa­gers et pro­fes­sion­nels des biblio­thèques uni­ver­si­taires. Von Gar­rel et Mayer et al., ana­lyse de don­nées d’enquête étudiant·es en Alle­magne, revue COSSI, 2025. https://​revue​-cos​si​.nume​rev​.com/​p​d​f​/​a​r​t​i​c​l​e​s​/​r​e​v​u​e​-​1​3​/​3​8​1​4​-​u​s​a​g​e​-​d​e​s​-​i​n​t​e​l​l​i​g​e​n​c​e​s​-​a​r​t​i​f​i​c​i​e​l​l​e​s​-​g​e​n​e​r​a​t​i​v​e​s​-​a​-​l​-​u​n​i​v​e​r​s​i​t​e​-​r​e​g​a​r​d​s​-​c​r​o​i​s​e​s​-​e​n​t​r​e​-​u​s​a​g​e​r​s​-​e​t​-​p​r​o​f​e​s​s​i​o​n​n​e​l​s​-​d​e​s​-​b​i​b​l​i​o​t​h​e​q​u​e​s​-​u​n​i​v​e​r​s​i​t​aires
8UNESCO, L’intelligence arti­fi­cielle dans l’éducation https://​www​.unes​co​.org/​f​r​/​d​i​g​i​t​a​l​-​e​d​u​c​a​t​i​o​n​/​a​r​t​i​f​i​c​i​a​l​-​i​n​t​e​l​l​i​gence

👋 Nous avons besoin de votre avis ! Prenez quelques minutes pour répondre à notre enquête de lectorat

Je participe à l'enquête