Accueil / Chroniques / Tricher ou “chatter” : ChatGPT est-il une menace pour l’éducation ?
Chatgpt writing assistance
π Numérique π Société

Tricher ou “chatter” : ChatGPT est-il une menace pour l’éducation ?

GRIMAUD_Julien
Julien Grimaud
enseignant-chercheur en Sciences du vivant à Sup’Biotech
DEBELJAK_Pavla
Pavla Debeljak
enseignante-chercheuse en Bio-informatique à Sup’Biotech
YATES_Frank
Frank Yates
Directeur de la Recherche de l’école d’ingénieurs Sup’Biotech
En bref
  • ChatGPT est un chatbot, c’est-à-dire un programme informatique conçu pour simuler une conversation avec un humain, qui produit des textes convaincants et naturels.
  • Le corps enseignant s’interroge donc sur les risques relatifs à l’utilisation des chatbots par les étudiants, qui peuvent demander à ChatGPT d’écrire leurs dissertations, par exemple.
  • Des outils existent pour savoir si un texte a été rédigé par un chatbot ou non, mais il est actuellement impossible d’en être sûr à 100 %.
  • Pour identifier si un texte a été généré par une IA, il est possible de traquer les formulations étranges, une syntaxe peu naturelle, ou les occurrences de plagiat.
  • Avec le bon encadrement, les chatbots peuvent néanmoins devenir de puissants alliés pour enseigner et étudier, mais aussi pour le monde professionnel.

Que ce soit pour le ser­vice client, le mar­ke­ting, les jeux vidéo ou l’apprentissage en ligne, les « chat­bots » sont cou­ram­ment uti­li­sés depuis plu­sieurs dizaines d’années12. Le tout pre­mier chat­bot, ELIZA, déve­lop­pé dans les années 1960 au Labo­ra­toire d’in­tel­li­gence arti­fi­cielle du MIT, a été pen­sé pour simu­ler un psy­cho­thé­ra­peute, en uti­li­sant un trai­te­ment de lan­gage natu­rel pour répondre aux ques­tions de l’u­ti­li­sa­teur. Aujourd’hui, près de soixante ans plus tard, les chat­bots deviennent de plus en plus sophis­ti­qués, uti­li­sant l’IA pour com­prendre les don­nées sai­sies par l’u­ti­li­sa­teur, ce qui per­met de pro­duire des conver­sa­tions plus natu­relles et plus intel­li­gentes. Plus la tech­no­lo­gie pro­gresse, plus les chat­bots sont sus­cep­tibles de deve­nir encore plus per­fec­tion­nés, géné­rant des conver­sa­tions encore plus fluides et per­son­na­li­sées dans divers sec­teurs, en pas­sant de la san­té jusqu’à la finance3.

ChatGPT, mis en ser­vice le 30 novembre 2022, est un chat­bot – c’est-à-dire un pro­gramme infor­ma­tique conçu pour simu­ler une conver­sa­tion avec un humain – déve­lop­pé par l’entreprise Ope­nAI, basée à San Fran­cis­co. Comme son nom anglais l’indique, ChatGPT est fon­dé sur le GPT (Gene­ra­tive Pre-Trai­ned Trans­for­mer, ou « Trans­for­meur géné­ra­tif pré-entraî­né »), un type de modèle d’intelligence arti­fi­cielle (IA) entraî­né à par­tir de grandes quan­ti­tés de don­nées tex­tuelles et uti­li­sé pour géné­rer des réponses tex­tuelles aux ques­tions de ses uti­li­sa­teurs. Si ChatGPT gagne actuel­le­ment en popu­la­ri­té, c’est grâce à sa capa­ci­té à pro­duire des réponses attrayantes et convain­cantes dans un lan­gage natu­rel, ce qui en fait un outil utile et facile à uti­li­ser pour autant de tâches comme la créa­tion de conte­nu, le ser­vice client auto­ma­tique ou encore le trai­te­ment auto­ma­tique des langues (Natu­ral Lan­guage Pro­ces­sing)4. De ce fait, le corps ensei­gnant s’interroge sur les risques rela­tifs à l’utilisation des chat­bots par les étu­diants. De plus, depuis à peine quelques jours Ope­nAI a mis en ser­vice GPT‑4, le suc­ces­seur de ChatGPT. Il reste à voir à quel point cette nou­velle ver­sion est plus avan­cée que la précédente.

Les étudiants peuvent-ils utiliser les chatbots à mauvais dessein ?

Si la triche est un pro­blème intem­po­rel dans le sys­tème sco­laire5, les chat­bots fon­dés sur l’IA sont une nou­velle façon de tri­cher pour ceux qui sont prêts à poser des ques­tions pour leurs devoirs ou leurs éva­lua­tions. Par exemple, au lieu d’utiliser la docu­men­ta­tion mise à dis­po­si­tion par le pro­fes­seur, un élève peut uti­li­ser le chat­bot pour deman­der la solu­tion d’un pro­blème de mathé­ma­tiques ou obte­nir la réponse d’un QCM. Il est à noter que cela se rap­proche de la pos­si­bi­li­té de poser une ques­tion à un moteur de recherche comme Google ou Bing (qui pour­rait d’ailleurs bien­tôt héber­ger ChatGPT6). C’est au pro­fes­seur qu’il revient de déter­mi­ner si cette action, assez com­mune, relève de la triche.

Si la triche est un pro­blème intem­po­rel dans le sys­tème sco­laire, les chat­bots sont une nou­velle façon de tricher. 

Cer­tains chat­bots sont même spé­cia­li­sés dans la réso­lu­tion d’un cer­tain type de pro­blème. Dee­pL Trans­late, par exemple, est un logi­ciel de tra­duc­tion en ligne fon­dé sur l’IA qui per­met aux uti­li­sa­teurs de tra­duire en dif­fé­rentes langues des textes, des sites inter­net et des docu­ments de façon pré­cise et rapide. D’autres chat­bots sont spé­cia­li­sés dans l’écriture de code, comme Code­bots et Auto­code. Si ces chat­bots sont ini­tia­le­ment conçus pour aider des uti­li­sa­teurs bien inten­tion­nés à résoudre des tâches ardues ou répé­ti­tives, ils peuvent être détour­nés de leur but pre­mier par des étu­diants prêts à tricher.

En plus de répondre à des ques­tions courtes, les IA pré-entraî­nées peuvent être uti­li­sées pour géné­rer des dis­ser­ta­tions avec un sem­blant d’érudition. Les outils de para­phrase comme Quill­bot, Paper­pal ou Wor­dAI sont déjà acces­sibles depuis plu­sieurs années et peuvent, assez effi­ca­ce­ment, trans­for­mer un texte mal rédi­gé en devoir rai­son­na­ble­ment bien for­mu­lé, ou même modi­fier un texte ori­gi­nel pour empê­cher le pla­giat d’être détec­té. Mais il est plus alar­mant de consta­ter qu’en réponse à une courte demande, cer­tains chat­bots ont la capa­ci­té de pro­duire des dis­ser­ta­tions pro­lixes, qui semblent rédi­gées par un humain, en seule­ment quelques secondes.

Sur ChatGPT, les élèves peuvent très faci­le­ment ajus­ter divers para­mètres, comme la lon­gueur de réponse du bot, le niveau d’aléatoire ins­til­lé dans la dis­ser­ta­tion, ou le modèle d’IA uti­li­sé par le chat­bot. La dis­ser­ta­tion qui est géné­rée peut ensuite être ren­due telle quelle, ou uti­li­sée comme un point de départ que l’élève peut modi­fier. Avec cette pra­tique, les étu­diants peuvent pro­duire des dis­ser­ta­tions sérieuses très faci­le­ment, et en quelques minutes. Si l’on fait plu­sieurs fois la même demande au chat­bot, le logi­ciel génère plu­sieurs ver­sions dif­fé­rentes de la même dis­ser­ta­tion (voir Image 1), ce qui per­met aux élèves de sélec­tion­ner la ver­sion qui répond le mieux à leurs besoins, ou même de copier-col­ler des pas­sages des dif­fé­rentes ver­sions pour créer une toute nou­velle dis­ser­ta­tion. Quand cette der­nière tech­nique est uti­li­sée, il est pour le moment impos­sible d’être sûr à 100 % qu’un devoir a été rédi­gé avec un chat­bot ou non.

Inter­ro­ger ChatGPT sur la théo­rie de l’Évolution. Nous avons deman­dé à quatre reprises à ChatGPT d’écrire un para­graphe sur la théo­rie de l’Évolution. Pour les trois pre­mières demandes, la ques­tion était la même, et ChatGPT répon­dait à chaque fois légè­re­ment dif­fé­rem­ment. Pour la qua­trième demande, nous lui avons deman­dé en plus de for­mu­ler sa réponse de façon à répondre aux attentes d’un expert du sujet, ce qui révèle l’étendue des com­pé­tences lan­ga­gières que peut atteindre le logiciel.

Pourquoi s’alarmer ?

Avec les chat­bots, les étu­diants peuvent faci­le­ment tom­ber dans le pla­giat sans même s’en rendre compte dès lors qu’ils pré­sentent la réponse géné­rée par le chat­bot comme leur propre tra­vail sans citer les sources uti­li­sées par le bot. Ce type de pla­giat est d’autant plus dif­fi­cile à repé­rer étant don­né que de nom­breux chat­bots rajoutent une part d’aléatoire à leurs modèles-types. De plus, même si le chat­bot peut créer de toutes pièces des phrases ou des para­graphes entiers, il peut mal­gré tout four­nir aux uti­li­sa­teurs des idées et des for­mu­la­tions qui se rap­prochent beau­coup du cor­pus ori­gi­nal uti­li­sé par l’IA. Par consé­quent, il est cru­cial que les uti­li­sa­teurs qui uti­lisent un chat­bot prennent des mesures pour s’assurer qu’ils ne font pas de pla­giat. Mais à l’avenir, puisque cer­tains chat­bots sont spé­cia­li­sés dans la recherche des sources7, il sera bien­tôt pos­sible de voir des textes géné­rés par des chat­bots qui uti­lisent d’autres chat­bots pour réfé­ren­cer leurs travaux !

Les chat­bots, à l’inverse des humains, n’ont pas ou peu la capa­ci­té à com­prendre le contexte d’une conver­sa­tion, ce qui peut les mener à don­ner des réponses incor­rectes ou des infor­ma­tions confuses. De plus, ils peuvent pré­sen­ter de nom­breux biais. Par exemple, un chat­bot peut uti­li­ser un lan­gage qui ren­force les sté­réo­types ou les rôles de genre, ou même four­nir de fausses infor­ma­tions concer­nant des sujets stig­ma­ti­sés ou qui portent à contro­verse8,9, 10. Tay, le chat­bot de Micro­soft paru en 2016, était un pro­jet d’IA pour inter­agir avec les autres inter­nautes sur Twit­ter : il était conçu de telle sorte à apprendre de ses conver­sa­tions avec de vraies per­sonnes pour deve­nir de plus en plus intel­li­gent. Quelques semaines après sa mise en ser­vice, Tay a été désac­ti­vé pour pro­pos contes­tables et offen­sants11.

Image géné­rée avec DALL‑E (Ope­nAI), pour la des­crip­tion « Pein­ture à l’huile d’une classe d’élèves robots avec un pro­fes­seur dans le style d’Henri Rovel » © OpenAI. 

Un point par­ti­cu­liè­re­ment alar­mant : l’utilisation de chat­bots pour­rait mener à l’affaiblissement de notre esprit cri­tique. Puisque les chat­bots se per­fec­tionnent de plus en plus, ils pour­raient four­nir les réponses aux ques­tions sans que les étu­diants n’aient besoin de pen­ser par et pour eux-mêmes. Ceci pour­rait ame­ner les élèves à deve­nir des appre­nants « pas­sifs », ce qui serait un réel frein à leur déve­lop­pe­ment intel­lec­tuel mais pour­rait éga­le­ment réduire leur créativité.

Les professeurs doivent-ils s’inquiéter ?

Les chat­bots ont beau avoir l’air nova­teurs et pro­met­teurs, la tech­no­lo­gie qu’ils uti­lisent existe dans notre quo­ti­dien depuis des dizaines d’années. Il est fort pro­bable que vous lisiez des textes géné­rés par une IA de façon régu­lière sans même vous en aper­ce­voir. Les agences de presse, comme Asso­cia­ted Press ou le Washing­ton Post par exemple, uti­lisent des chat­bots pour pro­duire de courts articles sur l’actualité. Si Asso­cia­ted Press s’est tour­née vers une solu­tion acces­sible sur le mar­ché, Word­smith, en 201412, le Washing­ton Post uti­lise son propre chat­bot en interne, Helio­graf, depuis au moins 201713. La qua­li­té des réponses que donnent les chat­bots aug­mente sen­si­ble­ment depuis plu­sieurs années, et les textes géné­rés par des IA, même dans le cadre sco­laire, sont main­te­nant dif­fi­ciles à dif­fé­ren­cier d’une pro­duc­tion écrite par un humain14. En effet, bien que ChatGPT soit vu d’un mau­vais œil dans la com­mu­nau­té scien­ti­fique, cela ne l’empêche pas d’être cité (quoique par pro­vo­ca­tion) comme auteurs à part entière par cer­tains articles scien­ti­fiques15.

Les agences de presse uti­lisent les chat­bots pour pro­duire de courts articles sur l’actualité. 

De plus, même si les chat­bots peuvent être uti­li­sés pour tri­cher (et ils vont l’être1617), ils ne sont qu’un outil sup­plé­men­taire pour les élèves. Même sans consi­dé­rer le gain de popu­la­ri­té récent de ChatGPT, les étu­diants connaissent déjà plu­sieurs façons de tri­cher, comme copier sur leurs voi­sins, recher­cher et pla­gier cer­taines infor­ma­tions en ligne, ou même enga­ger quelqu’un pour faire le devoir à leur place. En d’autres termes : si l’élève veut tri­cher, il y parviendra.

Comment réagir en tant que professeur ?

Une des toutes pre­mières mesures que les pro­fes­seurs peuvent mettre en place pour lut­ter contre l’usage mal­veillant des chat­bots consiste à adop­ter de nou­velles régle­men­ta­tions, que ce soit une charte à l’échelle de la classe, ou mieux, de l’école18. Mettre à jour les normes de conduite per­met­trait cer­tai­ne­ment de sen­si­bi­li­ser davan­tage les étu­diants et les pro­fes­seurs à ces ques­tions. De plus, cela pour­rait décou­ra­ger de nom­breux élèves qui n’oseraient pas tri­cher par peur des consé­quences. Mais mal­gré tout, cela ne résou­drait pas le pro­blème dans son entièreté.

Et si on chan­geait la façon dont les élèves sont éva­lués ? On pour­rait ima­gi­ner de nou­veaux types de devoirs, plus créa­tifs, qui ne pour­raient pas être aus­si faci­le­ment exé­cu­tés par des chat­bots. Bien que ten­tante, cette solu­tion sou­lève pour­tant deux pro­blèmes. Tout d’abord, les tech­no­lo­gies qui fonc­tionnent avec l’IA, et notam­ment les chat­bots, sont en plein essor. De ce fait, les efforts que pour­rait faire un pro­fes­seur pour adap­ter ses devoirs pour­raient très bien se voir balayer par la pro­chaine mise à jour du chat­bot. D’autre part, les modèles d’évaluation qui sont consi­dé­rés comme étant « chat­bot friend­ly », comme les dis­ser­ta­tions ou les QCM, sont des outils irrem­pla­çables pour tes­ter des com­pé­tences comme la com­pré­hen­sion, l’analyse ou la syn­thèse19. Les éva­lua­tions nova­trices et inno­vantes sont tou­jours bonnes à prendre, mais elles ne peuvent consti­tuer la seule solution.

Autre solu­tion : le « water­mar­king » sta­tis­tique20. C’est une tech­nique de tatouage numé­rique qui est uti­li­sée pour inté­grer un mes­sage ou une don­née cachée dans un signal numé­rique. Pour les chat­bots, ce tatouage numé­rique serait un ensemble de pro­ba­bi­li­tés non ran­do­mi­sées per­met­tant de sélec­tion­ner cer­tains mots ou cer­taines phrases, conçu pour être indé­tec­table à l’œil nu, tout en étant recon­nais­sable par les ordi­na­teurs. Le water­mar­king sta­tis­tique pour­rait donc être uti­li­sé pour détec­ter les textes géné­rés par des chatbots.

Le water­mar­king sta­tis­tique est une tech­nique de tatouage numé­rique uti­li­sée pour inté­grer un mes­sage ou une don­née cachée dans un signal numérique. 

Néan­moins, cette approche com­porte de nom­breux incon­vé­nients qui limitent sévè­re­ment son appli­ca­tion en classe. En effet, les entre­prises tech peuvent être réti­centes à mettre en place du water­mar­king à cause du risque que leur chat­bot soit asso­cié à des actions répré­hen­sibles comme le ter­ro­risme ou le cyber­bul­lying. De plus, le water­mar­king ne fonc­tionne que si l’élève qui triche copie-colle une grande quan­ti­té de texte. S’il modi­fie la dis­ser­ta­tion géné­rée par le chat­bot, ou si le texte est trop court pour l’analyser de façon sta­tis­tique, alors le water­mar­king n’a pas d’intérêt.

Comment détecter les textes générés par une IA ?

Une des façons de détec­ter du texte géné­ré par une IA consiste à tra­quer les for­mu­la­tions étranges et une syn­taxe qui ne semble pas natu­relle. Les algo­rithmes d’IA n’ont géné­ra­le­ment pas la capa­ci­té d’exprimer des idées de façon natu­relle : en consé­quence, le texte qu’ils génèrent peut conte­nir des phrases sen­si­ble­ment trop longues ou trop courtes. De plus, les chat­bots n’enchaînent pas les idées de façon natu­relle, tout comme ils peuvent uti­li­ser des mots ou des phrases dans un contexte qui n’est pas appro­prié. En d’autres termes, la pro­fon­deur et la nuance humaines peuvent man­quer à ce type de textes21, par­ti­cu­liè­re­ment ceux qui sont longs. Pré­cé­dem­ment, nous avons évo­qué le pla­giat comme un des risques liés à l’utilisation des chat­bots. De ce fait, une façon simple de détec­ter des textes géné­rés par une IA consiste à tra­quer le pla­giat22, et plu­sieurs solu­tions de détec­tion de pla­giat sont déjà disponibles.

De plus, on peut détec­ter un texte géné­ré par une IA en cher­chant une trace de signa­ture sta­tis­tique (« sta­tis­ti­cal signa­ture »). À l’origine, les chat­bots sont conçus pour rem­plir une tâche bien pré­cise : pré­dire les mots ou les phrases qui sont les plus à même de cor­res­pondre à la ques­tion d’un uti­li­sa­teur. En consé­quence, il est très pro­bable de trou­ver, n’importe où dans le texte, les mots et les phrases choi­sis par le chat­bot. C’est dif­fé­rent pour les humains, qui rédigent leurs réponses et leurs textes à l’aide de leurs capa­ci­tés cog­ni­tives plu­tôt que d’une grille de pro­ba­bi­li­tés, ce qui peut les ame­ner à créer des asso­cia­tions de mots inso­lites qui res­tent com­pré­hen­sibles. Plus sim­ple­ment, une réponse humaine est moins pré­vi­sible, ou plus créa­tive, que celle d’un chatbot.

Une réponse humaine est moins pré­vi­sible, ou plus créa­tive, que celle d’un chatbot.

Cette dif­fé­rence peut être uti­li­sée pour détec­ter si une suite de mots est plus pré­vi­sible (ce qui est une des signa­tures sta­tis­tiques des chat­bots) ou plus créa­tive (et donc, pro­ba­ble­ment humaine). Plu­sieurs logi­ciels existent déjà en ce sens, comme le Giant Lan­guage model Test Room (GLTR), déve­lop­pé conjoin­te­ment par MIT et Har­vard Uni­ver­si­ty sur la base de l’ancienne ver­sion du modèle lin­guis­tique ope­nAI, GPT‑2. Nous avons notam­ment tes­té GLTR en uti­li­sant soit des textes écrits par nos élèves, soit des textes écrits par ChatGPT. Et nous sommes heu­reux d’annoncer qu’il était très facile de dis­tin­guer les réponses de nos élèves de celles du chat­bot (voir l’encadré ci-dessous) !

En plus de GLTR, d’autres logi­ciels de détec­tion d’Intelligence arti­fi­cielle ont vu le jour, comme le Ope­nAI-Detec­tor, sor­ti peu de temps après GLTR et se fon­dant sur le même prin­cipe, ou encore GPT­Ze­ro, un pro­jet com­mer­cial ini­tia­le­ment lan­cé par un uni­ver­si­taire en 2023. Nous espé­rons voir bien­tôt émer­ger de nou­veaux outils de détec­tion de textes géné­rés par des chat­bots plus ajus­tés aux besoins des pro­fes­seurs, et qui res­sem­ble­raient aux solu­tions de détec­tion de pla­giat déjà disponibles.

« Chatter » ou tricher ?

Pour ter­mi­ner sur une note posi­tive, il ne faut pas oublier que la plu­part des élèves font leurs devoirs sans pas­ser par la triche. La pre­mière action pré­ven­tive que nous avons men­tion­née devrait être mise en place pour moti­ver les élèves en leur expli­quant pour­quoi la culture et les com­pé­tences qu’ils acquer­ront pen­dant le cours sont impor­tantes, utiles, et inté­res­santes23. Après tout, les cal­cu­la­trices n’ont pas mis les pro­fes­seurs de maths au chô­mage. Google n’a pas pro­vo­qué la fer­me­ture des écoles. Tout au contraire, nous pen­sons que les pro­fes­seurs vont cer­tai­ne­ment s’adapter aux chat­bots qui, mal­gré les ques­tions légi­times qu’ils sou­lèvent, pour­raient bien­tôt s’avérer ines­ti­mables de bien des façons. Avec le bon enca­dre­ment et les bonnes consignes, les chat­bots peuvent deve­nir de puis­sants alliés pour ensei­gner et étu­dier, tout comme ils peuvent deve­nir très pré­cieux pour le monde professionnel.

Dans cette pers­pec­tive, les pro­fes­seurs doivent prendre l’initiative de fami­lia­ri­ser leurs élèves avec les chat­bots, les aider à com­prendre le poten­tiel et les limites de cette tech­no­lo­gie, et leur ensei­gner com­ment les uti­li­ser de façon effi­cace, mais aus­si de façon res­pon­sable et éthique.

La Signa­ture sta­tis­tique pour­rait per­mettre de détec­ter les textes écrits par un chat­bot

L’expérience : Dans le cadre du cours de neu­ros­cience don­né à Sup’Biotech en automne 2022, nous avons ras­sem­blé les réponses de 51 élèves à la ques­tion sui­vante : « Défi­nis­sez briè­ve­ment le terme “champ récep­teur”, puis expli­quez com­ment vous mesu­re­riez le champ récep­teur d’un neu­rone dans le cor­tex soma­to­sen­so­riel d’un chat. » La ques­tion fai­sait par­tie d’un exa­men à livre ouvert, en temps limi­té et en dis­tan­ciel, réa­li­sé sur la pla­te­forme numé­rique du cours. En paral­lèle, nous avons deman­dé à ChatGPT de répondre 10 fois à la même ques­tion pour obte­nir 10 réponses de chat­bot dif­fé­rentes. Nous avons uti­li­sé GLTR pour com­pa­rer la signa­ture sta­tis­tique des réponses du chat­bot et des élèves.

Le fonc­tion­ne­ment de GLTR : Pour chaque occur­rence dans le texte, GLTR regarde ce que le chat­bot (plus pré­ci­sé­ment : GPT‑2, une ver­sion plus ancienne du modèle ChatGPT) aurait choi­si avant de le com­pa­rer au mot fina­le­ment choi­si. Par exemple, dans la phrase “La bio­lo­gie est géniale !”, le mot « géniale » est clas­sé 126ème par­mi tous les mots pos­sibles que le chat­bot aurait pu choi­sir (le pre­mier du clas­se­ment étant « une »). Ensuite, GLTR génère un his­to­gramme de tous les clas­se­ments, qui peut être uti­li­sé comme une simple signa­ture sta­tis­tique : les textes géné­rés par GPT‑2 sont domi­nés par des mots en haut du clas­se­ment, tan­dis que les réponses humaines contiennent plus de mots trou­vés en bas du classement. 

Image A : Deux réponses-types, une écrite par un élève, l’autre par ChatGPT. Les réponses ont été colo­rées en fonc­tion du clas­se­ment de GLTR. À droite, les his­to­grammes montrent leur signa­ture sta­tis­tique. Remar­quons que la réponse humaine contient plus de mots en bas du clas­se­ment GLTR que la réponse du chatbot.

Image B : Nous avons super­po­sé les his­to­grammes obte­nus à par­tir des réponses des 51 élèves et des 10 chat­bots (res­pec­ti­ve­ment en bleu et en rouge). Là encore, la dif­fe­rence est nette entre les réponses humaines et celles de ChatGPT. Plus sim­ple­ment, en se fon­dant sur l’inspection visuelle d’une signa­ture sta­tis­tique, nous sommes plus ou moins cer­tains que nos élèves n’ont pas uti­li­sé ChatGPT pour répondre à la question.

1Ina. The His­to­ry Of Chat­bots – From ELIZA to ChatGPT. In Onlim​.com. Publi­shed 03-15-2022. Retrie­ved 01–19- 2023.
2Thor­becke C. Chat­bots : A long and com­pli­ca­ted his­to­ry. In CNN busi­ness. Puchi­shed 08-20-2022. Retrie­ved 01- 19–2023. 
3Marr B. What Does ChatGPT Real­ly Mean For Busi­nesses ? In Forbes. Publi­shed 12-28-2022. Retrie­ved 01–19- 2023. 
4Timo­thy M. 11 Things You Can Do With ChatGPT. In MakeU​seOf​.com. Publi­shed 12-20-2022. Retrie­ved 01–19- 2023.
5Bush­way A, Nash WR (1977). School Chea­ting Beha­vior. Review of Edu­ca­tio­nal Research, 47(4), 623–632. 
6Holmes A. Micro­soft and Ope­nAI Wor­king on ChatGPT-Powe­red Bing in Chal­lenge to Google. In The Infor­ma­tion. Publi­shed 01-03-2023. Retrie­ved 01-19-2023. 
7Vincze J (2017). Vir­tual Refe­rence Libra­rians (Chat­bots). Libra­ry Hi Tech News 34(4), 5–8. 
8Feine J et al. (2020). Gen­der Bias in Chat­bot Desi­gn. Conver­sa­tions 2019. Lec­ture Notes in Com­pu­ter Science, vol 11970. Sprin­ger, Cham. 
9Haroun O. Racist Chat­bots & Sexist Robo-Recrui­ters : Deco­ding Algo­rith­mic Bias. In The AI Jour­nal. Publi­shed 10-11-2023. Retrie­ved 01-19-2023. 
10Biddle S. The Internet’s New Favo­rite AI Pro­poses Tor­tu­ring Ira­nians and Sur­veilling Mosques. In The Inter­cept. Publi­shed 12-08-2022. Retrie­ved 01-19-2023. 
11Vinvent J. Twit­ter taught Microsoft’s AI chat­bot to be a racist asshole in less than a day. In The Verge. 
12Mil­ler R. AP’s ‘robot jour­na­lists’ are wri­ting their own sto­ries now. In The Verge. Pos­ted 01-29-2015. Retrei­ved 01-19-2023. 
13Moses L. The Washing­ton Post’s robot repor­ter has publi­shed 850 articles in the past year. In Digi​day​.com. Pos­ted 09-14-2017.
14Else H (2023). Abs­tracts writ­ten by ChatGPT fool scien­tists. Nature, 613(7944), 423. 
15Sto­kel-Wal­ker C (2023). ChatGPT lis­ted as author on research papers : many scien­tists disap­prove. Nature (retrie­ved online ahead of print on 01-23-2023). 
16Gor­don B. North Caro­li­na Pro­fes­sors Catch Stu­dents Chea­ting With ChatGPT. In Govern­ment Tech­no­lo­gy. 
17Nolan B. Two pro­fes­sors who say they caught stu­dents chea­ting on essays with ChatGPT explain why AI pla­gia­rism can be hard to prove. In Insi­der. Publi­shed 01-14-2023. Retrie­ved 01-19-2023. 
18John­son A. ChatGPT In Schools : Here’s Where It’s Banned—And How It Could Poten­tial­ly Help Stu­dents. In Forbes. Publi­shed 01-18-2023. Retrie­ved 01-19-2023. 
19Kra­th­wohl DR (2002). A revi­sion of Bloom’s taxo­no­my : An over­view. Theo­ry into prac­tice, 41(4), 212–218. 
20Aaron­son S. My AI Safe­ty Lec­ture for UT Effec­tive Altruism. In Shtetl-Opti­mi­zed, The Blog of Scott Aaron­son. Pos­ted 11-29-2022. Retrei­ved 01-19-2023. 
21Bogost I. ChatGPT Is Dum­ber Than You Think. In The Atlan­tic. Publi­shed 12-07-2022. Retrie­ved 01-19-2023. 
22Mol­len­kamp D. Can Anti-Pla­gia­rism Tools Detect When AI Chat­bots Write Student Essays ? In EdSurge. Publi­shed 12-21-2022. Retrie­ved 01-19-2023. 
23Shres­tha G (2020). Impor­tance of Moti­va­tion in Edu­ca­tion. Inter­na­tio­nal Jour­nal of Science and Research, 9(3), 91–93.

👋 Nous avons besoin de votre avis ! Prenez quelques minutes pour répondre à notre enquête de lectorat

Je participe à l'enquête