Accueil / Chroniques / L’IA générative est-elle un gain pour la recherche ?
A man stands before a cosmic blackboard filled with complex mathematical equations and space formulas representing science astrophysics and universe exploration
π Numérique π Société

L’IA générative est-elle un gain pour la recherche ?

Chatelain_Arnault
Arnault Chatelain
doctorant en économie au CREST (CNRS/IP Paris)
En bref
  • Les scientifiques testent de nos jours des méthodes pour intégrer les grands modèles de langage (LLM) dans les pratiques de recherche, ce qui pose question.
  • Les LLM sont performants pour détecter la tonalité d’un article ou d’un commentaire, moins pour détecter des formes rhétoriques.
  • L’utilisation la plus courante des LLM en sciences sociales est la classification de textes, qui modifie les façons de faire de la recherche.
  • Des risques existent avec les LLM, comme l’impossibilité de répliquer de travaux, le manque de sécurité des données ou l’usage de données de mauvaises qualités.
  • Il est indispensable de réfléchir aux apports de l’IA pour la recherche, par le biais d’une méthode scientifique.

Vous co-signez un article scientifique consacré aux dangers de l’intelligence artificielle (IA) pour la recherche. Pourquoi avoir mené de tels travaux ?

Arnault Chate­lain. Aujourd’hui, les sci­en­tifiques tâton­nent avec les grands mod­èles de lan­gage (LLM en anglais), qui con­stituent une part impor­tante de l’IA. Tout le monde teste dif­férentes méth­odes pour les inté­gr­er dans les pra­tiques de recherche, mais de nom­breuses inter­ro­ga­tions sub­sis­tent. Pour cer­taines appli­ca­tions, ces LLM sont très per­for­mants. Par exem­ple pour détecter la tonal­ité d’un arti­cle ou d’un com­men­taire. En revanche, ils devi­en­nent beau­coup moins per­for­mants pour des tâch­es plus com­pliquées, comme la détec­tion de formes rhétoriques.

Comment les scientifiques utilisent-ils l’IA pour leurs travaux ?

Je ne vais com­menter que le champ dis­ci­plinaire que je con­nais, c’est-à-dire les sci­ences sociales et plus spé­ci­fique­ment l’économie, la soci­olo­gie et la sci­ence poli­tique. Les sci­en­tifiques utilisent surtout les LLM pour les assis­ter et tra­vailler de grandes quan­tités de textes. La pre­mière appli­ca­tion est assez générique : refor­mater des textes, réor­gan­is­er des tableaux de don­nées, écrire du code infor­ma­tique, etc. L’utilisation de chat­bots de type Chat­G­PT per­met de gag­n­er du temps, comme le font de nom­breux util­isa­teurs en dehors de la recherche scientifique.

L’utilisation la plus courante des LLM en sci­ences sociales est la clas­si­fi­ca­tion de textes. Aupar­a­vant, l’étude de grandes quan­tités de texte était faite à la main, un proces­sus très chronophage. Aujourd’hui, il est pos­si­ble d’annoter manuelle­ment unique­ment un échan­til­lon de texte, puis d’étendre à un cor­pus de textes grâce aux mod­èles de lan­gage. Dans notre équipe de recherche en sci­ences sociales com­pu­ta­tion­nelles, nous ten­tons de détecter l’utilisation de formes rhé­toriques rares dans la presse. Nous anno­tons une cen­taine d’articles, et nous pou­vons ensuite éten­dre nos anno­ta­tions à tout le cor­pus de presse. Cela nous donne une vue d’ensemble qu’il aurait été impos­si­ble de pro­duire sans l’IA. En ce sens cet out­il aug­mente nos pos­si­bil­ités et mod­i­fie nos façons de faire de la recherche.

Quels dangers identifiez-vous à utiliser l’IA pour la recherche scientifique ?

Il y a tout d’abord un risque con­cer­nant la réplic­a­bil­ité. La réplic­a­bil­ité des résul­tats est un indis­pens­able de la méth­ode sci­en­tifique. Or les mod­èles pro­prié­taires [N.D.L.R. : détenus par des entre­pris­es privées] évolu­ent et peu­vent dis­paraitre du jour au lende­main, comme c’est le cas pour d’anciennes ver­sions de ChatGPT3.5. Il est alors impos­si­ble de répli­quer les travaux.

Un autre dan­ger con­cerne la sécu­rité des don­nées. Pour les sci­en­tifiques qui tra­vail­lent sur des don­nées sen­si­bles, comme des don­nées de san­té, il est impor­tant de ne pas partager les don­nées avec des entre­pris­es privées. La ten­ta­tion peut toute­fois être forte en l’absence d’alternative non pro­prié­taire facile d’accès. Pour éviter tout risque, il serait alors préférable d’utiliser des mod­èles libres d’accès téléchargés locale­ment, mais cela néces­site des infra­struc­tures adéquates.

Enfin, j’observe que les mod­èles s’appuient sur de grandes quan­tités de don­nées, par­fois de mau­vaise qual­ité. Nous maitrisons encore mal le type de biais que celles-ci peu­vent pro­duire au sein des modèles.

Quelles sont les causes de ces limites ?

Avec les mod­èles pro­prié­taires, le prob­lème est juste­ment que nous n’avons pas la main sur le mod­èle que nous util­isons. Un autre enjeu vient du fait que nous ne com­prenons pas entière­ment com­ment les LLM fonc­tion­nent, qu’ils soient pro­prié­taires ou en libre-accès. Même lorsque nous avons accès au code, nous ne sommes pas en mesure d’expliquer les résul­tats obtenus par une IA. Il a été démon­tré qu’en répé­tant les mêmes tâch­es sur le même mod­èle pen­dant plusieurs mois, les résul­tats vari­ent beau­coup et ne peu­vent pas être repro­duits1.

Suite à une série d’articles affir­mant que les IA généra­tives pour­raient répon­dre à des sondages en lieu et place des humains, mes col­lègues vien­nent de met­tre en évi­dence une vari­abil­ité impor­tante et imprévis­i­ble lors de sim­u­la­tions de répons­es à un ques­tion­naire d’opinion2. Ils qual­i­fient ce prob­lème de « biais machine ».

Et concernant le danger des IA propriétaires, n’est-il pas possible de contourner le problème en travaillant avec des IA en libre-accès ?

Bien sûr, il est pos­si­ble de répli­quer une expéri­ence grâce aux mod­èles open-source, même si cela ne résout pas le prob­lème de l’explicabilité évo­qué. Nous pou­vons par exem­ple envis­ager d’utiliser par défaut des mod­èles en libre-accès, et d’employer des mod­èles pro­prié­taires unique­ment s’ils sont indis­pens­ables, comme le pro­posent cer­tains3. Un arti­cle pub­lié en 2024 pointe l’intérêt de créer une infra­struc­ture en libre-accès pour la recherche en soci­olo­gie afin d’y remédi­er4. En revanche, cela pose la ques­tion de la démul­ti­pli­ca­tion des mod­èles, de l’espace de stock­age néces­saire et du coût envi­ron­nemen­tal. Cela requiert aus­si des infra­struc­tures adap­tées et faciles d’accès.

Existe-t-il d’autres garde-fous pour utiliser correctement l’IA en recherche ?

Il y a un réel intérêt à mieux for­mer les sci­en­tifiques : com­ment fonc­tion­nent les mod­èles d’IA, leurs lim­ites, com­ment bien s’en servir, etc. Je pense qu’il faut sen­si­bilis­er les sci­en­tifiques aux dan­gers de l’IA, sans pour autant la dia­bolis­er car elle peut être utile pour leurs travaux.

Les scientifiques ne se sont-ils pas posés ces questions dès l’avènement des modèles de langage ?

Les ques­tions rel­a­tives aux dan­gers des LLM pour la recherche, ou les bonnes pra­tiques à met­tre en œuvre, sont assez récentes. La pre­mière vague de travaux a été mar­quée par l’enthousiasme de la com­mu­nauté sci­en­tifique en sci­ences sociales. C’est ce qui nous a poussé à pub­li­er notre article.

Aujourd’hui, il y a un intérêt gran­dis­sant pour l’évaluation des mod­èles de lan­gage, mais c’est une prob­lé­ma­tique com­plexe. Jusqu’ici, c’est surtout la com­mu­nauté sci­en­tifique en infor­ma­tique qui s’est chargée de tester la per­for­mance des mod­èles, notam­ment parce que cela requiert une cer­taine exper­tise tech­nique. Cette année, j’ai tra­vail­lé dans une équipe com­posée d’informaticiens, lin­guistes et soci­o­logues pour mieux con­sid­ér­er les attentes des sci­ences sociales dans les critères d’évaluations de l’IA5. Cela passe notam­ment par une plus grande atten­tion portée à la nature des don­nées de test util­isées. Est-ce qu’une bonne per­for­mance sur des tweets garan­tit une per­for­mance sim­i­laire sur des arti­cles de presse ou des discours ?

Quant à la réplic­a­bil­ité des études, c’est une crise qui était déjà présente en sci­ences sociales. L’IA vient ren­forcer les dis­cus­sions autour de ce sujet.

Faut-il arrêter ou continuer d’utiliser l’IA en recherche ?

Je pense qu’il est indis­pens­able de réfléchir aux apports de l’IA. Est-ce un réel gain pour la recherche ? Cela passe par une mesure fiable, s’appuyant sur la méth­ode sci­en­tifique, de la robustesse des mod­èles de lan­gage. Autre préreq­uis : met­tre en place un cadre rigoureux d’utilisation de l’IA pour la recherche. Enfin, il faut se pos­er la ques­tion de la dépen­dance de la com­mu­nauté sci­en­tifique à des acteurs privés. Cela com­porte de nom­breux risques, notam­ment sur la stratégie de recherche. Si les sci­en­tifiques se con­cen­trent sur des travaux pour lesquels l’IA pour­ra les aider, cela ori­ente alors leurs recherches.

Propos recueillis par Anaïs Marechal

1https://​arthur​spir​ling​.org/​d​o​c​u​m​e​n​t​s​/​B​a​r​r​i​e​P​a​l​m​e​r​S​p​i​r​l​i​n​g​_​T​r​u​s​t​M​e​B​r​o.pdf
2https://​jour​nals​.sagepub​.com/​d​o​i​/​1​0​.​1​1​7​7​/​0​0​4​9​1​2​4​1​2​5​1​3​30582
3https://www.nature.com/articles/s43588-023–00585‑1
4https://​www​.pnas​.org/​d​o​i​/​1​0​.​1​0​7​3​/​p​n​a​s​.​2​3​1​4​0​21121
5https://​pan​ta​gru​el​.imag​.fr

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir notre newsletter