Accueil / Chroniques / Fraude scientifique : analyse d’un phénomène en hausse
π Société π Science et technologies

Fraude scientifique : analyse d’un phénomène en hausse

Cyril Labbé_VF
Cyril Labbé
professeur à l'Université Grenoble-Alpes
En bref
  • Un article frauduleux correspond à une publication scientifique délibérément erronée dont un ou plusieurs manquements à l’intégrité scientifique sont présents.
  • Actuellement, les outils d’analyse sont loin de couvrir tous les cas de fraude, car celles-ci sont de nature très diverse, et chacune nécessite des détecteurs spécifiques.
  • Les outils utilisés pour dissimuler des falsifications laissent des signatures spécifiques, comme des groupes de mots avec des fréquences spécifiques.
  • Ces abus de confiance ne sont pas systématiquement réalisés par des individus isolés, mais peuvent être liés à des coopérations dans des réseaux d’éditeurs et d’auteurs.
  • L’une des solutions pour faire face aux fraudes scientifiques serait de renforcer le système d’évaluation, par des actions plus préventives, voire de repenser ses indicateurs actuels.

Hausse des rétrac­ta­tions d’articles, pro­liféra­tion des paper mills et des revues pré­da­tri­ces : la lit­téra­ture sci­en­tifique tra­verse une crise qui men­ace la con­fi­ance dans son intégrité. Cyril Lab­bé, chercheur en infor­ma­tique à l’Université Greno­ble Alpes, décrypte les caus­es qui ont con­duit à de telles dérives. Il est l’un des spé­cial­istes français de la détec­tion automa­tique des fraudes et coor­donne depuis 2020 le pro­jet pluridis­ci­plinaire NanoBub­bles1, qui analyse pourquoi, quand et com­ment la sci­ence peine à se cor­riger elle-même.

Comment avez-vous commencé à travailler sur la fraude scientifique ?

Mon intérêt pour le sujet a émergé à par­tir de 2009, alors que les indi­ca­teurs bib­liométriques, comme le h‑index, com­mençaient à être util­isés dans l’évaluation des chercheurs. Pour tester les lim­ites des out­ils de cal­cul, j’ai créé un faux chercheur, « Ike Antkare » et lui ai attribué des dizaines de pub­li­ca­tions aber­rantes générées automa­tique­ment. Ces faux papiers se citant mutuelle­ment, Google Schol­ar a attribué tem­po­raire­ment à Ike Antkare un h‑index plus élevé que celui d’Einstein. Cette expéri­ence m’a con­va­in­cu de l’intérêt des recherch­es sur la détec­tion automa­tique des arti­cles frauduleux.

Que recouvre la notion d’article frauduleux ?

On désigne générale­ment par arti­cle fraud­uleux une pub­li­ca­tion sci­en­tifique délibéré­ment erronée, que ce soit en par­tie ou inté­grale­ment. Les man­que­ments à l’intégrité sci­en­tifique peu­vent être de natures très divers­es : pla­giat, fal­si­fi­ca­tion ou fab­ri­ca­tion de don­nées, d’images et de résul­tats, cita­tions abu­sives, achat d’articles pro­duits par des paper mills… Dans les cas extrêmes, l’article, bien qu’en apparence sci­en­tifique, est entière­ment dénué de sens.

Peut-on mesurer précisément l’ampleur du phénomène ?

Par déf­i­ni­tion, nous ne pou­vons compt­abilis­er que les fraudes détec­tées – et les détecteurs disponibles sont loin de cou­vrir tous les cas. Il faut donc se con­tenter d’approximations. Je col­la­bore par exem­ple avec Guil­laume Cabanac de l’Institut de Recherche en Infor­ma­tique de Toulouse (IRIT) sur un out­il bap­tisé Prob­lem­at­ic Paper Screen­er2  (PPS), qui repose sur neuf détecteurs dif­férents. Sur l’ensemble de la lit­téra­ture sci­en­tifique – env­i­ron 130 mil­lions d’articles -, nous avons identifié :

  • plus de 912000 arti­cles con­tenant des références à des pub­li­ca­tions rétrac­tées, et qui mérit­eraient donc d’être elles aus­si revues ;
  • env­i­ron 800 com­por­tant cer­taines erreurs factuelles spécifiques ;
  • plus 21000 qui con­ti­en­nent des « expres­sions tor­turées » dénuées de sens qui peu­vent provenir de plagiat ;
  • plus de 350 totale­ment aber­rants, générés automa­tique­ment, par­fois en ligne depuis des années.

Ces deux derniers chiffres sont d’autant plus alar­mants qu’ils ne con­cer­nent pas seule­ment des revues pré­da­tri­ces – qui pub­lient sans véri­ta­ble éval­u­a­tion sci­en­tifique con­tre paiement -, mais aus­si des édi­teurs de renom comme Springer Nature, Else­vi­er ou Wiley. Cela révèle des défail­lances pro­fondes du sys­tème de revue par les pairs, qui est le cœur de l’évaluation scientifique.

Comment détectez-vous ces fraudes ?

Chaque type de fraude appelle un détecteur spé­ci­fique. Les out­ils util­isés pour pro­duire ou dis­simuler les fraudes lais­sent par­fois des sig­na­tures car­ac­téris­tiques. Cer­tains généra­teurs de textes pseu­do-sci­en­tifiques utilisent par exem­ple des groupes de mots avec une fréquence car­ac­téris­tique. Cer­tains logi­ciels de para­phrase, employés pour mas­quer les pla­giats, intro­duisent dans le texte des “phras­es tor­turées” : “bosom per­il” rem­place “breast can­cer”, “made-man con­scious­ness” est util­isé pour “arti­fi­cial intel­li­gence”, etc. Nos détecteurs exploitent ces failles. D’autres équipes traque­nt aus­si les méta­don­nées, révélant par exem­ple des sché­mas de soumis­sion automatisés.

Dans tous les cas, met­tre au point un détecteur est un tra­vail lent et minu­tieux. Rien d’étonnant à cela : il s’agit de réin­tro­duire de l’expertise humaine là où elle a fait défaut. Et cela prend du temps.

Vous avez contacté les maisons d’édition “sérieuses” concernées par les fraudes détectées par Problematic Paper Screener. Comment expliquent-elles de tels manquements ?

Elles s’estiment vic­times d’auteurs mal­hon­nêtes ou d’éditeurs et relecteurs peu scrupuleux, souhai­tant faire avancer leur car­rière. En effet, la revue par les pairs est générale­ment déléguée à des chercheurs-éval­u­a­teurs bénév­oles encadrés par un chercheur-édi­teur, bénév­ole ou rémunéré, qui sélec­tionne les éval­u­a­teurs et prend la déci­sion finale de rejeter ou d’accepter le man­u­scrit. L’investissement dans ces tâch­es col­lec­tives peut effec­tive­ment être pris en compte pour des pro­mo­tions. Mais cette analyse me sem­ble trop rapide.

En quoi est-elle trop rapide ?

D’abord parce que, con­traire­ment à l’idée que l’on s’en fait générale­ment, les fraudes ne sont pas sys­té­ma­tique­ment le fait d’individus isolés. Une étude3  parue en août 2025 dans Pro­ceed­ings of the Nation­al Acad­e­my of Sci­ences (PNAS), une revue sci­en­tifique États-Uni­enne, a mis en lumière de nom­breux cas résul­tant d’une coopéra­tion entre des réseaux d’éditeurs et d’auteurs, ain­si que le rôle joué par des courtiers qui facili­tent la soumis­sion mas­sive de pub­li­ca­tions fraud­uleuses dans des revues ciblées.

Ensuite, parce que les maisons d’édition ont elles aus­si intérêt à aug­menter leur vol­ume de pub­li­ca­tion. Lorsqu’elles sont financées par abon­nement, un grand vol­ume per­met d’augmenter les mon­tants de com­mande en ven­dant des bou­quets de revues, et en mod­èle “auteur-payeur”, plus d’articles sig­ni­fie plus de revenus. Cet intérêt financier peut les con­duire à fer­mer les yeux sur des pra­tiques dou­teuses – voire les provoquer.

Comment expliquer que des publications frauduleuses, voire aberrantes, restent en ligne pendant des années, sans que personne ne s’en émeuve ?

Il y a sans doute une ten­dance de la com­mu­nauté sci­en­tifique à ne pas sig­naler les arti­cles sus­pects ou absur­des, par pru­dence ou manque d’intérêt. Mais même lorsque les arti­cles sont sig­nalés, la rétrac­ta­tion peut être longue et dif­fi­cile. Per­son­ne, des maisons d’éditions aux auteurs en pas­sant par les édi­teurs n’a envie de voir sa répu­ta­tion entachée par une rétrac­ta­tion… Cela engen­dre des réti­cences, des résis­tances, au sein des maisons d’édition comme auprès des auteurs, même quand le prob­lème est absol­u­ment manifeste.

Quelles actions sont menées pour améliorer la situation ?

Les actions sont générale­ment préven­tives plus que cor­rec­tives. Des ini­tia­tives académiques ou privées (par­fois au sein même des maisons d’édition) exis­tent pour dévelop­per des détecteurs de fraude s’adaptant aux inno­va­tions des fraudeurs. Les maisons d’édition ren­for­cent leurs comités d’éthique et la super­vi­sion de la revue par les pairs, et elles col­la­borent entre elles pour repér­er cer­taines pra­tiques, comme la dou­ble soumis­sion, qui le plus sou­vent n’est pas acceptée.

Les uni­ver­sités et le monde académique se mobilisent égale­ment. Dans la plu­part des mas­ters recherche, la for­ma­tion à l’intégrité sci­en­tifique est par exem­ple dev­enue obligatoire.

En 2023, une lettre ouverte4  signée par une quinzaine de chercheurs internationaux avait été adressée à la direction du CNRS, en raison de sa gestion jugée trop peu sévère d’une affaire d’inconduite. Comment percevez-vous la volonté affichée par certains de durcir la répression contre les fraudeurs ? 

C’est une ligne d’action que je ne priv­ilégie pas. À mon sens, c’est le sys­tème d’évaluation actuel qui est à l’origine des dérives, et c’est lui qu’il faudrait réformer pour obtenir des résul­tats durables. Une éval­u­a­tion pure­ment quan­ti­ta­tive est par nature dan­gereuse, puisqu’elle est aveu­gle au con­tenu sci­en­tifique des articles.

Comment faire évoluer le système d’évaluation ?

Il sem­ble aujourd’hui impos­si­ble de ban­nir les métriques, mais il faut leur accorder moins d’importance dans l’évaluation indi­vidu­elle et col­lec­tive de la recherche. D’autres types de con­tri­bu­tions pour­raient être val­orisées : en infor­ma­tique, par exem­ple, la pro­duc­tion de code ou de bases de données.

Mais à vrai dire, je doute que le sys­tème change à court terme : les indi­ca­teurs actuels sont trop faciles à établir et à utilis­er, y com­pris pour les chercheurs. Nous tou­chons là un nou­veau para­doxe : beau­coup d’entre eux dénon­cent la pres­sion subie et la sur­val­ori­sa­tion de l’article sci­en­tifique dans le sys­tème d’évaluation des chercheurs, mais il est facile et ten­tant d’avoir recours à ces indi­ca­teurs quan­ti­tat­ifs pour jus­ti­fi­er de la per­ti­nence d’un tra­vail. Il est telle­ment plus sim­ple d’annoncer à un financeur que l’on a pub­lié dans une revue pres­tigieuse que d’expliquer les béné­fices de ses recherch­es pour la société…

Faut-il donc se résigner à une augmentation du nombre de fraudes ?

Surtout pas. Mais il faut agir avec patience et lucid­ité. Je suis con­va­in­cu que les sci­ences humaines ont un rôle cen­tral à jouer dans cette quête pour une lit­téra­ture sci­en­tifique plus intè­gre. C’est pourquoi le pro­jet ERC-Syn­er­gy NanoBub­bles réu­nit des chercheurs de dis­ci­plines var­iées : Raphaël Lévy (uni­ver­sité Paris Sor­bonne Nord) expert en nanobi­olo­gie, Cyrus Mody (uni­ver­sité de Maas­tricht) expert en his­toire des sci­ences, Willem Halff­man (uni­ver­sité de Rad­boud), recon­nu pour ses travaux sur le fonc­tion­nement de l’expertise et de la poli­tique sci­en­tifiques. Ensem­ble, avec les mem­bres du pro­jet, infor­mati­ciens, soci­o­logues des sci­ences et philosophes, nous analysons l’évolution du monde académique et des maisons d’édition pour mieux com­pren­dre la sit­u­a­tion actuelle. Ce tra­vail d’analyse est indis­pens­able pour cern­er les vul­néra­bil­ités, pro­pos­er des actions de préven­tion et de cor­rec­tion ciblées et ain­si con­tribuer à restau­r­er durable­ment la con­fi­ance dans la com­mu­nauté scientifique.

Propos recueillis par Anne Orliac
1https://​nanobub​bles​.hypothe​ses​.org/
2https://www.irit.fr/~Guillaume.Cabanac/problematic-paper-screener
3R.A.K. Richardson,S.S. Hong,J.A. Byrne,T. Stoeger, & L.A.N. Ama­r­al, The enti­ties enabling sci­en­tif­ic fraud at scale are large, resilient, and grow­ing rapid­ly, Proc. Natl. Acad. Sci. U.S.A. 122 (32) e2420092122, https://​doi​.org/​1​0​.​1​0​7​3​/​p​n​a​s​.​2​4​2​0​0​92122 (2025).
4https://​deevy​bee​.blogspot​.com/​2​0​2​3​/​0​2​/​o​p​e​n​-​l​e​t​t​e​r​-​t​o​-​c​n​r​s​.html

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir notre newsletter