Accueil / Chroniques / Fraude scientifique : analyse d’un phénomène en hausse
π Société π Science et technologies

Fraude scientifique : analyse d’un phénomène en hausse

Cyril Labbé_VF
Cyril Labbé
professeur à l'Université Grenoble-Alpes
En bref
  • Un article frauduleux correspond à une publication scientifique délibérément erronée dont un ou plusieurs manquements à l’intégrité scientifique sont présents.
  • Actuellement, les outils d’analyse sont loin de couvrir tous les cas de fraude, car celles-ci sont de nature très diverse, et chacune nécessite des détecteurs spécifiques.
  • Les outils utilisés pour dissimuler des falsifications laissent des signatures spécifiques, comme des groupes de mots avec des fréquences spécifiques.
  • Ces abus de confiance ne sont pas systématiquement réalisés par des individus isolés, mais peuvent être liés à des coopérations dans des réseaux d’éditeurs et d’auteurs.
  • L’une des solutions pour faire face aux fraudes scientifiques serait de renforcer le système d’évaluation, par des actions plus préventives, voire de repenser ses indicateurs actuels.

Hausse des rétrac­ta­tions d’articles, pro­li­fé­ra­tion des paper mil­ls et des revues pré­da­trices : la lit­té­ra­ture scien­ti­fique tra­verse une crise qui menace la confiance dans son inté­gri­té. Cyril Lab­bé, cher­cheur en infor­ma­tique à l’Université Gre­noble Alpes, décrypte les causes qui ont conduit à de telles dérives. Il est l’un des spé­cia­listes fran­çais de la détec­tion auto­ma­tique des fraudes et coor­donne depuis 2020 le pro­jet plu­ri­dis­ci­pli­naire Nano­Bubbles1, qui ana­lyse pour­quoi, quand et com­ment la science peine à se cor­ri­ger elle-même.

Comment avez-vous commencé à travailler sur la fraude scientifique ?

Mon inté­rêt pour le sujet a émer­gé à par­tir de 2009, alors que les indi­ca­teurs biblio­mé­triques, comme le h‑index, com­men­çaient à être uti­li­sés dans l’évaluation des cher­cheurs. Pour tes­ter les limites des outils de cal­cul, j’ai créé un faux cher­cheur, « Ike Ant­kare » et lui ai attri­bué des dizaines de publi­ca­tions aber­rantes géné­rées auto­ma­ti­que­ment. Ces faux papiers se citant mutuel­le­ment, Google Scho­lar a attri­bué tem­po­rai­re­ment à Ike Ant­kare un h‑index plus éle­vé que celui d’Einstein. Cette expé­rience m’a convain­cu de l’intérêt des recherches sur la détec­tion auto­ma­tique des articles frauduleux.

Que recouvre la notion d’article frauduleux ?

On désigne géné­ra­le­ment par article frau­du­leux une publi­ca­tion scien­ti­fique déli­bé­ré­ment erro­née, que ce soit en par­tie ou inté­gra­le­ment. Les man­que­ments à l’intégrité scien­ti­fique peuvent être de natures très diverses : pla­giat, fal­si­fi­ca­tion ou fabri­ca­tion de don­nées, d’images et de résul­tats, cita­tions abu­sives, achat d’articles pro­duits par des paper mil­ls… Dans les cas extrêmes, l’article, bien qu’en appa­rence scien­ti­fique, est entiè­re­ment dénué de sens.

Peut-on mesurer précisément l’ampleur du phénomène ?

Par défi­ni­tion, nous ne pou­vons comp­ta­bi­li­ser que les fraudes détec­tées – et les détec­teurs dis­po­nibles sont loin de cou­vrir tous les cas. Il faut donc se conten­ter d’approximations. Je col­la­bore par exemple avec Guillaume Caba­nac de l’Institut de Recherche en Infor­ma­tique de Tou­louse (IRIT) sur un outil bap­ti­sé Pro­ble­ma­tic Paper Scree­ner2  (PPS), qui repose sur neuf détec­teurs dif­fé­rents. Sur l’ensemble de la lit­té­ra­ture scien­ti­fique – envi­ron 130 mil­lions d’articles -, nous avons identifié :

  • plus de 912000 articles conte­nant des réfé­rences à des publi­ca­tions rétrac­tées, et qui méri­te­raient donc d’être elles aus­si revues ;
  • envi­ron 800 com­por­tant cer­taines erreurs fac­tuelles spécifiques ;
  • plus 21000 qui contiennent des « expres­sions tor­tu­rées » dénuées de sens qui peuvent pro­ve­nir de plagiat ;
  • plus de 350 tota­le­ment aber­rants, géné­rés auto­ma­ti­que­ment, par­fois en ligne depuis des années.

Ces deux der­niers chiffres sont d’autant plus alar­mants qu’ils ne concernent pas seule­ment des revues pré­da­trices – qui publient sans véri­table éva­lua­tion scien­ti­fique contre paie­ment -, mais aus­si des édi­teurs de renom comme Sprin­ger Nature, Else­vier ou Wiley. Cela révèle des défaillances pro­fondes du sys­tème de revue par les pairs, qui est le cœur de l’évaluation scientifique.

Comment détectez-vous ces fraudes ?

Chaque type de fraude appelle un détec­teur spé­ci­fique. Les outils uti­li­sés pour pro­duire ou dis­si­mu­ler les fraudes laissent par­fois des signa­tures carac­té­ris­tiques. Cer­tains géné­ra­teurs de textes pseu­do-scien­ti­fiques uti­lisent par exemple des groupes de mots avec une fré­quence carac­té­ris­tique. Cer­tains logi­ciels de para­phrase, employés pour mas­quer les pla­giats, intro­duisent dans le texte des “phrases tor­tu­rées” : “bosom per­il” rem­place “breast can­cer”, “made-man conscious­ness” est uti­li­sé pour “arti­fi­cial intel­li­gence”, etc. Nos détec­teurs exploitent ces failles. D’autres équipes traquent aus­si les méta­don­nées, révé­lant par exemple des sché­mas de sou­mis­sion automatisés.

Dans tous les cas, mettre au point un détec­teur est un tra­vail lent et minu­tieux. Rien d’étonnant à cela : il s’agit de réin­tro­duire de l’expertise humaine là où elle a fait défaut. Et cela prend du temps.

Vous avez contacté les maisons d’édition “sérieuses” concernées par les fraudes détectées par Problematic Paper Screener. Comment expliquent-elles de tels manquements ?

Elles s’estiment vic­times d’auteurs mal­hon­nêtes ou d’éditeurs et relec­teurs peu scru­pu­leux, sou­hai­tant faire avan­cer leur car­rière. En effet, la revue par les pairs est géné­ra­le­ment délé­guée à des cher­cheurs-éva­lua­teurs béné­voles enca­drés par un cher­cheur-édi­teur, béné­vole ou rému­né­ré, qui sélec­tionne les éva­lua­teurs et prend la déci­sion finale de reje­ter ou d’accepter le manus­crit. L’investissement dans ces tâches col­lec­tives peut effec­ti­ve­ment être pris en compte pour des pro­mo­tions. Mais cette ana­lyse me semble trop rapide.

En quoi est-elle trop rapide ?

D’abord parce que, contrai­re­ment à l’idée que l’on s’en fait géné­ra­le­ment, les fraudes ne sont pas sys­té­ma­ti­que­ment le fait d’individus iso­lés. Une étude3  parue en août 2025 dans Pro­cee­dings of the Natio­nal Aca­de­my of Sciences (PNAS), une revue scien­ti­fique États-Unienne, a mis en lumière de nom­breux cas résul­tant d’une coopé­ra­tion entre des réseaux d’éditeurs et d’auteurs, ain­si que le rôle joué par des cour­tiers qui faci­litent la sou­mis­sion mas­sive de publi­ca­tions frau­du­leuses dans des revues ciblées.

Ensuite, parce que les mai­sons d’édition ont elles aus­si inté­rêt à aug­men­ter leur volume de publi­ca­tion. Lorsqu’elles sont finan­cées par abon­ne­ment, un grand volume per­met d’augmenter les mon­tants de com­mande en ven­dant des bou­quets de revues, et en modèle “auteur-payeur”, plus d’articles signi­fie plus de reve­nus. Cet inté­rêt finan­cier peut les conduire à fer­mer les yeux sur des pra­tiques dou­teuses – voire les provoquer.

Comment expliquer que des publications frauduleuses, voire aberrantes, restent en ligne pendant des années, sans que personne ne s’en émeuve ?

Il y a sans doute une ten­dance de la com­mu­nau­té scien­ti­fique à ne pas signa­ler les articles sus­pects ou absurdes, par pru­dence ou manque d’intérêt. Mais même lorsque les articles sont signa­lés, la rétrac­ta­tion peut être longue et dif­fi­cile. Per­sonne, des mai­sons d’éditions aux auteurs en pas­sant par les édi­teurs n’a envie de voir sa répu­ta­tion enta­chée par une rétrac­ta­tion… Cela engendre des réti­cences, des résis­tances, au sein des mai­sons d’édition comme auprès des auteurs, même quand le pro­blème est abso­lu­ment manifeste.

Quelles actions sont menées pour améliorer la situation ?

Les actions sont géné­ra­le­ment pré­ven­tives plus que cor­rec­tives. Des ini­tia­tives aca­dé­miques ou pri­vées (par­fois au sein même des mai­sons d’édition) existent pour déve­lop­per des détec­teurs de fraude s’adaptant aux inno­va­tions des frau­deurs. Les mai­sons d’édition ren­forcent leurs comi­tés d’éthique et la super­vi­sion de la revue par les pairs, et elles col­la­borent entre elles pour repé­rer cer­taines pra­tiques, comme la double sou­mis­sion, qui le plus sou­vent n’est pas acceptée.

Les uni­ver­si­tés et le monde aca­dé­mique se mobi­lisent éga­le­ment. Dans la plu­part des mas­ters recherche, la for­ma­tion à l’intégrité scien­ti­fique est par exemple deve­nue obligatoire.

En 2023, une lettre ouverte4  signée par une quinzaine de chercheurs internationaux avait été adressée à la direction du CNRS, en raison de sa gestion jugée trop peu sévère d’une affaire d’inconduite. Comment percevez-vous la volonté affichée par certains de durcir la répression contre les fraudeurs ? 

C’est une ligne d’action que je ne pri­vi­lé­gie pas. À mon sens, c’est le sys­tème d’évaluation actuel qui est à l’origine des dérives, et c’est lui qu’il fau­drait réfor­mer pour obte­nir des résul­tats durables. Une éva­lua­tion pure­ment quan­ti­ta­tive est par nature dan­ge­reuse, puisqu’elle est aveugle au conte­nu scien­ti­fique des articles.

Comment faire évoluer le système d’évaluation ?

Il semble aujourd’hui impos­sible de ban­nir les métriques, mais il faut leur accor­der moins d’importance dans l’évaluation indi­vi­duelle et col­lec­tive de la recherche. D’autres types de contri­bu­tions pour­raient être valo­ri­sées : en infor­ma­tique, par exemple, la pro­duc­tion de code ou de bases de données.

Mais à vrai dire, je doute que le sys­tème change à court terme : les indi­ca­teurs actuels sont trop faciles à éta­blir et à uti­li­ser, y com­pris pour les cher­cheurs. Nous tou­chons là un nou­veau para­doxe : beau­coup d’entre eux dénoncent la pres­sion subie et la sur­va­lo­ri­sa­tion de l’article scien­ti­fique dans le sys­tème d’évaluation des cher­cheurs, mais il est facile et ten­tant d’avoir recours à ces indi­ca­teurs quan­ti­ta­tifs pour jus­ti­fier de la per­ti­nence d’un tra­vail. Il est tel­le­ment plus simple d’annoncer à un finan­ceur que l’on a publié dans une revue pres­ti­gieuse que d’expliquer les béné­fices de ses recherches pour la société…

Faut-il donc se résigner à une augmentation du nombre de fraudes ?

Sur­tout pas. Mais il faut agir avec patience et luci­di­té. Je suis convain­cu que les sciences humaines ont un rôle cen­tral à jouer dans cette quête pour une lit­té­ra­ture scien­ti­fique plus intègre. C’est pour­quoi le pro­jet ERC-Syner­gy Nano­Bubbles réunit des cher­cheurs de dis­ci­plines variées : Raphaël Lévy (uni­ver­si­té Paris Sor­bonne Nord) expert en nano­bio­lo­gie, Cyrus Mody (uni­ver­si­té de Maas­tricht) expert en his­toire des sciences, Willem Halff­man (uni­ver­si­té de Rad­boud), recon­nu pour ses tra­vaux sur le fonc­tion­ne­ment de l’expertise et de la poli­tique scien­ti­fiques. Ensemble, avec les membres du pro­jet, infor­ma­ti­ciens, socio­logues des sciences et phi­lo­sophes, nous ana­ly­sons l’évolution du monde aca­dé­mique et des mai­sons d’édition pour mieux com­prendre la situa­tion actuelle. Ce tra­vail d’analyse est indis­pen­sable pour cer­ner les vul­né­ra­bi­li­tés, pro­po­ser des actions de pré­ven­tion et de cor­rec­tion ciblées et ain­si contri­buer à res­tau­rer dura­ble­ment la confiance dans la com­mu­nau­té scientifique.

Propos recueillis par Anne Orliac
1https://​nano​bubbles​.hypo​theses​.org/
2https://www.irit.fr/~Guillaume.Cabanac/problematic-paper-screener
3R.A.K. Richardson,S.S. Hong,J.A. Byrne,T. Stoe­ger, & L.A.N. Ama­ral, The enti­ties enabling scien­ti­fic fraud at scale are large, resi­lient, and gro­wing rapid­ly, Proc. Natl. Acad. Sci. U.S.A. 122 (32) e2420092122, https://​doi​.org/​1​0​.​1​0​7​3​/​p​n​a​s​.​2​4​2​0​0​92122 (2025).
4https://​dee​vy​bee​.blog​spot​.com/​2​0​2​3​/​0​2​/​o​p​e​n​-​l​e​t​t​e​r​-​t​o​-​c​n​r​s​.html

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don