Accueil / Chroniques / Comment l’intelligence artificielle transforme l’écosystème informationnel
People watching a lot of retro televisions. Propaganda and fake news concept. Politicians manipulate society with help of public television. Created with Generative AI
Généré par l'IA / Generated using AI
π Numérique π Société

Comment l’intelligence artificielle transforme l’écosystème informationnel

Thierry Warin
Thierry Warin
professeur titulaire à HEC Montréal, spécialiste des enjeux informationnels à l'ère numérique
En bref
  • Selon NewsGuard, plus de 2 089 sites d'information générés par intelligence artificielle fonctionnent actuellement en publiant des contenus dans 16 langues.
  • En août 2025, les principaux chatbots d'IA ont relayé de fausses affirmations dans 35 % des cas, contre 18 % l'année précédente.
  • D’après le rapport de 2025 de Entrust Identity Fraud Report, une attaque par deepfake se produit toutes les cinq minutes en 2024.
  • Aussi, les algorithmes de personnalisation des réseaux sociaux contribuent à la fragmentation de l'espace public créant des chambres d’écho.
  • Il est nécessaire de faire évoluer les contre-mesures humaines, comme la modération ou l’éducation aux médias, afin de s’adapter au phénomène.

Il y a quelques années, créer une vidéo tru­quée convain­cante néces­si­tait des moyens consi­dé­rables et une exper­tise tech­nique poin­tue. Aujourd’­hui, quelques dol­lars et quelques minutes suf­fisent. Cette démo­cra­ti­sa­tion de la mani­pu­la­tion de l’in­for­ma­tion par l’in­tel­li­gence arti­fi­cielle géné­ra­tive pose de nou­veaux défis pour la véri­fi­ca­tion de l’in­for­ma­tion et la confiance dans les médias. Les don­nées récentes illus­trent l’am­pleur du phé­no­mène. Selon News­Guard, plus de 2 089 sites d’in­for­ma­tion géné­rés par intel­li­gence arti­fi­cielle fonc­tionnent actuel­le­ment avec peu ou pas de super­vi­sion humaine, publiant des conte­nus dans 16 langues, dont le fran­çais, l’an­glais, l’a­rabe et le chi­nois. Cette pro­gres­sion repré­sente une crois­sance de 1 150 % depuis avril 2023.

« Ces pla­te­formes de médias sociaux jouent un rôle double, explique le pro­fes­seur Thier­ry Warin, ana­lyste des dyna­miques éco­no­miques à l’ère des don­nées mas­sives et spé­cia­liste des enjeux infor­ma­tion­nels à l’ère numé­rique. D’un côté, elles démo­cra­tisent la prise de parole. De l’autre, elles peuvent deve­nir un vec­teur de dif­fu­sion de fausses nou­velles à grande échelle. » Les outils d’IA eux-mêmes contri­buent par­fois à ce phé­no­mène. Une étude de News­Guard montre qu’en août 2025, les prin­ci­paux chat­bots d’IA ont relayé de fausses affir­ma­tions dans 35 % des cas, contre 18 % l’an­née pré­cé­dente. Per­plexi­ty est pas­sé d’un taux de réfu­ta­tion de 100 % des fausses infor­ma­tions en 2024 à 46,67 % d’er­reurs en 2025. ChatGPT et Meta affichent un taux d’er­reur de 40 %.

Les deep­fakes repré­sentent une évo­lu­tion notable dans le domaine de la mani­pu­la­tion de conte­nus. Selon le rap­port 2025 Iden­ti­ty Fraud Report d’En­trust, une attaque par deep­fake se pro­duit toutes les cinq minutes en 2024. Les fal­si­fi­ca­tions de docu­ments numé­riques ont aug­men­té de 244 % par rap­port à 2023, tan­dis que les fraudes numé­riques glo­bales ont pro­gres­sé de 1 600 % depuis 2021. « Le Cen­ter for Secu­ri­ty and Emer­ging Tech­no­lo­gy estime qu’un hyper­tru­cage basique peut être pro­duit pour quelques dol­lars et en moins de dix minutes, note Thier­ry Warin. Les deep­fakes de haute qua­li­té, eux, peuvent coû­ter entre 300 et 20 000 dol­lars par minute. »

Ingérence électorale et manipulation informationnelle

L’an­née 2024, carac­té­ri­sée par un grand nombre d’é­lec­tions à tra­vers le monde, a vu l’é­mer­gence de cam­pagnes de dés­in­for­ma­tion sophis­ti­quées. La cam­pagne Dop­pelgän­ger, orches­trée par des acteurs pro­russes à l’ap­proche des élec­tions euro­péennes de 2024, en est un exemple notable. Elle com­bi­nait sept domaines usur­pant des médias recon­nus, 47 sites inau­then­tiques et 657 articles ampli­fiés par des mil­liers de comptes auto­ma­ti­sés. Le réseau « Por­tal Kom­bat » (éga­le­ment appe­lé « Prav­da ») illustre une approche sys­té­ma­tique de dif­fu­sion d’in­for­ma­tion. Selon VIGINUM, ce réseau opé­rant depuis Mos­cou a publié 3,6 mil­lions d’ar­ticles en 2024 sur des pla­te­formes en ligne mon­diales. Avec 150 noms de domaine répar­tis en 46 langues, il publie en moyenne 20 273 articles toutes les 48 heures.

News­Guard a tes­té dix des IA géné­ra­tives les plus popu­laires : dans 33 % des cas, ces modèles ont répé­té les affir­ma­tions dif­fu­sées par le réseau Prav­da. « Ces conte­nus influencent les intel­li­gences arti­fi­cielles qui s’ap­puient sur ces don­nées pour géné­rer leurs réponses », indique le rap­port. Cette tech­nique, appe­lée « LLM groo­ming », consiste à satu­rer les résul­tats de recherche avec des don­nées orien­tées pour influen­cer les réponses des IA. « De nom­breux scru­tins récents ont été mar­qués par des cam­pagnes de dés­in­for­ma­tion, rap­pelle Thier­ry Warin. Lors de l’é­lec­tion pré­si­den­tielle amé­ri­caine de 2016, les États-Unis ont réagi aux ingé­rences russes par l’ex­pul­sion de 35 diplo­mates. Avec l’IA géné­ra­tive, l’é­chelle du phé­no­mène a chan­gé. »

Le rôle des algorithmes de personnalisation

Au-delà de la créa­tion de faux conte­nus, les algo­rithmes de per­son­na­li­sa­tion des réseaux sociaux contri­buent à la frag­men­ta­tion de l’es­pace public. « Ces sys­tèmes tendent à pro­po­ser aux inter­nautes des conte­nus conformes à leurs pré­fé­rences, explique le pro­fes­seur Warin. Cela peut créer ce qu’on appelle des ‘chambres d’é­cho’. » Les études montrent que sur Face­book, envi­ron 15 % seule­ment des inter­ac­tions impliquent une expo­si­tion à des opi­nions diver­gentes. Les conte­nus géné­rant le plus d’in­te­rac­tions sont sou­vent ampli­fiés par les algo­rithmes, ce qui peut ren­for­cer les cli­vages idéologiques.

Face à ces évo­lu­tions, plu­sieurs ini­tia­tives ont été mises en place. La Fin­lande et la Suède obtiennent les meilleurs résul­tats en matière de lit­té­ra­tie média­tique, avec res­pec­ti­ve­ment 74 et 71 points à l’Eu­ro­pean Media Lite­ra­cy Index 2023. La Com­mis­sion euro­péenne a adop­té le cadre 2022 Streng­the­ned Code of Prac­tice on Dis­in­for­ma­tion pour amé­lio­rer la trans­pa­rence des pla­te­formes. Au Cana­da, le Com­mu­ni­ca­tions Secu­ri­ty Esta­blish­ment a publié en 2023 son rap­port Cyber Threats to Cana­da’s Demo­cra­tic Pro­cess – 2023 Update, qui ana­lyse l’u­sage de l’IA géné­ra­tive dans les contextes d’in­gé­rence informationnelle.

« Les contre-mesures tra­di­tion­nelles – modé­ra­tion humaine, véri­fi­ca­tion des faits, édu­ca­tion aux médias – doivent évo­luer pour s’a­dap­ter à l’am­pleur du phé­no­mène, observe Thier­ry Warin. Des solu­tions tech­no­lo­giques, telles que les détec­teurs de conte­nus syn­thé­tiques et les fili­granes numé­riques, sont en cours de déve­lop­pe­ment. »

L’évolution de l’écosystème informationnel

L’an­née 2025 marque une évo­lu­tion notable. Le taux de non-réponse des IA face aux ques­tions sen­sibles est tom­bé à 0 %, contre 31 % en 2024. En contre­par­tie, leur pro­pen­sion à répé­ter de fausses infor­ma­tions a aug­men­té. Les modèles pri­vi­lé­gient désor­mais la réac­ti­vi­té, ce qui peut les rendre plus vul­né­rables aux conte­nus non véri­fiés pré­sents en ligne.

« L’a­dage selon lequel ‘l’in­for­ma­tion, c’est le pou­voir’, attri­bué au car­di­nal de Riche­lieu, reste per­ti­nent, conclut le pro­fes­seur Warin. De l’im­pri­me­rie à la télé­vi­sion, chaque révo­lu­tion média­tique a redis­tri­bué le pou­voir de l’in­for­ma­tion. Avec l’IA géné­ra­tive, nous assis­tons à une trans­for­ma­tion majeure de cet éco­sys­tème. » La ques­tion est désor­mais de savoir com­ment adap­ter les méca­nismes de véri­fi­ca­tion et de confiance dans l’in­for­ma­tion à cette nou­velle réa­li­té tech­no­lo­gique. Les ini­tia­tives en cours, qu’elles soient tech­no­lo­giques, régle­men­taires ou édu­ca­tives, visent à rele­ver ce défi.

Alicia Piveteau

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don