Accueil / Chroniques / Comment l’intelligence artificielle transforme l’écosystème informationnel
People watching a lot of retro televisions. Propaganda and fake news concept. Politicians manipulate society with help of public television. Created with Generative AI
Généré par l'IA / Generated using AI
π Numérique π Société

Comment l’intelligence artificielle transforme l’écosystème informationnel

Thierry Warin
Thierry Warin
professeur titulaire à HEC Montréal, spécialiste des enjeux informationnels à l'ère numérique
En bref
  • Selon NewsGuard, plus de 2 089 sites d'information générés par intelligence artificielle fonctionnent actuellement en publiant des contenus dans 16 langues.
  • En août 2025, les principaux chatbots d'IA ont relayé de fausses affirmations dans 35 % des cas, contre 18 % l'année précédente.
  • D’après le rapport de 2025 de Entrust Identity Fraud Report, une attaque par deepfake se produit toutes les cinq minutes en 2024.
  • Aussi, les algorithmes de personnalisation des réseaux sociaux contribuent à la fragmentation de l'espace public créant des chambres d’écho.
  • Il est nécessaire de faire évoluer les contre-mesures humaines, comme la modération ou l’éducation aux médias, afin de s’adapter au phénomène.

Il y a quelques années, créer une vidéo truquée con­va­in­cante néces­si­tait des moyens con­sid­érables et une exper­tise tech­nique pointue. Aujour­d’hui, quelques dol­lars et quelques min­utes suff­isent. Cette démoc­ra­ti­sa­tion de la manip­u­la­tion de l’in­for­ma­tion par l’in­tel­li­gence arti­fi­cielle généra­tive pose de nou­veaux défis pour la véri­fi­ca­tion de l’in­for­ma­tion et la con­fi­ance dans les médias. Les don­nées récentes illus­trent l’am­pleur du phénomène. Selon News­Guard, plus de 2 089 sites d’in­for­ma­tion générés par intel­li­gence arti­fi­cielle fonc­tion­nent actuelle­ment avec peu ou pas de super­vi­sion humaine, pub­liant des con­tenus dans 16 langues, dont le français, l’anglais, l’arabe et le chi­nois. Cette pro­gres­sion représente une crois­sance de 1 150 % depuis avril 2023.

« Ces plate­formes de médias soci­aux jouent un rôle dou­ble, explique le pro­fesseur Thier­ry Warin, ana­lyste des dynamiques économiques à l’ère des don­nées mas­sives et spé­cial­iste des enjeux infor­ma­tion­nels à l’ère numérique. D’un côté, elles démoc­ra­tisent la prise de parole. De l’autre, elles peu­vent devenir un vecteur de dif­fu­sion de fauss­es nou­velles à grande échelle. » Les out­ils d’IA eux-mêmes con­tribuent par­fois à ce phénomène. Une étude de News­Guard mon­tre qu’en août 2025, les prin­ci­paux chat­bots d’IA ont relayé de fauss­es affir­ma­tions dans 35 % des cas, con­tre 18 % l’an­née précé­dente. Per­plex­i­ty est passé d’un taux de réfu­ta­tion de 100 % des fauss­es infor­ma­tions en 2024 à 46,67 % d’er­reurs en 2025. Chat­G­PT et Meta affichent un taux d’er­reur de 40 %.

Les deep­fakes représen­tent une évo­lu­tion notable dans le domaine de la manip­u­la­tion de con­tenus. Selon le rap­port 2025 Iden­ti­ty Fraud Report d’En­trust, une attaque par deep­fake se pro­duit toutes les cinq min­utes en 2024. Les fal­si­fi­ca­tions de doc­u­ments numériques ont aug­men­té de 244 % par rap­port à 2023, tan­dis que les fraudes numériques glob­ales ont pro­gressé de 1 600 % depuis 2021. « Le Cen­ter for Secu­ri­ty and Emerg­ing Tech­nol­o­gy estime qu’un hyper­trucage basique peut être pro­duit pour quelques dol­lars et en moins de dix min­utes, note Thier­ry Warin. Les deep­fakes de haute qual­ité, eux, peu­vent coûter entre 300 et 20 000 dol­lars par minute. »

Ingérence électorale et manipulation informationnelle

L’an­née 2024, car­ac­térisée par un grand nom­bre d’élec­tions à tra­vers le monde, a vu l’émer­gence de cam­pagnes de dés­in­for­ma­tion sophis­tiquées. La cam­pagne Dop­pel­gänger, orchestrée par des acteurs proruss­es à l’ap­proche des élec­tions européennes de 2024, en est un exem­ple notable. Elle com­bi­nait sept domaines usurpant des médias recon­nus, 47 sites inau­then­tiques et 657 arti­cles ampli­fiés par des mil­liers de comptes automa­tisés. Le réseau « Por­tal Kom­bat » (égale­ment appelé « Prav­da ») illus­tre une approche sys­té­ma­tique de dif­fu­sion d’in­for­ma­tion. Selon VIGINUM, ce réseau opérant depuis Moscou a pub­lié 3,6 mil­lions d’ar­ti­cles en 2024 sur des plate­formes en ligne mon­di­ales. Avec 150 noms de domaine répar­tis en 46 langues, il pub­lie en moyenne 20 273 arti­cles toutes les 48 heures.

News­Guard a testé dix des IA généra­tives les plus pop­u­laires : dans 33 % des cas, ces mod­èles ont répété les affir­ma­tions dif­fusées par le réseau Prav­da. « Ces con­tenus influ­en­cent les intel­li­gences arti­fi­cielles qui s’ap­puient sur ces don­nées pour génér­er leurs répons­es », indique le rap­port. Cette tech­nique, appelée « LLM groom­ing », con­siste à sat­ur­er les résul­tats de recherche avec des don­nées ori­en­tées pour influ­encer les répons­es des IA. « De nom­breux scruti­ns récents ont été mar­qués par des cam­pagnes de dés­in­for­ma­tion, rap­pelle Thier­ry Warin. Lors de l’élec­tion prési­den­tielle améri­caine de 2016, les États-Unis ont réa­gi aux ingérences russ­es par l’ex­pul­sion de 35 diplo­mates. Avec l’IA généra­tive, l’échelle du phénomène a changé. »

Le rôle des algorithmes de personnalisation

Au-delà de la créa­tion de faux con­tenus, les algo­rithmes de per­son­nal­i­sa­tion des réseaux soci­aux con­tribuent à la frag­men­ta­tion de l’e­space pub­lic. « Ces sys­tèmes ten­dent à pro­pos­er aux inter­nautes des con­tenus con­formes à leurs préférences, explique le pro­fesseur Warin. Cela peut créer ce qu’on appelle des ‘cham­bres d’é­cho’. » Les études mon­trent que sur Face­book, env­i­ron 15 % seule­ment des inter­ac­tions impliquent une expo­si­tion à des opin­ions diver­gentes. Les con­tenus générant le plus d’in­ter­ac­tions sont sou­vent ampli­fiés par les algo­rithmes, ce qui peut ren­forcer les cli­vages idéologiques.

Face à ces évo­lu­tions, plusieurs ini­tia­tives ont été mis­es en place. La Fin­lande et la Suède obti­en­nent les meilleurs résul­tats en matière de lit­tératie médi­a­tique, avec respec­tive­ment 74 et 71 points à l’Eu­ro­pean Media Lit­er­a­cy Index 2023. La Com­mis­sion européenne a adop­té le cadre 2022 Strength­ened Code of Prac­tice on Dis­in­for­ma­tion pour amélior­er la trans­parence des plate­formes. Au Cana­da, le Com­mu­ni­ca­tions Secu­ri­ty Estab­lish­ment a pub­lié en 2023 son rap­port Cyber Threats to Canada’s Demo­c­ra­t­ic Process – 2023 Update, qui analyse l’usage de l’IA généra­tive dans les con­textes d’ingérence informationnelle.

« Les con­tre-mesures tra­di­tion­nelles – mod­éra­tion humaine, véri­fi­ca­tion des faits, édu­ca­tion aux médias – doivent évoluer pour s’adapter à l’am­pleur du phénomène, observe Thier­ry Warin. Des solu­tions tech­nologiques, telles que les détecteurs de con­tenus syn­thé­tiques et les fil­igranes numériques, sont en cours de développe­ment. »

L’évolution de l’écosystème informationnel

L’an­née 2025 mar­que une évo­lu­tion notable. Le taux de non-réponse des IA face aux ques­tions sen­si­bles est tombé à 0 %, con­tre 31 % en 2024. En con­trepar­tie, leur propen­sion à répéter de fauss­es infor­ma­tions a aug­men­té. Les mod­èles priv­ilégient désor­mais la réac­tiv­ité, ce qui peut les ren­dre plus vul­nérables aux con­tenus non véri­fiés présents en ligne.

« L’adage selon lequel ‘l’in­for­ma­tion, c’est le pou­voir’, attribué au car­di­nal de Riche­lieu, reste per­ti­nent, con­clut le pro­fesseur Warin. De l’im­primerie à la télévi­sion, chaque révo­lu­tion médi­a­tique a redis­tribué le pou­voir de l’in­for­ma­tion. Avec l’IA généra­tive, nous assis­tons à une trans­for­ma­tion majeure de cet écosys­tème. » La ques­tion est désor­mais de savoir com­ment adapter les mécan­ismes de véri­fi­ca­tion et de con­fi­ance dans l’in­for­ma­tion à cette nou­velle réal­ité tech­nologique. Les ini­tia­tives en cours, qu’elles soient tech­nologiques, régle­men­taires ou éduca­tives, visent à relever ce défi.

Alicia Piveteau

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don