Comment l’intelligence artificielle transforme l’écosystème informationnel
- Selon NewsGuard, plus de 2 089 sites d'information générés par intelligence artificielle fonctionnent actuellement en publiant des contenus dans 16 langues.
- En août 2025, les principaux chatbots d'IA ont relayé de fausses affirmations dans 35 % des cas, contre 18 % l'année précédente.
- D’après le rapport de 2025 de Entrust Identity Fraud Report, une attaque par deepfake se produit toutes les cinq minutes en 2024.
- Aussi, les algorithmes de personnalisation des réseaux sociaux contribuent à la fragmentation de l'espace public créant des chambres d’écho.
- Il est nécessaire de faire évoluer les contre-mesures humaines, comme la modération ou l’éducation aux médias, afin de s’adapter au phénomène.
Il y a quelques années, créer une vidéo truquée convaincante nécessitait des moyens considérables et une expertise technique pointue. Aujourd’hui, quelques dollars et quelques minutes suffisent. Cette démocratisation de la manipulation de l’information par l’intelligence artificielle générative pose de nouveaux défis pour la vérification de l’information et la confiance dans les médias. Les données récentes illustrent l’ampleur du phénomène. Selon NewsGuard, plus de 2 089 sites d’information générés par intelligence artificielle fonctionnent actuellement avec peu ou pas de supervision humaine, publiant des contenus dans 16 langues, dont le français, l’anglais, l’arabe et le chinois. Cette progression représente une croissance de 1 150 % depuis avril 2023.
« Ces plateformes de médias sociaux jouent un rôle double, explique le professeur Thierry Warin, analyste des dynamiques économiques à l’ère des données massives et spécialiste des enjeux informationnels à l’ère numérique. D’un côté, elles démocratisent la prise de parole. De l’autre, elles peuvent devenir un vecteur de diffusion de fausses nouvelles à grande échelle. » Les outils d’IA eux-mêmes contribuent parfois à ce phénomène. Une étude de NewsGuard montre qu’en août 2025, les principaux chatbots d’IA ont relayé de fausses affirmations dans 35 % des cas, contre 18 % l’année précédente. Perplexity est passé d’un taux de réfutation de 100 % des fausses informations en 2024 à 46,67 % d’erreurs en 2025. ChatGPT et Meta affichent un taux d’erreur de 40 %.
Les deepfakes représentent une évolution notable dans le domaine de la manipulation de contenus. Selon le rapport 2025 Identity Fraud Report d’Entrust, une attaque par deepfake se produit toutes les cinq minutes en 2024. Les falsifications de documents numériques ont augmenté de 244 % par rapport à 2023, tandis que les fraudes numériques globales ont progressé de 1 600 % depuis 2021. « Le Center for Security and Emerging Technology estime qu’un hypertrucage basique peut être produit pour quelques dollars et en moins de dix minutes, note Thierry Warin. Les deepfakes de haute qualité, eux, peuvent coûter entre 300 et 20 000 dollars par minute. »
Ingérence électorale et manipulation informationnelle
L’année 2024, caractérisée par un grand nombre d’élections à travers le monde, a vu l’émergence de campagnes de désinformation sophistiquées. La campagne Doppelgänger, orchestrée par des acteurs prorusses à l’approche des élections européennes de 2024, en est un exemple notable. Elle combinait sept domaines usurpant des médias reconnus, 47 sites inauthentiques et 657 articles amplifiés par des milliers de comptes automatisés. Le réseau « Portal Kombat » (également appelé « Pravda ») illustre une approche systématique de diffusion d’information. Selon VIGINUM, ce réseau opérant depuis Moscou a publié 3,6 millions d’articles en 2024 sur des plateformes en ligne mondiales. Avec 150 noms de domaine répartis en 46 langues, il publie en moyenne 20 273 articles toutes les 48 heures.

NewsGuard a testé dix des IA génératives les plus populaires : dans 33 % des cas, ces modèles ont répété les affirmations diffusées par le réseau Pravda. « Ces contenus influencent les intelligences artificielles qui s’appuient sur ces données pour générer leurs réponses », indique le rapport. Cette technique, appelée « LLM grooming », consiste à saturer les résultats de recherche avec des données orientées pour influencer les réponses des IA. « De nombreux scrutins récents ont été marqués par des campagnes de désinformation, rappelle Thierry Warin. Lors de l’élection présidentielle américaine de 2016, les États-Unis ont réagi aux ingérences russes par l’expulsion de 35 diplomates. Avec l’IA générative, l’échelle du phénomène a changé. »
Le rôle des algorithmes de personnalisation
Au-delà de la création de faux contenus, les algorithmes de personnalisation des réseaux sociaux contribuent à la fragmentation de l’espace public. « Ces systèmes tendent à proposer aux internautes des contenus conformes à leurs préférences, explique le professeur Warin. Cela peut créer ce qu’on appelle des ‘chambres d’écho’. » Les études montrent que sur Facebook, environ 15 % seulement des interactions impliquent une exposition à des opinions divergentes. Les contenus générant le plus d’interactions sont souvent amplifiés par les algorithmes, ce qui peut renforcer les clivages idéologiques.
Face à ces évolutions, plusieurs initiatives ont été mises en place. La Finlande et la Suède obtiennent les meilleurs résultats en matière de littératie médiatique, avec respectivement 74 et 71 points à l’European Media Literacy Index 2023. La Commission européenne a adopté le cadre 2022 Strengthened Code of Practice on Disinformation pour améliorer la transparence des plateformes. Au Canada, le Communications Security Establishment a publié en 2023 son rapport Cyber Threats to Canada’s Democratic Process – 2023 Update, qui analyse l’usage de l’IA générative dans les contextes d’ingérence informationnelle.
« Les contre-mesures traditionnelles – modération humaine, vérification des faits, éducation aux médias – doivent évoluer pour s’adapter à l’ampleur du phénomène, observe Thierry Warin. Des solutions technologiques, telles que les détecteurs de contenus synthétiques et les filigranes numériques, sont en cours de développement. »
L’évolution de l’écosystème informationnel
L’année 2025 marque une évolution notable. Le taux de non-réponse des IA face aux questions sensibles est tombé à 0 %, contre 31 % en 2024. En contrepartie, leur propension à répéter de fausses informations a augmenté. Les modèles privilégient désormais la réactivité, ce qui peut les rendre plus vulnérables aux contenus non vérifiés présents en ligne.
« L’adage selon lequel ‘l’information, c’est le pouvoir’, attribué au cardinal de Richelieu, reste pertinent, conclut le professeur Warin. De l’imprimerie à la télévision, chaque révolution médiatique a redistribué le pouvoir de l’information. Avec l’IA générative, nous assistons à une transformation majeure de cet écosystème. » La question est désormais de savoir comment adapter les mécanismes de vérification et de confiance dans l’information à cette nouvelle réalité technologique. Les initiatives en cours, qu’elles soient technologiques, réglementaires ou éducatives, visent à relever ce défi.

