Le design addictif des réseaux sociaux dans le viseur des régulateurs
- Le 6 février 2026, la Commission européenne s’attaque au réseau social chinois TikTok à cause de la mauvaise régulation par l’entreprise du design addictif de l’application et donc pour sa violation du Digital Services Act.
- Sur la même période, en Californie, un procès accuse Meta et YouTube d'avoir « fabriqué l'addiction », notamment via les IA de recommandation dépassant ainsi le cadre de l’hébergement de contenus.
- L’alinéa 5.1.a de l'AI Act, entré en vigueur dans l’UE, interdit les systèmes d'IA qui ont « recours à des techniques subliminales [...] avec pour objectif ou effet d'alétrer substantiellement le comportement d'une personne ».
- Les accusations envers ces IA de recommandation sont nombreuses : exploitation des vulnérabilités psychologiques, dégradation des facultés cognitives, amplification de la désinformation de masse, etc.
- Les IA de recommandation sont déployées dans un marché de l’attention qui pèse des centaines de milliards de dollars par an et qui est financé par des publicités ultraciblées sur l’utilisateur.
Le 6 février 2026, la Commission européenne émet un avis préliminaire sur la violation du Digital Services Actpar le réseau social chinois TikTok1. La Commission estime que l’entreprise ByteDance derrière TikTok a échoué à « prendre des mesures raisonnables, proportionnées et effectives pour atténuer les risques émergeant du design addictif » de son produit. Elle vise par là des fonctionnalités comme le scroll infini, la lecture automatique et les notifications, mais aussi son IA de recommandation, c’est-à-dire l’algorithme qui répond à chaque clic, swipe ou scroll d’un utilisateur en quête d’un nouveau contenu. C’est la première fois qu’une institution démocratique s’attaque à un algorithme au cœur du contrôle des flux de l’information du monde moderne.
Mais cette attaque juridique n’est pas isolée. Fin janvier 2026, dans la version provisoire du projet de loi visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux, est introduit un Article 1er bis, qui lui aussi, cible spécifiquement les IA de recommandation2. « Pour les informations ainsi mises en avant, la responsabilité du fournisseur peut être engagée en qualité d’éditeur », affirme l’alinéa 6–8‑1-II. Et dans le même temps, en Californie, le 9 février 2026, un procès accuse Meta et YouTube d’avoir « fabriqué l’addiction »3, notamment via les IA de recommandation, en allant ainsi bien au-delà du simple hébergement de contenus, encadré par la Section 230 très peu exigeante pour les hébergeurs4. En deux semaines, les IA de recommandation ont été davantage ciblées juridiquement qu’au cours de leurs deux décennies d’existence antérieures.
Pourtant, cela fait au moins une décennie que des scientifiques, des journalistes et des défenseurs des droits humains alarment sur le risque civilisationnel de ces IA de recommandation, parfois appelés systèmes de curation, ou parfois juste « l’algorithme », notamment par les créateurs et les consommateurs de contenus sur les réseaux sociaux. Les accusations vont de l’exploitation des vulnérabilités psychologiques des utilisateurs à l’incitation au suicide, en passant par une dégradation des facultés cognitives, une complicité au cyberharcèlement de meute, une amplification de la désinformation de masse, des déstabilisations d’élections démocratiques et des contributions à des génocides, avec connaissance de cause. Dans cet article, nous allons compiler quelques-uns des arguments scientifiques les plus compromettants pour ces IA.
Le pouvoir surpuissant des IA de recommandation
Le 27 novembre 2025, paraît dans Science une publication sur l’impact monumental de la recommandation de contenus sur les utilisateurs5. L’étude invite un ensemble d’utilisateurs de X/Twitter à installer une extension navigateur. Cette extension va ensuite assigner les utilisateurs à différents groupes. Pour certains, aucune intervention n’aura lieu. Pour d’autres, l’extension va réordonner les messages proposés par l’IA de recommandation de X/Twitter, en mettant en premier les plus énervés ou les plus haineux vis-à-vis du groupe opposé. Pour d’autres l’extension va au contraire prioriser les contenus les plus calmes ou politiquement bienveillants. Seulement, après une semaine d’intervention, de manière frappante, cette intervention minime affecte déjà la polarisation affective des utilisateurs, c’est-à-dire leur degré d’antipathie émotionnelle vis-à-vis du clan opposé, avec une ampleur que les auteurs estiment « comparable à 3 ans de changement d’attitudes aux États-Unis ».

De manière très insidieuse, quand bien même les utilisateurs savaient qu’ils participaient à une expérience, ils étaient incapables deviner la nature de l’intervention dont ils étaient la cible. Le réordonnancement des messages publiés était, en un sens, subliminal, ou du moins, sous leur seuil de conscience. Voilà qui fait écho à l’alinéa 5.1.a de l’AI Act6, entré en vigueur dans l’Union européenne, qui interdit les systèmes d’IA qui ont « recours à des techniques subliminales […] avec pour objectif ou effet d’altérer substantiellement le comportement d’une personne ». Bien entendu, d’autres conditions sont évoquées dans cet alinéa, et l’étude dans Science ne suffit certainement pas à conclure à l’interdiction des IA de recommandation. Néanmoins, elle soulève des questions vertigineuses sur les investigations qu’il serait judicieux de prioriser pour protéger leurs 3 milliards d’utilisateurs, et sur l’application des réglementations déjà en vigueur.
D’autant que l’étude de Science n’est pas isolée. Onze ans plus tôt, le 2 juin 2014, paraissait déjà dans PNASune étude qui montrait cet impact monumental des IA7. L’intervention y était également minime. Il s’agissait de retirer du flux de recommandation les contenus émotionnels positifs ou négatifs, avec une probabilité entre 10% et 90%. Après une semaine, de manière stupéfiante, le simple retrait d’une fraction des contenus émotionnels d’un type modifiait le comportement des utilisateurs conformément à ce retrait. Autrement dit, moins les utilisateurs voyaient de contenus négatifs, moins les contenus qu’ils publiaient étaient négatifs. De manière tout aussi frappante, réduire les contenus émotionnels, positifs ou négatifs, réduisait d’environ 5 écarts-types l’activité des utilisateurs.
Nul doute que ce dernier résultat est l’objet d’observations récurrentes de tous les réseaux sociaux, sachant que l’engagement des utilisateurs est directement lié à la capacité des plateformes à leur montrer des publicités ultra-ciblées. Or, on parle ici d’un marché de centaines de milliards de dollars par an, dix fois plus que celui des chatbots aujourd’hui. Malgré des financements circulaires douteux, OpenAI déclare en effet « seulement » 20 milliards de dollars de chiffres d’affaires en 2025. Une goutte d’eau en comparaison des 201 milliards de Meta. Vu les montants en jeu, il n’est alors pas étonnant de voir les IA de recommandation être excessivement optimisées pour capter les utilisateurs. Et ce faisant, il faut s’attendre à ce qu’elles recommandent massivement des contenus extrêmement chargés émotionnellement, aussi bien positivement que négativement, de sorte à rendre le réseau social aussi addictif que possible.
Détresses psychologiques, désastres humanitaires et déclins démocratiques
Si le design addictif des IA de recommandation est aujourd’hui l’objet de leurs poursuites judiciaires, par la Commission européenne et en Californie, les éléments à charge compromettants s’accumulent vis-à-vis de leur rôle catastrophique sur le bien-être des utilisateurs, la sécurité de populations ethniques et l’intégrité des démocraties. Citons par exemple un sondage britannique révélant que près de la moitié des jeunes déclarent qu’ils auraient préféré grandir sans Internet8, l’accusation par l’ONU et Amnesty International que Facebook a sciemment contribué au génocide des Rohingyas en amplifiant massivement les appels aux meurtres9, et l’annulation des élections présidentielles en Roumanie en 2024 suite à des ingérences informationnelles sur TikTok10.
Les éléments à charge compromettants s’accumulent vis-à-vis de leur rôle catastrophique sur le bien-être des utilisateurs, la sécurité de populations ethniques et l’intégrité des démocraties.
Au-delà d’une corrélation frappante entre l’adoption massive des réseaux sociaux autour de 2012 et l’évolution inquiétante des indicateurs, comme le taux d’anxiété et de dépression chez les jeunes11, le nombre de morts dans des guerres12 et l’indice de démocratie libérale13, on peut identifier de nombreuses catégories argumentaires préoccupantes sur les différents impacts négatifs des réseaux sociaux, comme la parole des victimes et des témoins, les études épidémiologiques14, les essais cliniques randomisés15, les expériences naturelles16 et les fuites de documents internes.
En particulier, à l’instar de cas antérieurs de marchands du doute sur le tabac, le pétrole, le sucre, les pesticides, les PFAS, etc., ces documents internes révèlent que les industriels ont conclu que leurs produits étaient nocifs, parfois plusieurs décennies avant que les chercheurs en viennent par eux-mêmes à cette conclusion. Les Facebook Files en particulier, révélés par la lanceuse d’alerte Frances Haugen en 2021, sont extrêmement compromettants vis-à-vis des implications catastrophiques des IA de recommandation pour la santé mentale des jeunes filles, pour la qualité du journalisme et pour le discours des politiques, poussant notamment ces derniers à adopter systématiquement des tons clivants.
Or, contrairement aux autres industries, les géants du numérique ont l’avantage de disposer d’une influence monumentale sur la recherche académique17 et d’un monopole des données compromettantes, qu’ils cherchent activement à protéger même dans un cadre juridique. Dans ce contexte, tout scientifique qui affirme « on n’a pas prouvé que » sans préciser que l’absence de preuve est alimentée par l’opacité volontaire des accusés me semble proposer une interprétation problématique, et peut-être même irresponsable, de l’état des connaissances sur les relations complexes entre la science et les industriels.
Au contraire, vu la montagne d’éléments à charge compromettants vis-à-vis des géants du numérique et de leurs IA de recommandation, et sachant de surcroît leur inquiétante proximité avec l’autoritarisme chinois18 ou avec un pouvoir états-unien qualifié de néocolonial par le Président Macron, il semble être devenu judicieux d’investir massivement dans la conception d’alternatives souveraines et conformes aux normes démocratiques, comme le proposent des projets comme EU OS, FramaSoft, Mastodon, EuroSky ou Tournesol, un projet non lucratif spécialisé dans la conception d’IA de recommandation au service de l’intérêt général. Ainsi que d’adopter un ton radicalement plus accusateur, comme l’a fait la Commission européenne pour TikTok.

