Le fléau des manipulations : comment lutter contre les deepfakes ?
- D’après l’IA ACT, un deepfake est défini comme une image, un contenu audio ou vidéo manipulé par l'IA, et qui présente une ressemblance avec des personnes, des objets, des lieux, des entités ou encore des événements réels.
- Il existe une différence entre les « digital replicas », les répliques digitales d’une personne et les digital forgeries, les contrefaçons digitales.
- En 2023, 98% des vidéos manipulées et accessibles en ligne étaient de nature sexuelle et la plupart ciblaient des femmes.
- La Commission européenne souhaite contraindre les plateformes en ligne et les fournisseurs d'IA générative avec des labellisations.
- En France, le contenu généré par l'IA est sanctionné si la personne représentée n’a pas donné son consentement, ou si l’aspect parodique n’apparait pas instantanément.
Les appareils juridiques ont dû s’emparer des deepfakes, phénomène croissant pouvant toucher à la fois les individus et la cohésion d’une société. Comment sont-ils définis par le droit européen ?
Célia Zolynski. Les deepfakes sont des contenus générés par l’intelligence artificielle capables de brouiller la frontière entre vrai et faux. Ils font l’objet d’une réflexion au niveau de l’Union européenne. Pour reprendre les termes du règlement sur l’intelligence artificielle (AI Act ou RIA), publié en juillet 2024, un deepfake est défini comme une image, un contenu audio (aussi nommé : fake voices) – un clonage vocal, qui consiste à reproduire des voix de façon réaliste grâce à l’intelligence artificielle – ou vidéo manipulé par l’IA, et qui présente une ressemblance avec des personnes, des objets, des lieux, des entités ou encore des événements réels. Ces contenus peuvent être perçus, à tort, comme authentiques ou véridiques. En adoptant un spectre aussi large, l’objectif pour l’Union européenne est d’éviter toute mécanique de manipulation de l’opinion et d’encadrer les cas problématiques derrière la déformation de l’image d’un individu.
Toujours d’un point de vue juridique, il existe une différence entre les digital replicas, qui englobent les prolongements de la personne (le prolongement de la voix d’un artiste, la modification de son image) et les digital forgery, à traduire comme « contrefaçon digitale ». Cette dernière catégorie vise la représentation intime des personnes, et englobe, par exemple, les deepfakes à caractère sexuel non consenti. Ces digital forgery sont réalisées pour porter atteinte à un individu en particulier et se poursuivent dans de nombreux cas avec du harcèlement ou du chantage sexuel (« sextorsion »). L’auteur de la pratique hameçonne l’utilisateur sur un chat en ligne sous l’apparence d’un faux compte. Il établit un lien de confiance afin de recevoir un premier contenu à caractère intime. Une fois ce contenu obtenu, il peut entrer dans une phase de chantage, en demandant une somme d’argent ou de nouveaux contenus. Dans certains cas, la finalité est d’ordre criminel ou pédocriminel.
Quels sont les principaux dangers ? Qui sont les personnes les plus vulnérables face aux deepfakes ?
Au niveau des individus, en 2023, 96%1 des vidéos manipulées et accessibles en ligne étaient de nature sexuelle et ciblaient principalement des femmes. Entre 2022 et 2023, le nombre de ces deepfakes à caractère sexuel aurait connu une forte augmentation (+464%) selon l’entreprise Home Security Heroes 2. Ce constat montre combien la question des deepfakes dépasse le simple enjeu technologique. Le droit des femmes, la protection de leur image et de leur position dans l’espace public sont menacés. Par ailleurs, de nombreux cas concernaient des politiques ou des journalistes. Les différentes études réalisées autour des impacts des deepfakes le confirment, toutes mettent en évidence le risque de faire taire la parole des femmes au moyen de ces pratiques numériques.

À l’échelle des sociétés, ces manipulations ont aussi des conséquences sur les équilibres démocratiques en augmentant le risque de désinformation. Par exemple, 2024 a été l’année qui, historiquement, a connu le plus grand nombre d’élections à l’échelle mondiale avec 76 scrutins nationaux (élections législatives ou présidentielles) ayant eu lieu. En même temps, les usages de l’IA générative étaient en plein essor, laissant ainsi craindre l’utilisation massive des deepfakes dans les stratégies de désinformation. Par exemple, en Allemagne, lors de la campagne pour les élections législatives de 2025, de fausses informations visant à déstabiliser l’opinion publique ont circulé sur les réseaux sociaux. Parmi elles, figuraient des rumeurs prétendant la légalisation de la pédophilie ou encore l’arrivée de 1,9 million de travailleurs kenyans. Selon les autorités allemandes, ces rumeurs pourraient provenir des réseaux d’ingérence reliés à la Russie.
Afin de limiter le détournement de contenu, quel cadre juridique a été élaboré au sein de l’UE ? Est-il suffisant ?
Pour limiter le phénomène, des instruments juridiques existent, avec en premier lieu, le règlement sur l’IA proposé par l’Union européenne. Le texte saisit les deepfakes à plusieurs niveaux. Par principe, ils ne sont pas interdits. L’usage des technologies comme nouvel outil exploité dans un cadre culturel, artistique ou scientifique est tout à fait légal. En revanche, le règlement interdit certaines pratiques jugées trop attentatoires aux droits et aux libertés fondamentales des personnes, ceux qui intègrent la catégorie des IA à risques inacceptables (article 5). Il s’agit notamment des deepfakes à caractère sexuel non consenti visant les femmes ou des enfants prépubères en situation sexuelle explicite.
Pour les contenus susceptibles de menacer les processus démocratiques, ils sont rattachés à une autre catégorie, celles des hauts risques. La Commission européenne œuvre pour contraindre les plateformes en ligne, et tous les fournisseurs d’IA générative, à mettre des outils en place pour en limiter la production puis la diffusion. Toujours en phase de négociation avec les acteurs du secteur numérique pour définir un code de bonnes pratiques, l’obligation d’identifier et de labelliser les deepfakes devrait entrer en vigueur dès l’été 2026. En d’autres termes, il faut apposer un label sur l’image ou la vidéo générée qui ne puisse pas en être dissocié. Reste à savoir sous quelle forme la mention doit apparaitre pour être bien accueillie par le public et si cette mesure sera réellement suffisante pour limiter les cas de manipulation.
En France, le contenu généré par l’IA est sanctionné si la personne représentée n’a pas donné son consentement, ou si l’aspect parodique n’apparait pas instantanément. Les deepfakes à caractère sexuel sont automatiquement punis dès lors que la personne n’a pas consenti à la diffusion. Les peines peuvent aller jusqu’à de l’emprisonnement. Un grand nombre de pays ont mis à jour leur législation avec des sanctions dès qu’un préjudicie survient. Par exemple, les États-Unis ont adopté le « Take it down act » en mai 2025, instaurant des sanctions particulières lorsque des enfants sont visés ou dans des cas de sextorsion. Au niveau international, plusieurs travaux de l’Unesco ont mis en lumière les dangers criminels et les atteintes au droit et à l’image de la femme notamment.
Les forces de l’ordre éprouvent parfois des difficultés à enquêter sur ces affaires, en raison de la masse considérable de contenus dans l’espace numérique et des moyens souvent limités. Il est d’autant plus nécessaire de sensibiliser en amont les publics concernés. Le sujet des deepfakes pédocriminels est crucial – par son importance sociale, mais aussi par son volume. Les campagnes de sensibilisation sont insuffisantes, pourtant, elles sont indispensables pour prémunir, aider et éviter l’isolement chez les enfants.

