Accueil / Chroniques / Le fléau des manipulations :  comment lutter contre les deepfakes ?
Deepfake Ban and Regulating DeepFakes for Image Recognition Technology
Généré par l'IA / Generated using AI
π Numérique π Société

Le fléau des manipulations :  comment lutter contre les deepfakes ?

Célia Zolynski_VF
Célia Zolynski
professeure agrégée de droit privé à l’Université Paris 1 Panthéon-Sorbonne
En bref
  • D’après l’IA ACT, un deepfake est défini comme une image, un contenu audio ou vidéo manipulé par l'IA, et qui présente une ressemblance avec des personnes, des objets, des lieux, des entités ou encore des événements réels.
  • Il existe une différence entre les « digital replicas », les répliques digitales d’une personne et les digital forgeries, les contrefaçons digitales.
  • En 2023, 98% des vidéos manipulées et accessibles en ligne étaient de nature sexuelle et la plupart ciblaient des femmes.
  • La Commission européenne souhaite contraindre les plateformes en ligne et les fournisseurs d'IA générative avec des labellisations.
  • En France, le contenu généré par l'IA est sanctionné si la personne représentée n’a pas donné son consentement, ou si l’aspect parodique n’apparait pas instantanément.

Les appareils juridiques ont dû s’emparer des deepfakes, phénomène croissant pouvant toucher à la fois les individus et la cohésion d’une société. Comment sont-ils définis par le droit européen ?

Célia Zolyns­ki. Les deep­fakes sont des conte­nus géné­rés par l’intelligence arti­fi­cielle capables de brouiller la fron­tière entre vrai et faux. Ils font l’objet d’une réflexion au niveau de l’Union euro­péenne. Pour reprendre les termes du règle­ment sur l’in­tel­li­gence arti­fi­cielle (AI Act ou RIA), publié en juillet 2024, un deep­fake est défi­ni comme une image, un conte­nu audio (aus­si nom­mé :  fake voices) – un clo­nage vocal, qui consiste à repro­duire des voix de façon réa­liste grâce à l’intelligence arti­fi­cielle – ou vidéo mani­pu­lé par l’IA, et qui pré­sente une res­sem­blance avec des per­sonnes, des objets, des lieux, des enti­tés ou encore des évé­ne­ments réels. Ces conte­nus peuvent être per­çus, à tort, comme authen­tiques ou véri­diques. En adop­tant un spectre aus­si large, l’objectif pour l’Union euro­péenne est d’éviter toute méca­nique de mani­pu­la­tion de l’o­pi­nion et d’encadrer les cas pro­blé­ma­tiques der­rière la défor­ma­tion de l’image d’un individu.

Tou­jours d’un point de vue juri­dique, il existe une dif­fé­rence entre les digi­tal repli­cas, qui englobent les pro­lon­ge­ments de la per­sonne (le pro­lon­ge­ment de la voix d’un artiste, la modi­fi­ca­tion de son image) et les digi­tal for­ge­ry, à tra­duire comme « contre­fa­çon digi­tale ». Cette der­nière caté­go­rie vise la repré­sen­ta­tion intime des per­sonnes, et englobe, par exemple, les deep­fakes à carac­tère sexuel non consen­ti. Ces digi­tal for­ge­ry sont réa­li­sées pour por­ter atteinte à un indi­vi­du en par­ti­cu­lier et se pour­suivent dans de nom­breux cas avec du har­cè­le­ment ou du chan­tage sexuel (« sex­tor­sion »). L’au­teur de la pra­tique hame­çonne l’u­ti­li­sa­teur sur un chat en ligne sous l’ap­pa­rence d’un faux compte. Il éta­blit un lien de confiance afin de rece­voir un pre­mier conte­nu à carac­tère intime. Une fois ce conte­nu obte­nu, il peut entrer dans une phase de chan­tage, en deman­dant une somme d’argent ou de nou­veaux conte­nus. Dans cer­tains cas, la fina­li­té est d’ordre cri­mi­nel ou pédocriminel.

Quels sont les principaux dangers ? Qui sont les personnes les plus vulnérables face aux deepfakes ?

Au niveau des indi­vi­dus, en 2023, 96%1 des vidéos mani­pu­lées et acces­sibles en ligne étaient de nature sexuelle  et ciblaient prin­ci­pa­le­ment des femmes. Entre 2022 et 2023, le nombre de ces deep­fakes à carac­tère sexuel aurait connu une forte aug­men­ta­tion (+464%) selon l’entreprise Home Secu­ri­ty Heroes 2.  Ce constat montre com­bien la ques­tion des deep­fakes dépasse le simple enjeu tech­no­lo­gique. Le droit des femmes, la pro­tec­tion de leur image et de leur posi­tion dans l’es­pace public sont mena­cés. Par ailleurs, de nom­breux cas concer­naient des poli­tiques ou des jour­na­listes. Les dif­fé­rentes études réa­li­sées autour des impacts des deep­fakes le confirment, toutes mettent en évi­dence le risque de faire taire la parole des femmes au moyen de ces pra­tiques numériques. 

À l’échelle des socié­tés, ces mani­pu­la­tions ont aus­si des consé­quences sur les équi­libres démo­cra­tiques en aug­men­tant le risque de dés­in­for­ma­tion. Par exemple, 2024 a été l’an­née qui, his­to­ri­que­ment, a connu le plus grand nombre d’é­lec­tions à l’é­chelle mon­diale avec 76 scru­tins natio­naux (élec­tions légis­la­tives ou pré­si­den­tielles) ayant eu lieu. En même temps, les usages de l’IA géné­ra­tive étaient en plein essor, lais­sant ain­si craindre l’u­ti­li­sa­tion mas­sive des deep­fakes dans les stra­té­gies de dés­in­for­ma­tion. Par exemple, en Alle­magne, lors de la cam­pagne pour les élec­tions légis­la­tives de 2025, de fausses infor­ma­tions visant à désta­bi­li­ser l’opinion publique ont cir­cu­lé sur les réseaux sociaux. Par­mi elles, figu­raient des rumeurs pré­ten­dant la léga­li­sa­tion de la pédo­phi­lie ou encore l’arrivée de 1,9 mil­lion de tra­vailleurs kenyans. Selon les auto­ri­tés alle­mandes, ces rumeurs pour­raient pro­ve­nir des réseaux d’ingérence reliés à la Russie.

Afin de limiter le détournement de contenu, quel cadre juridique a été élaboré au sein de l’UE ? Est-il suffisant ? 

Pour limi­ter le phé­no­mène, des ins­tru­ments juri­diques existent, avec en pre­mier lieu, le règle­ment sur l’IA pro­po­sé par l’Union euro­péenne. Le texte sai­sit les deep­fakes à plu­sieurs niveaux. Par prin­cipe, ils ne sont pas inter­dits. L’usage des tech­no­lo­gies comme nou­vel outil exploi­té dans un cadre cultu­rel, artis­tique ou scien­ti­fique est tout à fait légal. En revanche, le règle­ment inter­dit cer­taines pra­tiques jugées trop atten­ta­toires aux droits et aux liber­tés fon­da­men­tales des per­sonnes, ceux qui intègrent la caté­go­rie des IA à risques inac­cep­tables (article 5). Il s’agit notam­ment des deep­fakes à carac­tère sexuel non consen­ti visant les femmes ou des enfants pré­pu­bères en situa­tion sexuelle explicite. 

Pour les conte­nus sus­cep­tibles de mena­cer les pro­ces­sus démo­cra­tiques, ils sont rat­ta­chés à une autre caté­go­rie, celles des hauts risques. La Com­mis­sion euro­péenne œuvre pour contraindre les pla­te­formes en ligne, et tous les four­nis­seurs d’IA géné­ra­tive, à mettre des outils en place pour en limi­ter la pro­duc­tion puis la dif­fu­sion. Tou­jours en phase de négo­cia­tion avec les acteurs du sec­teur numé­rique pour défi­nir un code de bonnes pra­tiques, l’obligation d’identifier et de label­li­ser les deep­fakes devrait entrer en vigueur dès l’été 2026. En d’autres termes, il faut appo­ser un label sur l’image ou la vidéo géné­rée qui ne puisse pas en être dis­so­cié. Reste à savoir sous quelle forme la men­tion doit appa­raitre pour être bien accueillie par le public et si cette mesure sera réel­le­ment suf­fi­sante pour limi­ter les cas de manipulation.

En France, le conte­nu géné­ré par l’IA est sanc­tion­né si la per­sonne repré­sen­tée n’a pas don­né son consen­te­ment, ou si l’aspect paro­dique n’apparait pas ins­tan­ta­né­ment. Les deep­fakes à carac­tère sexuel sont auto­ma­ti­que­ment punis dès lors que la per­sonne n’a pas consen­ti à la dif­fu­sion. Les peines peuvent aller jus­qu’à de l’emprisonnement. Un grand nombre de pays ont mis à jour leur légis­la­tion avec des sanc­tions dès qu’un pré­ju­di­cie sur­vient. Par exemple, les États-Unis ont adop­té le « Take it down act »  en mai 2025, ins­tau­rant des sanc­tions par­ti­cu­lières lorsque des enfants sont visés ou dans des cas de sex­tor­sion. Au niveau inter­na­tio­nal, plu­sieurs tra­vaux de l’U­nes­co ont mis en lumière les dan­gers cri­mi­nels et les atteintes au droit et à l’i­mage de la femme notamment.

Les forces de l’ordre éprouvent par­fois des dif­fi­cul­tés à enquê­ter sur ces affaires, en rai­son de la masse consi­dé­rable de conte­nus dans l’espace numé­rique et des moyens sou­vent limi­tés. Il est d’autant plus néces­saire de sen­si­bi­li­ser en amont les publics concer­nés.  Le sujet des deep­fakes pédo­cri­mi­nels est cru­cial – par son impor­tance sociale, mais aus­si par son volume. Les cam­pagnes de sen­si­bi­li­sa­tion sont insuf­fi­santes, pour­tant, elles sont indis­pen­sables pour pré­mu­nir, aider et évi­ter l’isolement chez les enfants. 

Propos recueillis par Alicia Piveteau
1State of Deep­fakes 2023, https://​reg​me​dia​.co​.uk/​2​0​1​9​/​1​0​/​0​8​/​d​e​e​p​f​a​k​e​_​r​e​p​o​r​t.pdf
2https://​www​.secu​ri​ty​he​ro​.io/​s​t​a​t​e​-​o​f​-​d​e​e​p​f​a​k​e​s​/​a​s​s​e​t​s​/​p​d​f​/​s​t​a​t​e​-​o​f​-​d​e​e​p​f​a​k​e​-​i​n​f​o​g​r​a​p​h​i​c​-​2​0​2​3​.​p​d​f​?​u​t​m​_​s​o​u​r​c​e​=​c​h​a​t​g​p​t.com

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don