Accueil / Chroniques / Des avatars virtuels nous survivront-ils ?
The ghost in your computer is watching you, malware invading your system
π Numérique π Société

Des avatars virtuels nous survivront-ils ?

Laurence Devilliers
Laurence Devillers
professeure en Intelligence Artificielle à Sorbonne Université
En bref
  • Avec les progrès récents de l’IA, la sauvegarde numérique des morts franchit une nouvelle étape.
  • Des entreprises permettent « l’immortalité virtuelle » en proposant des deadbots qui offrent la possibilité de discuter artificiellement avec un défunt.
  • Ces doubles virtuels génèrent du contenu grâce à des IA génératives alimentées avec tout type de données créées par la personne avant son décès : enregistrements, messages, anecdotes…
  • Malgré les progrès de l’IA, ces représentations imparfaites inquiètent certains professionnels sur des risques d’anthropomorphisme, d’attachement à la machine ou d’isolement.
  • Il est nécessaire d’éduquer les utilisateurs aux risques et enjeux de ces outils, ainsi que de réfléchir à la question des droits sur les données pour encadrer ces pratiques.

Que devi­en­nent les don­nées numériques d’une per­son­ne après sa mort ? Une grande par­tie lui survit dans l’espace numérique, comme les pro­fils créés sur des sites inter­net ou des réseaux soci­aux. Cela donne lieu à une util­i­sa­tion mémorielle du web, à l’image des pages Face­book. Depuis des années, la plate­forme pro­pose, en effet, de trans­former le compte d’une per­son­ne décédée en page com­mé­mora­tive, per­me­t­tant ain­si de s’y recueil­lir, d’y laiss­er des mes­sages, des pho­tos, etc. Aujourd’hui, la sauve­g­arde numérique des morts fran­chit une nou­velle étape avec l’intelligence arti­fi­cielle. De nom­breuses entre­pris­es pro­posent désor­mais de trans­former l’héritage numérique d’un indi­vidu en avatar virtuel ou « dead­bot », qui per­me­t­trait d’échanger avec des proches dis­parus, promet­tant ain­si une cer­taine immor­tal­ité virtuelle. 

Cet arti­cle a été pub­lié en exclu­siv­ité dans notre mag­a­zine Le 3,14 sur la mort.
Décou­vrez-le ici.

Déjà en 2017, Microsoft avait déposé un brevet, obtenu qua­tre ans plus tard, pour la créa­tion d’un agent con­ver­sa­tion­nel à par­tir des don­nées d’une per­son­ne. Il s’agissait donc de met­tre au point un dou­ble virtuel pour faire « revivre » les per­son­nes décédées. « De tout temps, on a voulu être invin­ci­ble, immor­tel. Ça fait par­tie de nos mythes fon­da­teurs, per­son­ne n’a envie de mourir. Puis un avatar virtuel du défunt, chat­bot ou robot, par per­son­ne, économique­ment, c’est intéres­sant », explique la chercheuse et pro­fesseure en IA, Lau­rence Devillers.

Depuis, une véri­ta­ble économie s’est mise en marche. En 2018, James Vla­hos entraî­nait un chat­bot pour qu’il par­le à la manière de son père, décédé d’un can­cer. Ce jour­nal­iste améri­cain avait accu­mulé les don­nées, inter­rogé son père et enreg­istré sa voix. James Vla­hos a ensuite cofondé la plate­forme Here­After AI, décrite comme une « appli­ca­tion de mémoire inter­ac­tive ». L’objectif est de col­lecter les his­toires, sou­venirs, et enreg­istrements d’une per­son­ne de son vivant pour s’entretenir avec virtuelle­ment, après son décès, à tra­vers un chat­bot. De nom­breuses star­tups pro­posent ain­si de créer des dou­bles numériques qui sur­vivent à la mort. Deep­brain AI pro­pose un ser­vice nom­mé Re;memory. Pour 10 000 dol­lars, on crée un avatar virtuel repro­duisant les vis­ages, les voix, les expres­sions de la per­son­ne décédée, que les proches peu­vent venir voir dans un stu­dio. Som­ni­um Space veut aller encore plus loin, en créant un métavers dans lequel les util­isa­teurs peu­vent se plonger pour aller à la ren­con­tre des per­son­nes décédées.

Créer un avatar virtuel à partir de milliards de données

Ces tech­nolo­gies sont per­mis­es par une avancée rapi­de des sys­tèmes d’IA généra­tive. Les agents con­ver­sa­tion­nels, qui détectent de la parole, qui font des inter­pré­ta­tions séman­tiques et qui enclenchent des répons­es selon ce qui a été détec­té, sont com­muns sur inter­net. Ces « dead­bots » sont basés sur des mil­liards de don­nées, pour génér­er des phras­es et répon­dre comme si une per­son­ne dia­loguait. On utilise ain­si les enreg­istrements vocaux d’une per­son­ne, les e‑mails et tex­tos qu’elle a pu écrire, ses témoignages et son his­toire pour créer un chat­bot, une sorte d’avatar virtuel. « La machine apprend les régu­lar­ités dans les don­nées exis­tantes du défunt. Les IA généra­tives per­me­t­tent de modélis­er d’immenses cor­pus qui peu­vent être ensuite adap­tés à une per­son­ne et à une voix. L’IA va chercher dans ce grand mod­èle des infor­ma­tions en lien avec le thème évo­qué par l’utilisateur. L’IA pro­duit ain­si des paroles que la per­son­ne décédée n’aurait peut-être jamais énon­cées », détaille Lau­rence Devillers.

Ces algo­rithmes vont don­ner l’illusion de dis­cuter avec une per­son­ne décédée. Mais la spé­cial­iste de l’IA insiste sur le fait qu’il s’agit bien d’une illu­sion. Les start-ups pro­posant ces ser­vices présen­tent une sorte d’immortalité, ou de pro­lon­ga­tion de la mémoire d’une per­son­ne décédée, en repro­duisant sa voix, sa manière de par­ler, son apparence. Cepen­dant, ces « dead­bots » res­teront des représen­ta­tions impar­faites des indi­vidus. « Dans l’état actuel de la tech­nolo­gie, on peut arriv­er à un stade assez élevé d’imitation, de ressem­blance, sans doute dans la voix, peut-être dans le vocab­u­laire, mais ce ne sera pas par­fait. Il y aura des hal­lu­ci­na­tions, la machine va for­cé­ment faire des erreurs et inven­ter des pro­pos », prévient la chercheuse.

Ce n’est pas for­cé­ment négatif ou posi­tif, mais je pense qu’en tant que société, nous ne sommes pas encore prêts

La machine fonc­tionne, en effet, comme une moulinette sta­tis­tique. L’IA crée des puz­zles à par­tir des mots pronon­cés par la per­son­ne. Quand il n’y a pas de don­nées, elle peut regarder des don­nées proches et faire émerg­er des pro­pos qui ne sont pas for­cé­ment ce que la per­son­ne aurait dit. Par ailleurs, l’IA ne s’adaptera pas au fil du temps et des con­ver­sa­tions avec l’utilisateur. « Le cœur du modèle est très riche de dif­férents con­textes, donc on a l’impres­sion que la machine va plus ou moins s’adapter à nous, quand on pose une ques­tion. En réal­ité, elle prend un his­torique de ce qu’on a dit au fur et à mesure, l’enrichit avec ses répons­es et les ques­tions qu’on a posées. C’est de plus en plus précis. On pour­ra peut-être demain avoir des objets qui vont s’adapter à nous, mais ce n’est pas le cas aujourdhui », indique Lau­rence Devillers.

Des risques importants pour les utilisateurs

Il ne s’agit donc pas réelle­ment d’immortalité, mais ces « dead­bots » sem­blent plutôt être des façons de faire vivre des sou­venirs, que l’on peut venir con­sul­ter, et avec lesquels on peut inter­a­gir. Les con­cep­teurs de ces tech­nolo­gies affir­ment que cela peut, non seule­ment aider à en savoir plus sur nos ancêtres, mais aus­si à faire notre deuil. Or, il n’est pas si cer­tain que ces out­ils soient entière­ment béné­fiques pour leurs util­isa­teurs. Dans son rap­port de 2021, co-rédigé par Lau­rence Dev­illers, le Comité nation­al pilote d’éthique du numérique (CNPEN), pointait déjà les risques des chat­bots clas­siques, tels que ceux util­isés sur des sites inter­net marchands. Quand les util­isa­teurs n’ont pas réelle­ment con­science qu’ils s’entretiennent avec des robots, il y a un risque d’anthropomorphisme ou bien d’attachement à la machine. Pour Lau­rence Dev­illers, ce dan­ger pour­rait être ampli­fié si le chat­bot reprend les anec­dotes, les expres­sions, la voix ou le vis­age d’une per­son­ne proche défunte. « Cela pour­rait ral­longer le proces­sus de deuil et faire per­dur­er le manque, la souf­france, parce que l’objet est là. Cela floute le rap­port à la machine. Et on ne peut plus les étein­dre, car elles représen­tent quelqu’un qu’on aime », craint-elle.

Le risque est d’autant plus grand que la machine n’a pas vrai­ment de raison­nement ou de morale. Ain­si, pour les dead­bots, le rap­port pointe un pos­si­ble « effet de ‘val­lée de l’étrange’ pour l’interlocuteur : soit le chat­bot profère des pro­pos offen­sants, soit, après une séquence de répliques famil­ières, il débite une phrase totale­ment dif­férente de ce qu’aurait pu dire la per­son­ne imitée ». Cet effet pour­rait induire un « change­ment psy­chologique rapi­de et douloureux », craig­nent les auteurs. Lau­rence Dev­illers évoque égale­ment une pos­si­bil­ité d’addiction à ces plate­formes, avec un risque de retranche­ment indi­vidu­el et d’isolement.

La nécessité d’une réflexion collective sur ces outils

Au-delà des inquié­tudes sur les effets psy­chologiques qu’auraient ces tech­nolo­gies sur les util­isa­teurs, se pose la ques­tion des don­nées. En effet, pour arriv­er à créer ces avatars virtuels, les sys­tèmes d’IA ont besoin d’énormément de don­nées provenant des défunts. Pour l’instant, la loi pour une République numérique de 2016 prévoit la pos­si­bil­ité de don­ner des direc­tives sur la con­ser­va­tion, l’effacement ou la com­mu­ni­ca­tion de ses don­nées, et de désign­er un autre indi­vidu pour les exé­cuter. Mais si ces dead­bots se mul­ti­plient, le recueil, la con­ser­va­tion et l’utilisation des don­nées des défunts posent des ques­tions : est-ce que les enfants peu­vent avoir des droits sur les don­nées ? L’avatar et ses don­nées ont-ils une date lim­ite d’existence ? Lau­rence Dev­illers explique que dans les plate­formes exis­tantes, il s’agit d’un con­trat entre l’industriel et l’utilisateur, et qu’il revient, pour l’instant, à ce dernier de véri­fi­er le futur de ses don­nées personnelles.

Le marché des dead­bots en est à ses débuts, et il n’est pas encore sûr que les util­isa­teurs s’emparent mas­sive­ment, au quo­ti­di­en de ces out­ils. Cepen­dant, les ser­vices d’avatars virtuels se mul­ti­plient ces dernières années. Avec le développe­ment des objets con­nec­tés, ces robots con­ver­sa­tion­nels pour­raient pren­dre de la place dans nos vies. Pour Lau­rence Dev­illers, il faudrait organ­is­er une réflex­ion col­lec­tive sur ces out­ils. « Ce n’est pas for­cé­ment négatif ou posi­tif, mais je pense qu’en tant que société, nous ne sommes pas encore prêts », affirme-t-elle. Il s’agirait ain­si d’éduquer les util­isa­teurs, pour com­pren­dre les enjeux et les risques de ce monde arti­fi­ciel. Lau­rence Dev­illers plaide égale­ment pour la créa­tion d’un comité étab­lis­sant des règles afin d’encadrer ces pra­tiques. « Tout ça a une inci­dence sur la société et il est donc urgent quon y réfléchisse réelle­ment, au lieu de laiss­er quelques indus­triels décider », con­clut la professeure. 

Sirine Azouaoui

Référence :
Rap­port du Comité nation­al pilote d’éthique du numérique sur les agents con­ver­sa­tion­nels, 2021

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter