Accueil / Chroniques / Des avatars virtuels nous survivront-ils ?
The ghost in your computer is watching you, malware invading your system
π Numérique π Société

Des avatars virtuels nous survivront-ils ?

Laurence Devilliers
Laurence Devillers
professeure en Intelligence Artificielle à Sorbonne Université
En bref
  • Avec les progrès récents de l’IA, la sauvegarde numérique des morts franchit une nouvelle étape.
  • Des entreprises permettent « l’immortalité virtuelle » en proposant des deadbots qui offrent la possibilité de discuter artificiellement avec un défunt.
  • Ces doubles virtuels génèrent du contenu grâce à des IA génératives alimentées avec tout type de données créées par la personne avant son décès : enregistrements, messages, anecdotes…
  • Malgré les progrès de l’IA, ces représentations imparfaites inquiètent certains professionnels sur des risques d’anthropomorphisme, d’attachement à la machine ou d’isolement.
  • Il est nécessaire d’éduquer les utilisateurs aux risques et enjeux de ces outils, ainsi que de réfléchir à la question des droits sur les données pour encadrer ces pratiques.

Que deviennent les don­nées numé­riques d’une per­sonne après sa mort ? Une grande par­tie lui sur­vit dans l’espace numé­rique, comme les pro­fils créés sur des sites inter­net ou des réseaux sociaux. Cela donne lieu à une uti­li­sa­tion mémo­rielle du web, à l’image des pages Face­book. Depuis des années, la pla­te­forme pro­pose, en effet, de trans­for­mer le compte d’une per­sonne décé­dée en page com­mé­mo­ra­tive, per­met­tant ain­si de s’y recueillir, d’y lais­ser des mes­sages, des pho­tos, etc. Aujourd’hui, la sau­ve­garde numé­rique des morts fran­chit une nou­velle étape avec l’intelligence arti­fi­cielle. De nom­breuses entre­prises pro­posent désor­mais de trans­for­mer l’héritage numé­rique d’un indi­vi­du en ava­tar vir­tuel ou « dead­bot », qui per­met­trait d’échanger avec des proches dis­pa­rus, pro­met­tant ain­si une cer­taine immor­ta­li­té virtuelle. 

Cet article a été publié dans notre maga­zine Le 3,14 sur la mort. Décou­vrez-le ici.

Déjà en 2017, Micro­soft avait dépo­sé un bre­vet, obte­nu quatre ans plus tard, pour la créa­tion d’un agent conver­sa­tion­nel à par­tir des don­nées d’une per­sonne. Il s’agissait donc de mettre au point un double vir­tuel pour faire « revivre » les per­sonnes décé­dées. « De tout temps, on a vou­lu être invin­cible, immor­tel. Ça fait par­tie de nos mythes fon­da­teurs, per­sonne n’a envie de mou­rir. Puis un ava­tar vir­tuel du défunt, chat­bot ou robot, par per­sonne, éco­no­mi­que­ment, c’est inté­res­sant », explique la cher­cheuse et pro­fes­seure en IA, Lau­rence Devillers.

Depuis, une véri­table éco­no­mie s’est mise en marche. En 2018, James Vla­hos entraî­nait un chat­bot pour qu’il parle à la manière de son père, décé­dé d’un can­cer. Ce jour­na­liste amé­ri­cain avait accu­mu­lé les don­nées, inter­ro­gé son père et enre­gis­tré sa voix. James Vla­hos a ensuite cofon­dé la pla­te­forme HereAf­ter AI, décrite comme une « appli­ca­tion de mémoire inter­ac­tive ». L’objectif est de col­lec­ter les his­toires, sou­ve­nirs, et enre­gis­tre­ments d’une per­sonne de son vivant pour s’entretenir avec vir­tuel­le­ment, après son décès, à tra­vers un chat­bot. De nom­breuses star­tups pro­posent ain­si de créer des doubles numé­riques qui sur­vivent à la mort. Deep­brain AI pro­pose un ser­vice nom­mé Re;memory. Pour 10 000 dol­lars, on crée un ava­tar vir­tuel repro­dui­sant les visages, les voix, les expres­sions de la per­sonne décé­dée, que les proches peuvent venir voir dans un stu­dio. Som­nium Space veut aller encore plus loin, en créant un méta­vers dans lequel les uti­li­sa­teurs peuvent se plon­ger pour aller à la ren­contre des per­sonnes décédées.

Créer un avatar virtuel à partir de milliards de données

Ces tech­no­lo­gies sont per­mises par une avan­cée rapide des sys­tèmes d’IA géné­ra­tive. Les agents conver­sa­tion­nels, qui détectent de la parole, qui font des inter­pré­ta­tions séman­tiques et qui enclenchent des réponses selon ce qui a été détec­té, sont com­muns sur inter­net. Ces « dead­bots » sont basés sur des mil­liards de don­nées, pour géné­rer des phrases et répondre comme si une per­sonne dia­lo­guait. On uti­lise ain­si les enre­gis­tre­ments vocaux d’une per­sonne, les e‑mails et tex­tos qu’elle a pu écrire, ses témoi­gnages et son his­toire pour créer un chat­bot, une sorte d’avatar vir­tuel. « La machine apprend les régu­la­ri­tés dans les don­nées exis­tantes du défunt. Les IA géné­ra­tives per­mettent de modéli­ser d’immenses cor­pus qui peuvent être ensuite adap­tés à une per­sonne et à une voix. L’IA va cher­cher dans ce grand modèle des infor­ma­tions en lien avec le thème évo­qué par l’utilisateur. L’IA pro­duit ain­si des paroles que la per­sonne décé­dée n’aurait peut-être jamais énon­cées », détaille Lau­rence Devillers.

Ces algo­rithmes vont don­ner l’illusion de dis­cu­ter avec une per­sonne décé­dée. Mais la spé­cia­liste de l’IA insiste sur le fait qu’il s’agit bien d’une illu­sion. Les start-ups pro­po­sant ces ser­vices pré­sentent une sorte d’immortalité, ou de pro­lon­ga­tion de la mémoire d’une per­sonne décé­dée, en repro­dui­sant sa voix, sa manière de par­ler, son appa­rence. Cepen­dant, ces « dead­bots » res­te­ront des repré­sen­ta­tions impar­faites des indi­vi­dus. « Dans l’état actuel de la tech­no­lo­gie, on peut arri­ver à un stade assez éle­vé d’imitation, de res­sem­blance, sans doute dans la voix, peut-être dans le voca­bu­laire, mais ce ne sera pas par­fait. Il y aura des hal­lu­ci­na­tions, la machine va for­cé­ment faire des erreurs et inven­ter des pro­pos », pré­vient la chercheuse.

Ce n’est pas for­cé­ment néga­tif ou posi­tif, mais je pense qu’en tant que socié­té, nous ne sommes pas encore prêts

La machine fonc­tionne, en effet, comme une mou­li­nette sta­tis­tique. L’IA crée des puzzles à par­tir des mots pro­non­cés par la per­sonne. Quand il n’y a pas de don­nées, elle peut regar­der des don­nées proches et faire émer­ger des pro­pos qui ne sont pas for­cé­ment ce que la per­sonne aurait dit. Par ailleurs, l’IA ne s’adaptera pas au fil du temps et des conver­sa­tions avec l’utilisateur. « Le cœur du modèle est très riche de dif­fé­rents contextes, donc on a l’impres­sion que la machine va plus ou moins s’adap­ter à nous, quand on pose une ques­tion. En réa­li­té, elle prend un his­to­rique de ce qu’on a dit au fur et à mesure, l’enrichit avec ses réponses et les ques­tions qu’on a posées. C’est de plus en plus précis. On pour­ra peut-être demain avoir des objets qui vont s’adap­ter à nous, mais ce n’est pas le cas aujourdhui », indique Lau­rence Devillers.

Des risques importants pour les utilisateurs

Il ne s’agit donc pas réel­le­ment d’immortalité, mais ces « dead­bots » semblent plu­tôt être des façons de faire vivre des sou­ve­nirs, que l’on peut venir consul­ter, et avec les­quels on peut inter­agir. Les concep­teurs de ces tech­no­lo­gies affirment que cela peut, non seule­ment aider à en savoir plus sur nos ancêtres, mais aus­si à faire notre deuil. Or, il n’est pas si cer­tain que ces outils soient entiè­re­ment béné­fiques pour leurs uti­li­sa­teurs. Dans son rap­port de 2021, co-rédi­gé par Lau­rence Devil­lers, le Comi­té natio­nal pilote d’é­thique du numé­rique (CNPEN), poin­tait déjà les risques des chat­bots clas­siques, tels que ceux uti­li­sés sur des sites inter­net mar­chands. Quand les uti­li­sa­teurs n’ont pas réel­le­ment conscience qu’ils s’entretiennent avec des robots, il y a un risque d’anthropomorphisme ou bien d’attachement à la machine. Pour Lau­rence Devil­lers, ce dan­ger pour­rait être ampli­fié si le chat­bot reprend les anec­dotes, les expres­sions, la voix ou le visage d’une per­sonne proche défunte. « Cela pour­rait ral­lon­ger le pro­ces­sus de deuil et faire per­du­rer le manque, la souf­france, parce que l’objet est là. Cela floute le rap­port à la machine. Et on ne peut plus les éteindre, car elles repré­sentent quelqu’un qu’on aime », craint-elle.

Le risque est d’autant plus grand que la machine n’a pas vrai­ment de rai­son­ne­ment ou de morale. Ain­si, pour les dead­bots, le rap­port pointe un pos­sible « effet de ‘val­lée de l’étrange’ pour l’interlocuteur : soit le chat­bot pro­fère des pro­pos offen­sants, soit, après une séquence de répliques fami­lières, il débite une phrase tota­le­ment dif­fé­rente de ce qu’aurait pu dire la per­sonne imi­tée ». Cet effet pour­rait induire un « chan­ge­ment psy­cho­lo­gique rapide et dou­lou­reux », craignent les auteurs. Lau­rence Devil­lers évoque éga­le­ment une pos­si­bi­li­té d’addiction à ces pla­te­formes, avec un risque de retran­che­ment indi­vi­duel et d’isolement.

La nécessité d’une réflexion collective sur ces outils

Au-delà des inquié­tudes sur les effets psy­cho­lo­giques qu’auraient ces tech­no­lo­gies sur les uti­li­sa­teurs, se pose la ques­tion des don­nées. En effet, pour arri­ver à créer ces ava­tars vir­tuels, les sys­tèmes d’IA ont besoin d’énormément de don­nées pro­ve­nant des défunts. Pour l’instant, la loi pour une Répu­blique numé­rique de 2016 pré­voit la pos­si­bi­li­té de don­ner des direc­tives sur la conser­va­tion, l’effacement ou la com­mu­ni­ca­tion de ses don­nées, et de dési­gner un autre indi­vi­du pour les exé­cu­ter. Mais si ces dead­bots se mul­ti­plient, le recueil, la conser­va­tion et l’utilisation des don­nées des défunts posent des ques­tions : est-ce que les enfants peuvent avoir des droits sur les don­nées ? L’avatar et ses don­nées ont-ils une date limite d’existence ? Lau­rence Devil­lers explique que dans les pla­te­formes exis­tantes, il s’agit d’un contrat entre l’industriel et l’utilisateur, et qu’il revient, pour l’instant, à ce der­nier de véri­fier le futur de ses don­nées personnelles.

Le mar­ché des dead­bots en est à ses débuts, et il n’est pas encore sûr que les uti­li­sa­teurs s’emparent mas­si­ve­ment, au quo­ti­dien de ces outils. Cepen­dant, les ser­vices d’avatars vir­tuels se mul­ti­plient ces der­nières années. Avec le déve­lop­pe­ment des objets connec­tés, ces robots conver­sa­tion­nels pour­raient prendre de la place dans nos vies. Pour Lau­rence Devil­lers, il fau­drait orga­ni­ser une réflexion col­lec­tive sur ces outils. « Ce n’est pas for­cé­ment néga­tif ou posi­tif, mais je pense qu’en tant que socié­té, nous ne sommes pas encore prêts », affirme-t-elle. Il s’agirait ain­si d’éduquer les uti­li­sa­teurs, pour com­prendre les enjeux et les risques de ce monde arti­fi­ciel. Lau­rence Devil­lers plaide éga­le­ment pour la créa­tion d’un comi­té éta­blis­sant des règles afin d’encadrer ces pra­tiques. « Tout ça a une inci­dence sur la socié­té et il est donc urgent quon y réflé­chisse réel­le­ment, au lieu de lais­ser quelques indus­triels décider », conclut la professeure. 

Sirine Azouaoui

Réfé­rence :
Rap­port du Comi­té natio­nal pilote d’éthique du numé­rique sur les agents conver­sa­tion­nels, 2021

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don