4_facebook
π Numérique π Société
Le développement du numérique : aux dépens de l’humain ?

« Les plateformes maîtrisent mal la manipulation de nos émotions »

Le 8 juin 2021 |
5 min. de lecture
Camille Alloing
Camille Alloing
professeur en relations publiques à l’Université du Québec à Montréal
En bref
  • Le scandale Cambridge Analytica et d’autres affaires ont récemment alerté les citoyens sur la possibilité pour les réseaux sociaux de manipuler leurs émotions et leur vote en jouant sur leurs émotions.
  • Mais pour le chercheur Camille Alloing, les réseaux sociaux surestimeraient sciemment leur capacité de manipulation afin de vendre de l’espace publicitaire.
  • De la même façon, les plateformes telles que Facebook n’hésiteraient pas à mener des expériences psychologiques sur les émotions de centaines de milliers de leurs utilisateurs...
  • … Et ce à leur insu, et en se basant sur une conception caricaturale et inopérante des émotions,  dans l’unique but d’accréditer leur discours sur leur capacité de manipulation.

Sus­citer chez les util­isa­teurs des réseaux soci­aux de la peur ou de l’empathie est aujourd’hui présen­té comme le meilleur moyen de les manip­uler : l’affaire Cam­bridge Ana­lyt­i­ca et le rôle sup­posé de Face­book dans l’élection de Don­ald Trump en seraient la preuve. Pour­tant, Camille Allo­ing, chercheur en sci­ence de l’in­for­ma­tion-com­mu­ni­ca­tion (UQAM), invite à grande­ment rel­a­tivis­er le pou­voir des réseaux soci­aux sur nos émotions.

Pou­vez-vous expli­quer ce qu’est le « cap­i­tal­isme affectif » ?

Il s’agit tout sim­ple­ment de la par­tie du cap­i­tal­isme qui exploite notre capac­ité à nous émou­voir (et à émou­voir les autres) dans le but de génér­er de la valeur. C’est par­ti­c­ulière­ment prég­nant sur les réseaux sociaux.

Il faut cepen­dant s’entendre sur le terme « affect », qui peut désign­er l’ensemble des émo­tions, mais qui est avant tout un con­cept cri­tique pour ques­tion­ner ce qui nous « met en mou­ve­ment », nous amène à réalis­er des actions con­crètes. Quand j’apprécie un con­tenu et que je le « like », je suis affec­té. Con­traire­ment aux émo­tions – qui restent dif­fi­cile­ment analysables tant elles sont sub­jec­tives et incon­scientes –, les con­séquences des affects peu­vent être iden­ti­fiées (on peut con­stater que j’ai pressé le bou­ton « like » après avoir vu une vidéo qui m’a affec­té). On ne peut donc pas savoir si les plate­formes numériques réus­sis­sent réelle­ment à sus­citer des émo­tions chez leurs util­isa­teurs, mais on peut analyser la façon dont elles parvi­en­nent à les affecter. 

Comme la majeure par­tie du chiffre d’affaires des réseaux soci­aux provient de la vente d’espaces pub­lic­i­taires, leur objec­tif est d’accroître le temps passé par leurs util­isa­teurs sur la plate­forme…  et donc le nom­bre de pub­lic­ités vision­nées. Pour cela, les affects sont un atout indé­ni­able : ils per­me­t­tent, en générant de l’empathie, de provo­quer davan­tage de réac­tions, et d’accroître la dif­fu­sion des contenus. 

Mon con­stat est ain­si que les indi­vidus sont aujourd’hui enchâssés dans des struc­tures qui ont le pou­voir de les affecter – et donc de leur faire ressen­tir des émo­tions et de les faire agir – qu’ils ne peu­vent cepen­dant pas affecter en retour. Si je pub­lie du con­tenu, et que j’attends une réponse de mes amis, je suis aliéné parce que cette réponse ne vien­dra que si Face­book choisit (pour des raisons qui m’échappent) de dif­fuser mon post.

Vous dites que « l’affect est un pou­voir »… le pou­voir de manip­uler les indi­vidus grâce à leurs émotions ?

Si je dis­ais qu’affecter une per­son­ne per­me­t­tait effec­tive­ment de la manip­uler, j’irais dans le sens du dis­cours des plate­formes. Face­book a par exem­ple tout intérêt à laiss­er penser que ses algo­rithmes sont capa­bles de con­trôler ses util­isa­teurs, afin de ven­dre de l’espace pub­lic­i­taire. L’affaire Cam­bridge Ana­lyt­i­ca [scan­dale de manip­u­la­tion d’utilisateurs de Face­book afin d’influencer l’élection prési­den­tielle améri­caine de novem­bre 2016 en faveur de Don­ald Trump] a en ce sens été pour eux une pub­lic­ité incroy­able auprès des annon­ceurs, qui y ont vu l’occasion d’accroître dras­tique­ment leurs ventes en manip­u­lant les internautes !

Il faut cepen­dant net­te­ment rel­a­tivis­er la part des réseaux soci­aux dans l’élection de Trump, et se méfi­er des expli­ca­tions sim­plistes. Alors que Face­book se tar­guait d’atteindre 89 % de pré­ci­sion dans son ciblage pub­lic­i­taire, des employés ont révélé en 2019 que la pré­ci­sion moyenne aux États-Unis était en réal­ité deux fois inférieure (41 %, avec des chutes à 9 % selon les caté­gories)1. Certes, leurs algo­rithmes et les fonc­tion­nal­ités de ces plate­formes ont des effets con­crets… mais ils sont bien inférieurs à ce que l’on imagine.

La recherche est faite pour amen­er de la pondéra­tion dans les débats, et les travaux sci­en­tifiques23 mon­trent bien que con­traire­ment à tout ce que l’on peut enten­dre, les plate­formes ne peu­vent pas réelle­ment nous manip­uler. Certes, elles essaient de le faire, mais elles ne maîtrisent ni les ten­ants, ni les aboutis­sants des actions qu’elles met­tent en place. Cela peut d’ailleurs vite devenir dan­gereux, et ce d’autant plus que leur con­cep­tion de la psy­cholo­gie humaine est car­i­cat­u­rale : croire que les gens sont aveuglé­ment soumis à leurs émo­tions et leurs biais cog­ni­tifs est une forme de mépris de classe.

En 2014, Face­book avait ain­si embauché des chercheurs pour réalis­er des tests psy­chologiques visant à manip­uler les émo­tions de 700 000 util­isa­teurs sans leur con­sen­te­ment4. Cette enquête « sci­en­tifique » devait démon­tr­er la capac­ité de la plate­forme à con­trôler les humeurs de ses util­isa­teurs, et con­sis­tait à mod­i­fi­er les fils d’actualité des indi­vidus pour les expos­er à des con­tenus plus négat­ifs (ou posi­tifs). Résul­tat : ils se tar­guaient de pou­voir provo­quer des « con­ta­gions émo­tion­nelles », puisque les per­son­nes se met­taient à leur tour à pub­li­er un con­tenu plus négatif (ou posi­tif, selon ce à quoi elles avaient été exposées). Cepen­dant, et en plus des évi­dents prob­lèmes éthiques, l’expérience était sta­tis­tique­ment incor­recte, et ses con­clu­sions ne tenaient pas… Mais il y a fort à pari­er que la rigueur sci­en­tifique n’était pas leur but pre­mier ! L’objectif était surtout de se faire de la pub­lic­ité auprès des annon­ceurs : Face­book utilise la recherche comme un instru­ment de rela­tions publiques.

Il faut néan­moins bien rap­pel­er qu’affecter quelqu’un n’est pas for­cé­ment négatif : tout dépend de nos inten­tions. Nous nous affec­tons mutuelle­ment en per­ma­nence, et quand nous allons mal, nous avons besoin d’être affec­té de façon pos­i­tive. Il faut sim­ple­ment bien réfléchir à qui nous lais­sons la pos­si­bil­ité de nous affecter : faut-il que des entre­pris­es privées aient ce pou­voir ? Faut-il même que l’État l’ait ?

La détec­tion bio­métrique des émo­tions est-elle à craindre ?

Oui. On assiste aujourd’hui à une banal­i­sa­tion des out­ils bio­métriques de mesure des émo­tions. Nous citons dans notre livre5 l’exemple d’un théâtre barcelon­ais, le Teatreneu, où le prix de votre tick­et est cal­culé selon votre nom­bre de rires (30 cen­times par éclat de rire). Cet exem­ple est assez anec­do­tique, mais ce qui est moins amu­sant, c’est que ces tech­nolo­gies bio­métriques – qui n’étaient jusqu’ici que de sim­ples expéri­men­ta­tions à visée com­mer­ciale – ser­vent aujourd’hui à sur­veiller les citoyens. La police new-yorkaise (NYPD) a ain­si dépen­sé plus de 3 mil­lions de dol­lars depuis 2016 pour met­tre au point des algo­rithmes des­tinés à mesur­er (grâce à des envois de pub­lic­ités ciblées) les sen­ti­ments de 250 000 habi­tants de la ville à l’égard des policiers6.

Le prob­lème est aus­si que ces tech­nolo­gies de détec­tion bio­métrique des émo­tions sont très mau­vais­es. Elles sont basées sur les travaux du psy­cho­logue améri­cain Paul Ekman et de son « Facial action cod­ing sys­tem » [une méth­ode d’analyse des expres­sions faciales visant à associ­er cer­tains mou­ve­ments du vis­age à des émo­tions], qui ne sont pas opérants en pratique.

Mal­gré leur inef­fec­tiv­ité, ces out­ils bio­métriques se dif­fusent à grande vitesse… Or une tech­nolo­gie est bien plus dan­gereuse quand elle fonc­tionne mal que quand elle ne fonc­tionne pas du tout ! Si elle est fiable à 80 %, et que l’on se retrou­ve par­mi les 20 % de marge d’erreur, il nous revien­dra de le prou­ver. Je trou­ve très inquié­tant qu’aujourd’hui, des out­ils qui marchent mal devi­en­nent des out­ils de gou­ver­nance et de sur­veil­lance implé­men­tés sans le con­sen­te­ment des prin­ci­paux intéressés.

Propos recueillis par Juliette Parmentier
1http://​www​.wohl​fruchter​.com/​c​a​s​e​s​/​f​a​c​e​b​o​o​k-inc
2https://​towards​data​science​.com/​e​f​f​e​c​t​-​o​f​-​c​a​m​b​r​i​d​g​e​-​a​n​a​l​y​t​i​c​a​s​-​f​a​c​e​b​o​o​k​-​a​d​s​-​o​n​-​t​h​e​-​2​0​1​6​-​u​s​-​p​r​e​s​i​d​e​n​t​i​a​l​-​e​l​e​c​t​i​o​n​-​d​a​c​b​5​4​6​2​1​5​5​d​?​g​i​=​e​d​0​6​9​7​1​b06a5
3https://web.stanford.edu/~gentzkow/research/fakenews.pdf
4Adam D. I. Kramer, Jamie E. Guil­lo­ry, Jef­frey T. Han­cock, « Exper­i­men­tal evi­dence of mas­sive-scale emo­tion­al con­ta­gion through social net­works », 2014, https://​www​.pnas​.org/​c​o​n​t​e​n​t​/​1​1​1​/​2​4​/​8​7​8​8​.full
5Allo­ing, Camille et Pierre, Julien, Le Web affec­tif, une économie numérique des émo­tions, Ina Édi­tions, 2017
6https://​ven​ture​beat​.com/​2​0​2​0​/​1​0​/​0​6​/​n​e​w​-​y​o​r​k​-​p​o​l​i​c​e​-​d​e​p​a​r​t​m​e​n​t​-​s​u​e​d​-​o​v​e​r​-​s​e​n​t​i​m​e​n​t​-​d​a​t​a​-​t​r​a​c​k​i​n​g​-​t​o​o​l​/​a​m​p​/​?​_​_​t​w​i​t​t​e​r​_​i​m​p​r​e​s​s​i​o​n​=true

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter