4_facebook
π Numérique π Société
Le développement du numérique : aux dépens de l’humain ?

« Les plateformes maîtrisent mal la manipulation de nos émotions »

Le 8 juin 2021 |
5min. de lecture
Camille Alloing
Camille Alloing
professeur en relations publiques à l’Université du Québec à Montréal
En bref
  • Le scandale Cambridge Analytica et d’autres affaires ont récemment alerté les citoyens sur la possibilité pour les réseaux sociaux de manipuler leurs émotions et leur vote en jouant sur leurs émotions.
  • Mais pour le chercheur Camille Alloing, les réseaux sociaux surestimeraient sciemment leur capacité de manipulation afin de vendre de l’espace publicitaire.
  • De la même façon, les plateformes telles que Facebook n’hésiteraient pas à mener des expériences psychologiques sur les émotions de centaines de milliers de leurs utilisateurs...
  • … Et ce à leur insu, et en se basant sur une conception caricaturale et inopérante des émotions,  dans l’unique but d’accréditer leur discours sur leur capacité de manipulation.

Sus­ci­ter chez les uti­li­sa­teurs des réseaux sociaux de la peur ou de l’empathie est aujourd’hui pré­sen­té comme le meilleur moyen de les mani­pu­ler : l’affaire Cam­bridge Ana­ly­ti­ca et le rôle sup­po­sé de Face­book dans l’élection de Donald Trump en seraient la preuve. Pour­tant, Camille Alloing, cher­cheur en science de l’in­for­ma­tion-com­mu­ni­ca­tion (UQAM), invite à gran­de­ment rela­ti­vi­ser le pou­voir des réseaux sociaux sur nos émotions.

Pou­vez-vous expli­quer ce qu’est le « capi­ta­lisme affectif » ?

Il s’agit tout sim­ple­ment de la par­tie du capi­ta­lisme qui exploite notre capa­ci­té à nous émou­voir (et à émou­voir les autres) dans le but de géné­rer de la valeur. C’est par­ti­cu­liè­re­ment pré­gnant sur les réseaux sociaux.

Il faut cepen­dant s’entendre sur le terme « affect », qui peut dési­gner l’ensemble des émo­tions, mais qui est avant tout un concept cri­tique pour ques­tion­ner ce qui nous « met en mou­ve­ment », nous amène à réa­li­ser des actions concrètes. Quand j’apprécie un conte­nu et que je le « like », je suis affec­té. Contrai­re­ment aux émo­tions – qui res­tent dif­fi­ci­le­ment ana­ly­sables tant elles sont sub­jec­tives et incons­cientes –, les consé­quences des affects peuvent être iden­ti­fiées (on peut consta­ter que j’ai pres­sé le bou­ton « like » après avoir vu une vidéo qui m’a affec­té). On ne peut donc pas savoir si les pla­te­formes numé­riques réus­sissent réel­le­ment à sus­ci­ter des émo­tions chez leurs uti­li­sa­teurs, mais on peut ana­ly­ser la façon dont elles par­viennent à les affecter. 

Comme la majeure par­tie du chiffre d’affaires des réseaux sociaux pro­vient de la vente d’espaces publi­ci­taires, leur objec­tif est d’accroître le temps pas­sé par leurs uti­li­sa­teurs sur la pla­te­forme…  et donc le nombre de publi­ci­tés vision­nées. Pour cela, les affects sont un atout indé­niable : ils per­mettent, en géné­rant de l’empathie, de pro­vo­quer davan­tage de réac­tions, et d’accroître la dif­fu­sion des contenus. 

Mon constat est ain­si que les indi­vi­dus sont aujourd’hui enchâs­sés dans des struc­tures qui ont le pou­voir de les affec­ter – et donc de leur faire res­sen­tir des émo­tions et de les faire agir – qu’ils ne peuvent cepen­dant pas affec­ter en retour. Si je publie du conte­nu, et que j’attends une réponse de mes amis, je suis alié­né parce que cette réponse ne vien­dra que si Face­book choi­sit (pour des rai­sons qui m’échappent) de dif­fu­ser mon post.

Vous dites que « l’affect est un pou­voir »… le pou­voir de mani­pu­ler les indi­vi­dus grâce à leurs émotions ?

Si je disais qu’affecter une per­sonne per­met­tait effec­ti­ve­ment de la mani­pu­ler, j’irais dans le sens du dis­cours des pla­te­formes. Face­book a par exemple tout inté­rêt à lais­ser pen­ser que ses algo­rithmes sont capables de contrô­ler ses uti­li­sa­teurs, afin de vendre de l’espace publi­ci­taire. L’affaire Cam­bridge Ana­ly­ti­ca [scan­dale de mani­pu­la­tion d’utilisateurs de Face­book afin d’influencer l’élection pré­si­den­tielle amé­ri­caine de novembre 2016 en faveur de Donald Trump] a en ce sens été pour eux une publi­ci­té incroyable auprès des annon­ceurs, qui y ont vu l’occasion d’accroître dras­ti­que­ment leurs ventes en mani­pu­lant les internautes !

Il faut cepen­dant net­te­ment rela­ti­vi­ser la part des réseaux sociaux dans l’élection de Trump, et se méfier des expli­ca­tions sim­plistes. Alors que Face­book se tar­guait d’atteindre 89 % de pré­ci­sion dans son ciblage publi­ci­taire, des employés ont révé­lé en 2019 que la pré­ci­sion moyenne aux États-Unis était en réa­li­té deux fois infé­rieure (41 %, avec des chutes à 9 % selon les caté­go­ries)1. Certes, leurs algo­rithmes et les fonc­tion­na­li­tés de ces pla­te­formes ont des effets concrets… mais ils sont bien infé­rieurs à ce que l’on imagine.

La recherche est faite pour ame­ner de la pon­dé­ra­tion dans les débats, et les tra­vaux scien­ti­fiques23 montrent bien que contrai­re­ment à tout ce que l’on peut entendre, les pla­te­formes ne peuvent pas réel­le­ment nous mani­pu­ler. Certes, elles essaient de le faire, mais elles ne maî­trisent ni les tenants, ni les abou­tis­sants des actions qu’elles mettent en place. Cela peut d’ailleurs vite deve­nir dan­ge­reux, et ce d’autant plus que leur concep­tion de la psy­cho­lo­gie humaine est cari­ca­tu­rale : croire que les gens sont aveu­glé­ment sou­mis à leurs émo­tions et leurs biais cog­ni­tifs est une forme de mépris de classe.

En 2014, Face­book avait ain­si embau­ché des cher­cheurs pour réa­li­ser des tests psy­cho­lo­giques visant à mani­pu­ler les émo­tions de 700 000 uti­li­sa­teurs sans leur consen­te­ment4. Cette enquête « scien­ti­fique » devait démon­trer la capa­ci­té de la pla­te­forme à contrô­ler les humeurs de ses uti­li­sa­teurs, et consis­tait à modi­fier les fils d’actualité des indi­vi­dus pour les expo­ser à des conte­nus plus néga­tifs (ou posi­tifs). Résul­tat : ils se tar­guaient de pou­voir pro­vo­quer des « conta­gions émo­tion­nelles », puisque les per­sonnes se met­taient à leur tour à publier un conte­nu plus néga­tif (ou posi­tif, selon ce à quoi elles avaient été expo­sées). Cepen­dant, et en plus des évi­dents pro­blèmes éthiques, l’expérience était sta­tis­ti­que­ment incor­recte, et ses conclu­sions ne tenaient pas… Mais il y a fort à parier que la rigueur scien­ti­fique n’était pas leur but pre­mier ! L’objectif était sur­tout de se faire de la publi­ci­té auprès des annon­ceurs : Face­book uti­lise la recherche comme un ins­tru­ment de rela­tions publiques.

Il faut néan­moins bien rap­pe­ler qu’affecter quelqu’un n’est pas for­cé­ment néga­tif : tout dépend de nos inten­tions. Nous nous affec­tons mutuel­le­ment en per­ma­nence, et quand nous allons mal, nous avons besoin d’être affec­té de façon posi­tive. Il faut sim­ple­ment bien réflé­chir à qui nous lais­sons la pos­si­bi­li­té de nous affec­ter : faut-il que des entre­prises pri­vées aient ce pou­voir ? Faut-il même que l’État l’ait ?

La détec­tion bio­mé­trique des émo­tions est-elle à craindre ?

Oui. On assiste aujourd’hui à une bana­li­sa­tion des outils bio­mé­triques de mesure des émo­tions. Nous citons dans notre livre5 l’exemple d’un théâtre bar­ce­lo­nais, le Tea­tre­neu, où le prix de votre ticket est cal­cu­lé selon votre nombre de rires (30 cen­times par éclat de rire). Cet exemple est assez anec­do­tique, mais ce qui est moins amu­sant, c’est que ces tech­no­lo­gies bio­mé­triques – qui n’étaient jusqu’ici que de simples expé­ri­men­ta­tions à visée com­mer­ciale – servent aujourd’hui à sur­veiller les citoyens. La police new-yor­kaise (NYPD) a ain­si dépen­sé plus de 3 mil­lions de dol­lars depuis 2016 pour mettre au point des algo­rithmes des­ti­nés à mesu­rer (grâce à des envois de publi­ci­tés ciblées) les sen­ti­ments de 250 000 habi­tants de la ville à l’égard des poli­ciers6.

Le pro­blème est aus­si que ces tech­no­lo­gies de détec­tion bio­mé­trique des émo­tions sont très mau­vaises. Elles sont basées sur les tra­vaux du psy­cho­logue amé­ri­cain Paul Ekman et de son « Facial action coding sys­tem » [une méthode d’analyse des expres­sions faciales visant à asso­cier cer­tains mou­ve­ments du visage à des émo­tions], qui ne sont pas opé­rants en pratique.

Mal­gré leur inef­fec­ti­vi­té, ces outils bio­mé­triques se dif­fusent à grande vitesse… Or une tech­no­lo­gie est bien plus dan­ge­reuse quand elle fonc­tionne mal que quand elle ne fonc­tionne pas du tout ! Si elle est fiable à 80 %, et que l’on se retrouve par­mi les 20 % de marge d’erreur, il nous revien­dra de le prou­ver. Je trouve très inquié­tant qu’aujourd’hui, des outils qui marchent mal deviennent des outils de gou­ver­nance et de sur­veillance implé­men­tés sans le consen­te­ment des prin­ci­paux intéressés.

Propos recueillis par Juliette Parmentier
1http://​www​.wohl​fruch​ter​.com/​c​a​s​e​s​/​f​a​c​e​b​o​o​k-inc
2https://​toward​sda​tas​cience​.com/​e​f​f​e​c​t​-​o​f​-​c​a​m​b​r​i​d​g​e​-​a​n​a​l​y​t​i​c​a​s​-​f​a​c​e​b​o​o​k​-​a​d​s​-​o​n​-​t​h​e​-​2​0​1​6​-​u​s​-​p​r​e​s​i​d​e​n​t​i​a​l​-​e​l​e​c​t​i​o​n​-​d​a​c​b​5​4​6​2​1​5​5​d​?​g​i​=​e​d​0​6​9​7​1​b06a5
3https://web.stanford.edu/~gentzkow/research/fakenews.pdf
4Adam D. I. Kra­mer, Jamie E. Guillo­ry, Jef­frey T. Han­cock, « Expe­ri­men­tal evi­dence of mas­sive-scale emo­tio­nal conta­gion through social net­works », 2014, https://​www​.pnas​.org/​c​o​n​t​e​n​t​/​1​1​1​/​2​4​/​8​7​8​8​.full
5Alloing, Camille et Pierre, Julien, Le Web affec­tif, une éco­no­mie numé­rique des émo­tions, Ina Édi­tions, 2017
6https://​ven​tu​re​beat​.com/​2​0​2​0​/​1​0​/​0​6​/​n​e​w​-​y​o​r​k​-​p​o​l​i​c​e​-​d​e​p​a​r​t​m​e​n​t​-​s​u​e​d​-​o​v​e​r​-​s​e​n​t​i​m​e​n​t​-​d​a​t​a​-​t​r​a​c​k​i​n​g​-​t​o​o​l​/​a​m​p​/​?​_​_​t​w​i​t​t​e​r​_​i​m​p​r​e​s​s​i​o​n​=true

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don