Megaphone Symbolizing Marketing And Sales. Сoncept Networking Events, Sales Strategies, Branding And Advertising, Lead Generation, Sales Funnel Optimization
π Numérique π Société
L’opinion à l'épreuve des réseaux sociaux

Les algorithmes de recommandation sont-ils source de polarisation ?

Giordano De Marzo , chercheur au département de physique de l'Université Sapienza
Le 24 janvier 2024 |
4 min. de lecture
Avatar
Giordano De Marzo 
chercheur au département de physique de l'Université Sapienza
En bref
  • Avec l’avènement des plateformes en ligne, les opinions se polarisent sur de nombreux sujets.
  • Les algorithmes de recommandations, qui conseillent du contenu spécifique susceptible de plaire à l’usager, en sont une des principales causes.
  • Grâce à des techniques analytiques et numériques, des chercheurs ont simulé l'évolution des préférences des utilisateurs selon les recommandations algorithmiques.
  • En identifiant ces stratégies, l’étude pourrait contribuer à élaborer des algorithmes moins polarisants à l'avenir en renforçant l’engagement des usagers.
  • C’est un pas de plus vers la création d'un écosystème d'informations en ligne plus équilibré et plus inclusif.

Le nom­bre de per­son­nes ayant des opin­ions extrêmes, que ce soit sur des sujets tels que la poli­tique, la reli­gion ou le change­ment cli­ma­tique – pour ne citer que trois exem­ples – a aug­men­té ces dernières années123. Cette « polar­i­sa­tion », comme on l’ap­pelle, est dan­gereuse, car elle pour­rait poten­tielle­ment affaib­lir la démoc­ra­tie elle-même si on la lais­sait se répan­dre sans entrave. Les plate­formes en ligne telles que les médias soci­aux jouent un rôle impor­tant dans ce con­texte, mais les mécan­ismes par lesquels elles favorisent la polar­i­sa­tion ne sont pas encore totale­ment compris.

« Les algo­rithmes de recom­man­da­tion façon­nent pro­fondé­ment notre expéri­ence numérique aujour­d’hui, en déter­mi­nant les films que nous regar­dons ou les chan­sons que nous écou­tons », explique Gior­dano De Mar­zo. Ces algo­rithmes sont large­ment util­isés par la plu­part des sites web que nous visi­tons chaque jour, les exem­ples les plus con­nus étant les mes­sages « sug­gérés pour vous » sur Face­book, les « arti­cles recom­mandés » sur Ama­zon ou le sys­tème PageR­ank de Google. Ils sont conçus pour nous per­me­t­tre d’ac­céder facile­ment au con­tenu le plus sus­cep­ti­ble de nous intéress­er, pour max­imiser notre engage­ment sur la plateforme.

Il s’ag­it d’une avancée sig­ni­fica­tive dans la créa­tion d’un écosys­tème d’in­for­ma­tions en ligne plus équili­bré et plus inclusif 

Une équipe de chercheurs dirigée par Gior­dano De Mar­zo, du départe­ment de physique de l’u­ni­ver­sité « Sapien­za » de Rome, en Ital­ie, a étudié l’impact d’un algo­rithme de fil­trage col­lab­o­ratif d’utilisateur à util­isa­teur sur le com­porte­ment d’un groupe de per­son­nes exposé répéti­tive­ment. Ce type d’al­go­rithme de recom­man­da­tion est couram­ment util­isé par des géants du com­merce en ligne tels qu’A­ma­zon pour iden­ti­fi­er les nou­veaux con­tenus – sur la base de l’activité passée – qui intéresseront le plus les util­isa­teurs. À l’aide de tech­niques ana­ly­tiques et numériques, les chercheurs ont pu simuler l’évo­lu­tion des préférences des util­isa­teurs selon les recom­man­da­tions algo­rith­miques. Leurs analy­ses ont révélé trois régimes ou « phas­es » dis­tincts dans les états de la base d’u­til­isa­teurs qui piè­gent les gens dans ce que l’on appelle des « bulles de filtre ».

Ces états dépen­dent de fac­teurs clés tels que « la force » avec laque­lle l’al­go­rithme recom­mande des arti­cles appré­ciés par des util­isa­teurs sim­i­laires, ou bien qui sont pop­u­laires dans l’ensem­ble. L’é­tude a égale­ment iden­ti­fié des straté­gies per­me­t­tant à un algo­rithme de fournir des recom­man­da­tions per­son­nal­isées, sans créer de bulles de fil­tres. Cela con­tribuerait à l’élab­o­ra­tion d’al­go­rithmes moins polar­isants à l’avenir.

Le filtrage collaboratif

Le fil­trage col­lab­o­ratif45 est l’un des algo­rithmes de recom­man­da­tion les plus con­nus et les plus util­isés. Il repose sur l’idée que le com­porte­ment passé des util­isa­teurs peut être exploité pour iden­ti­fi­er les nou­veaux con­tenus qu’ils apprécieront le plus. L’in­con­vénient, c’est que ces algo­rithmes peu­vent con­duire à une boucle de rétroac­tion. Cette boucle tend naturelle­ment à biais­er les choix futurs, réduisant ain­si la diver­sité du con­tenu disponible. C’est une boucle de cet acabit qui con­duit à des effets de bulles de fil­tre, où les util­isa­teurs ne sont pas exposés à des per­spec­tives nou­velles ou dif­férentes, mais sim­ple­ment à des infor­ma­tions et des con­tenus alignés sur leurs croy­ances exis­tantes. En clair, ces boucles par­ticipent à la « polar­i­sa­tion ». Elles sont sim­i­laires aux « cham­bres d’écho », qui ont été plus large­ment étudiées678. Toute­fois, les bulles sont pro­duites par des recom­man­da­tions algo­rith­miques biaisées dans les plate­formes en ligne, plutôt que par l’interaction entre des util­isa­teurs partageant les mêmes opinions.

Dans cette nou­velle étude, pub­liée dans Phys­i­cal Review E, Gior­dano De Mar­zo et ses col­lègues ont décou­vert qu’en fonc­tion de deux paramètres, la force du biais de sim­i­lar­ité (a) et la force du biais de pop­u­lar­ité (b), un sys­tème de fil­trage col­lab­o­ratif peut exis­ter dans trois phas­es dif­férentes. Il s’ag­it du désor­dre, du con­sen­sus et de la polar­i­sa­tion. En out­re, lorsque les deux biais sont suff­isam­ment impor­tants, le sys­tème forme des groupes polar­isés, ce qui con­duit à l’ef­fet de « bulle de fil­tre ». Heureuse­ment, cet incon­vénient peut être évité à la fron­tière entre le désor­dre et la polar­i­sa­tion. L’al­go­rithme situé à cette lim­ite peut fournir des recom­man­da­tions sig­ni­fica­tives sans induire de polar­i­sa­tion de l’opin­ion ou de « bulles de filtres ».

« Notre recherche four­nit une approche sys­té­ma­tique pour quan­ti­fi­er et analyser l’im­pact du fil­trage col­lab­o­ratif util­isa­teur-util­isa­teur », explique Gior­dano De Mar­zo. « En util­isant une approche de physique sta­tis­tique, nous avons pu simuler et analyser la manière dont les préférences de con­tenu des util­isa­teurs changent en réponse aux recom­man­da­tions algo­rith­miques. »

La nou­velle méth­ode s’ap­puie sur un mélange de mod­éli­sa­tions math­é­ma­tiques et de sim­u­la­tions infor­ma­tiques. « Nous avons notam­ment exploité des tech­niques telles que la théorie des proces­sus sto­chas­tiques, la théorie des prob­a­bil­ités et les mod­èles d’urnes polya (une famille de mod­èles d’urnes per­me­t­tant d’in­ter­préter de nom­breux mod­èles sta­tis­tiques courants). Sur le plan infor­ma­tique, nous avons util­isé des sim­u­la­tions de Monte Car­lo », explique Gior­dano De Marzo.

Vers des algorithmes de recommandation plus efficaces

Ces analy­ses pour­raient con­tribuer au développe­ment de nou­velles méthodolo­gies pour la con­cep­tion d’al­go­rithmes de recom­man­da­tion effi­caces, ajoute-t-il. « En com­prenant les mécan­ismes qui con­duisent aux « bulles de fil­tres », nous pou­vons dévelop­per des sys­tèmes qui favorisent un large éven­tail de con­tenus, atténu­ant ain­si les risques de polar­i­sa­tion tout en ren­forçant l’en­gage­ment des util­isa­teurs et la diver­sité des con­tenus. Il s’ag­it d’une avancée sig­ni­fica­tive dans la créa­tion d’un écosys­tème d’in­for­ma­tions en ligne plus équili­bré et plus inclusif ».

Les chercheurs vont main­tenant étudi­er l’im­pact des inter­ac­tions entre les util­isa­teurs (comme on l’ob­serve couram­ment dans les réseaux soci­aux) sur les algo­rithmes de recom­man­da­tion. « L’a­jout de ce paramètre pour­rait con­sid­érable­ment enrichir notre com­préhen­sion de l’in­ter­ac­tion entre la dynamique sociale et la dis­tri­b­u­tion de con­tenu par algo­rithme. Cela offrira une vision plus holis­tique des envi­ron­nements numériques », explique Gior­dano De Marzo.

Ils étudieront égale­ment le rôle des algo­rithmes de recom­man­da­tion de liens, c’est-à-dire ceux qui sug­gèrent des amis vers lesquels nous établirons des liens. Enfin, ils exploitent actuelle­ment de grands mod­èles de lan­gage (LLM) pour ali­menter des sim­u­la­tions plus réal­istes. « Ces sim­u­la­tions con­stitueront le point de départ idéal pour une com­préhen­sion plus détail­lée de la dynamique en ligne et des algo­rithmes de recom­man­da­tion », explique Gior­dano De Marzo.

Isabelle Dumé
1“The par­ti­san divide on polit­i­cal val­ues grows even wider,”https://www.pewresearch.org/politics/2017/10/05/the-partisan-divide-on-political-values-grows-even-wider/ (2017).
2Uth­sav Chi­tra and Christo­pher Mus­co, “Ana­lyz­ing the impact of fil­ter bub­bles on social net­work polar­iza­tion,” in Pro­ceed­ings of the 13th Inter­na­tion­al Con­fer­ence on Web Search and Data Min­ing, WSDM ’20 (Asso­ci­a­tion for Com­put­ing Machin­ery, New York, NY, USA, 2020) p. 115–123.
3Michael Maes and Lukas Bischof­berg­er, “Will the per­son- aliza­tion of online social net­works fos­ter opin­ion polar­iza­tion?” Avail­able at SSRN 2553436 (2015).
4Jonathan L Her­lock­er, Joseph A Kon­stan, and John Riedl, “Explain­ing col­lab­o­ra­tive fil­ter­ing rec­om­men­da­tions,” in Pro­ceed­ings of the 2000 ACM con­fer­ence on Com­put­er sup­port­ed coop­er­a­tive work (2000) pp. 241–250.
5Xiaoyuan Su and Taghi M Khosh­gof­taar, “A sur­vey of col­lab­o­ra­tive fil­ter­ing tech­niques,” Advances in arti­fi­cial intel­li­gence 2009 (2009), 10.1155/2009/421425.
6Mat­teo Cinel­li, Gian­mar­co De Fran­cis­ci Morales, Alessan­dro Galeazzi, Wal­ter Quat­tro­cioc­chi, and Michele Starni­ni, “The echo cham­ber effect on so- cial media,” Pro­ceed­ings of the Nation­al Acad­e­my of Sci­ences 118 (2021), 10.1073/pnas.2023301118, https://​www​.pnas​.org/​c​o​n​t​e​n​t​/​1​1​8​/​9​/​e​2​0​2​3​3​0​1​1​1​8​.​f​u​l​l.pdf
7Wes­ley Cota, Sil­vio C. Fer­reira, Romual­do Pas­tor-Sator­ras, and Michele Starni­ni, “Quan­ti­fy­ing echo cham­ber effects in infor­ma­tion spread­ing over polit­i­cal com­mu­ni­ca­tion net­works,” EPJ Data Sci­ence 8, 35 (2019).
8Pablo Barber´a, John T. Jost, Jonathan Nagler, Joshua A. Tuck­er, and Richard Bon­neau, “Tweet­ing from left to right: Is online polit­i­cal com­mu­ni­ca­tion more than an echo cham­ber?” Psy­cho­log­i­cal Sci­ence 26, 1531–1542 (2015), pMID: 26297377, https://​doi​.org/​1​0​.​1​1​7​7​/​0​9​5​6​7​9​7​6​1​5​5​94620.

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter