Accueil / Chroniques / Algorithmes et profilage : prédire et influencer nos besoins à l’ère du numérique
Moscow, Russia, 29-07-2023: New Elon Musk’s twitter X app on smartphone screen surrounded by other social media network apps. Twitter rebranding. Modern social media communication.
π Numérique π Société

Algorithmes et profilage : prédire et influencer nos besoins à l’ère du numérique

IMG_6691
Philippe Huneman
directeur de recherche CNRS à l'Université Paris 1 Panthéon-Sorbonne
Oana Goga
Oana Goga
directrice de recherche Inria à l'École polytechnique (IP Paris)
En bref
  • Les données que nous laissons sur des sites web sont partagées et vendues, notamment afin d’influencer nos comportements d'achat en ligne via des publicités ciblées.
  • Pour cibler plus efficacement nos besoins, les plateformes en ligne utilisent des algorithmes très performants pour connaître et prédire nos comportements.
  • Le programme MOMENTOUS vise à comprendre si les algorithmes peuvent exploiter les traits psychologiques et cognitifs des individus afin d’influencer leurs comportements.
  • Nous manquons de données sur les publicités qui ciblent les chaînes YouTube destinées aux enfants, ce qui accentue leur exposition au danger.
  • Un accès plus transparent aux données des plateformes en ligne est essentiel pour mener des actions de réglementation efficaces.

En dis­cu­tant avec des amis des prochaines vacances ou de vos achats à venir, vous ne vous êtes jamais demandé pourquoi des pub­lic­ités ciblées très pré­cis­es appa­rais­saient sur votre mur Face­book ou dans votre fil Insta­gram ? Nous avons par­fois l’impression que nos appareils élec­tron­iques nous obser­vent. Une inquié­tude qui n’est pas infondée : les traces que nous lais­sons en ligne affichent des infor­ma­tions ines­timables sur nos vies, sou­vent sans que nous en soyons tout à fait conscients.

En out­re, le 14 févri­er 2025, la Ligue des droits de l’Homme a déposé en France une plainte con­tre Apple pour vio­la­tion de l’intimité de la vie privée avec la col­lecte non con­sen­tie des don­nées d’utilisateurs, via l’assistant vocal Siri. Cette affaire pose la ques­tion de la pro­tec­tion de nos don­nées per­son­nelles, ressources con­voitées par les entreprises.

Prenons l’ex­em­ple des cook­ies, ces élé­ments que nous sommes invités à accepter avant d’ac­céder à des sites web. Der­rière leur nom appétis­sant, se cachent des pos­si­bil­ités pour des entre­pris­es d’ac­céder à nos don­nées. Comme le mon­tre Philippe Hune­man (directeur de recherche CNRS à l’In­sti­tut d’his­toire et de philoso­phie des sci­ences et des tech­niques) dans son ouvrage Les sociétés du pro­fi­lage, il est impor­tant de dis­tinguer les cook­ies « néces­saires », qui assurent le bon fonc­tion­nement d’un site web, des cook­ies « fac­ul­tat­ifs », des­tinés à amélior­er l’expérience de nav­i­ga­tion de l’utilisateur ou à per­son­nalis­er des pub­lic­ités « plus per­ti­nentes » pour ce dernier1. En accep­tant ces cook­ies sur un site par­ti­c­uli­er, nous con­sen­tons à ce que cer­tains de nos com­porte­ments en ligne y soient observés. Ces derniers sont sou­vent liés à des data bro­kers, des entre­pris­es qui achè­tent, col­lectent et agrè­gent des don­nées de plusieurs sites et qui, finale­ment, les reven­dent. Par­mi les plus con­nus, citons Acx­iom aux États-Unis.

Prédire et influencer nos comportements

Mais pourquoi partager et ven­dre nos don­nées per­son­nelles ? L’un des objec­tifs prin­ci­paux est d’in­flu­encer nos com­porte­ments d’achat en ligne via des pub­lic­ités ciblées.

Ain­si, comme le souligne Oana Goga (direc­trice de recherche à l’INRIA à l’École poly­tech­nique [IPP]) : « Dans le domaine de la pub­lic­ité en ligne, le track­ing [N.D.L.R. : le suivi des com­porte­ments des util­isa­teurs en ligne sur le web] est à la base de deux méth­odes de ciblage : la pre­mière est le retar­get­ing, une méth­ode con­sis­tant à cibler les inter­nautes ayant déjà vis­ité un site web en affichant des pub­lic­ités sur d’autres sites qu’ils con­sul­tent. L’autre tech­nique est le ciblage à base de pro­fi­lage, qui con­siste à créer un pro­fil d’utilisateur. »

Les traces que nous lais­sons sur le web à l’ère du numérique peu­vent donc notam­ment être col­lec­tées pour con­stituer un pro­fil. Cette pra­tique, appelée « pro­fi­lage » est définie par le RGPD comme le « traite­ment automa­tisé de don­nées à car­ac­tère per­son­nel pour éval­uer cer­tains aspects per­son­nels relat­ifs à une per­son­ne physique2 ». Elle est util­isée afin d’analyser, de prédire ou d’influencer les com­porte­ments des indi­vidus, entre autres par le biais d’algorithmes. Pour illus­tr­er ce con­cept, prenons l’exemple don­né par la chercheuse du ciblage par pro­fi­lage de Face­book, et de son évo­lu­tion : « En 2018, les util­isa­teurs étaient classés sur Face­book dans 250 000 caté­gories par des algo­rithmes, en fonc­tion de leurs préférences sur la plate­forme. Aujourd’hui, ce classe­ment n’est plus explicite. Les algo­rithmes ne pla­cent plus les util­isa­teurs dans des caté­gories pour que les pub­lic­i­taires choi­sis­sent qui ils veu­lent cibler, mais déci­dent à la place des pub­lic­i­taires à qui envoy­er les pub­lic­ités. »

Les algo­rithmes util­isés aujourd’hui pour prédire et influ­encer nos actions sont en effet très per­for­mants. Plus que les humains, ils seraient capa­bles de con­naître nos com­porte­ments, et pour­raient même les impacter. Par exem­ple, des recherch­es mon­trent que des mod­èles infor­ma­tisés sont bien plus effi­caces et pré­cis que les humains dans la réal­i­sa­tion d’une tâche socio-cog­ni­tive cen­trale : le juge­ment de per­son­nal­ité3.

Mais cette effi­cac­ité soulève plusieurs ques­tions : jusqu’à quel point ces algo­rithmes peu­vent-ils avoir con­nais­sance de nos com­porte­ments et les prédire ? Et com­ment fonc­tion­nent-ils ? À ce jour, les répons­es restent obscures. Oana Goga déclare à ce pro­pos : « Un des grands prob­lèmes des algo­rithmes de recom­man­da­tion, c’est qu’il est dif­fi­cile de les auditer, car les don­nées sont privées et appar­ti­en­nent aux entre­pris­es. »Et Philippe Hune­man ajoute : « Aujourd’hui, nous ignorons com­ment les algo­rithmes utilisent nos don­nées pour prédire nos com­porte­ments, mais leurs mod­èles devi­en­nent de plus en plus per­for­mants. Tout comme pour l’IA généra­tive, nous ne savons pas com­ment les don­nées sont assem­blées. Nous devons choisir : voulons-nous un monde où ces logi­ciels sont effi­caces, ou éthiques ? »

Les problèmes éthiques du profilage et des algorithmes

La ques­tion de l’éthique de ces algo­rithmes est, en effet, fon­da­men­tale. En 2016, le scan­dale de Cam­bridge Ana­lyt­i­ca4 avait fait ressor­tir la pos­si­bil­ité d’exploiter les don­nées des util­isa­teurs sans leur con­sen­te­ment à des fins poli­tiques, notam­ment en dévelop­pant des logi­ciels capa­bles de cibler des pro­fils d’utilisateurs pré­cis et d’influencer leurs votes, comme dans le cas du Brex­it ou de l’élection de Don­ald Trump. Toute­fois, prou­ver que ces manœu­vres ont réelle­ment influ­encé les résul­tats de ces événe­ments reste dif­fi­cile. Par­mi les cas plus récents, citons égale­ment l’annulation de l’élection prési­den­tielle en Roumanie par la Cour con­sti­tu­tion­nelle en décem­bre 2024, après la sus­pi­cion d’une cam­pagne de sou­tien illicite sur Tik­Tok5. Les algo­rithmes pro­posés par des plate­formes comme Face­book ou X pour­raient égale­ment plus que d’autres ren­forcer les cham­bres d’écho, c’est-à-dire lim­iter l’exposition à des per­spec­tives divers­es et favoris­er la for­ma­tion de groupes d’utilisateurs partageant les mêmes idées, ren­forçant cer­tains réc­its com­muns6.

Dans ce con­texte, Oana Goga et son équipe mènent depuis 2022 le pro­gramme MOMENTOUS, financé par la bourse du Con­seil Européen de la Recherche (ERC). Son objec­tif est de com­pren­dre com­ment les algo­rithmes peu­vent exploiter des traits psy­chologiques et cog­ni­tifs pour influ­encer les préférences et les com­porte­ments des gens. Ce pro­gramme offre une nou­velle méthodolo­gie de mesure, basée sur des essais con­trôlés ran­domisés dans les médias soci­aux. Comme le souligne Oana Goga : « Il faut bien faire la dis­tinc­tion entre les biais algo­rith­miques, avec, par exem­ple, les algo­rithmes qui dis­crim­i­nent cer­taines pop­u­la­tions, et les biais cog­ni­tifs, qui sont les biais que les humains ont. Avec MOMENTOUS, nous regar­dons si les algo­rithmes peu­vent exploiter les biais cog­ni­tifs. » Sur un plan sim­i­laire, Philippe Hune­man évoque égale­ment le con­cept de nudge dans le pro­fi­lage : « Le pro­fi­lage véhicule l’idée d’un pater­nal­isme  soft, ou lib­er­tarien visant à influ­encer le com­porte­ment d’un indi­vidu en agis­sant sur les biais qui le gou­ver­nent. Les pub­lic­ités et les inter­faces de sites exploitent ces biais pour influ­encer les déci­sions des util­isa­teurs, c’est le nudge. »

En out­re, par­mi les prob­lèmes éthiques soulevés par le ciblage, citons en pre­mier lieu celui des enfants : « D’un point de vue légal, on n’a pas le droit de cibler les enfants à base de pro­fi­lage. Cepen­dant, nos études menées sur YouTube ont révélé qu’il était pos­si­ble de les cibler de manière con­textuelle, par exem­ple en affichant des pub­lic­ités sur des vidéos de Pep­pa Pig ou sur des chaînes d’influenceurs, explique Oana Goga. Bien que les plate­formes inter­dis­ent le ciblage des enfants de moins de 18 ans, elles peu­vent cibler les con­tenus qu’ils regar­dent. Le prob­lème réside dans le fait que les régu­la­teurs du numérique se con­cen­trent sur l’interdiction du ciblage par pro­fi­lage des enfants, mais pas sur le ciblage con­textuel, qui prend en compte les con­tenus qui leur sont spé­ci­fique­ment des­tinés, alors que ces straté­gies sont bien con­nues des pub­lic­i­taires. On manque de don­nées sur les pub­lic­ités qui ciblent les chaînes dédiées aux enfants, ce qui soulève notam­ment la ques­tion des risques de rad­i­cal­i­sa­tion de la jeunesse », ajoute la chercheuse.

Pour un accès plus transparent aux données des plateformes en ligne

Com­ment faire bouger les choses ? Du point de vue de la régle­men­ta­tion, Oana Goga con­sid­ère qu’une des urgences est d’as­sur­er un accès plus trans­par­ent aux don­nées des plate­formes en ligne : « Des mesures con­crètes doivent être pris­es pour per­me­t­tre un meilleur accès aux don­nées, afin de pou­voir men­er des actions effi­caces. Cela pour­rait se faire de deux manières : 1) par des lois ; 2) par la par­tic­i­pa­tion citoyenne. Il est essen­tiel de pou­voir col­lecter des don­nées de manière éthique et respectueuse du RGPD. »

En ce sens, Oana Goga développe depuis quelques années des out­ils comme AdAn­a­lyst et Check­MyNews pour Meta et YouTube. Leur objec­tif : col­lecter les don­nées des util­isa­teurs pour men­er des recherch­es sur les con­tenus et les sources d’informations qu’ils reçoivent sur ces réseaux tout en respec­tant au max­i­mum leur vie privée, notam­ment en ne col­lec­tant pas les e‑mails des gens, en pas­sant par des comités éthiques, dans le respect du RGPD. « Il serait égale­ment intéres­sant de dis­pos­er d’un pan­el d’utilisateurs à l’échelle européenne. Un obser­va­toire des plate­formes, avec 1 000 à 2 000 util­isa­teurs en France, en Alle­magne, etc., pour­rait per­me­t­tre d’accéder à des don­nées, ceci indépen­dam­ment des plate­formes », ajoute la chercheuse.

Des ques­tion­nements au cœur de notre société, qui devraient être au cen­tre des dis­cus­sions sur la démoc­ra­tie dans les prochaines années.

Lucille Caliman
1Hune­man Philippe, Les Sociétés du pro­fi­lage. Éval­uer, opti­miser, prédire, p. 49–50, Pay­ot-Rivages, 2023.
2https://​www​.cnil​.fr/​f​r​/​r​e​g​l​e​m​e​n​t​-​e​u​r​o​p​e​e​n​-​p​r​o​t​e​c​t​i​o​n​-​d​o​n​n​e​e​s​/​c​h​a​p​i​t​r​e​1​#​A​r​t​icle4
3W. Youy­ou, M. Kosin­s­ki, & D. Still­well, Com­put­er-based per­son­al­i­ty judg­ments are more accu­rate than those made by humans, Proc. Natl. Acad. Sci. U.S.A. 112 (4) 1036–1040, https://​doi​.org/​1​0​.​1​0​7​3​/​p​n​a​s​.​1​4​1​8​6​80112 (2015).
4https://​www​.lemonde​.fr/​p​i​x​e​l​s​/​a​r​t​i​c​l​e​/​2​0​1​8​/​0​3​/​2​2​/​c​e​-​q​u​-​i​l​-​f​a​u​t​-​s​a​v​o​i​r​-​s​u​r​-​c​a​m​b​r​i​d​g​e​-​a​n​a​l​y​t​i​c​a​-​l​a​-​s​o​c​i​e​t​e​-​a​u​-​c​-​u​r​-​d​u​-​s​c​a​n​d​a​l​e​-​f​a​c​e​b​o​o​k​_​5​2​7​4​8​0​4​_​4​4​0​8​9​9​6​.html
5https://​www​.touteleu​rope​.eu/​v​i​e​-​p​o​l​i​t​i​q​u​e​-​d​e​s​-​e​t​a​t​s​-​m​e​m​b​r​e​s​/​r​o​u​m​a​n​i​e​-​d​e​u​x​-​m​o​i​s​-​a​p​r​e​s​-​l​-​a​n​n​u​l​a​t​i​o​n​-​d​-​u​n​-​s​c​r​u​t​i​n​-​t​r​e​s​-​c​o​n​t​r​o​v​e​r​s​e​-​l​e​-​p​r​e​s​i​d​e​n​t​-​k​l​a​u​s​-​i​o​h​a​n​n​i​s​-​a​n​n​o​n​c​e​-​s​o​n​-​d​e​part/
6M. Cinel­li, G. De Fran­cis­ci Morales, A. Galeazzi, W. Quat­tro­cioc­chi, & M. Starni­ni, The echo cham­ber effect on social media, Proc. Natl. Acad. Sci. U.S.A. 118 (9) e2023301118, https://​doi​.org/​1​0​.​1​0​7​3​/​p​n​a​s​.​2​0​2​3​3​01118 (2021).

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter