2_algorithmes
π Numérique π Société
Comment les géants du numérique transforment nos sociétés

Comment le profilage influence nos comportements

avec Philippe Huneman, directeur de recherche CNRS à l'Université Paris 1 Panthéon-Sorbonne et Oana Goga, directrice de recherche à Inria et membre de l’équipe Inria CEDAR du laboratoire d'informatique de l'École polytechnique (IP Paris)
Le 28 mai 2025 |
6 min. de lecture
IMG_6691
Philippe Huneman
directeur de recherche CNRS à l'Université Paris 1 Panthéon-Sorbonne
Oana Goga
Oana Goga
directrice de recherche à Inria et membre de l’équipe Inria CEDAR du laboratoire d'informatique de l'École polytechnique (IP Paris)
En bref
  • Les données que nous laissons sur des sites web sont partagées et vendues, notamment afin d’influencer nos comportements d'achat en ligne via des publicités ciblées.
  • Pour cibler plus efficacement nos besoins, les plateformes en ligne utilisent des algorithmes très performants pour connaître et prédire nos comportements.
  • Le programme MOMENTOUS vise à comprendre si les algorithmes peuvent exploiter les traits psychologiques et cognitifs des individus afin d’influencer leurs comportements.
  • Nous manquons de données sur les publicités qui ciblent les chaînes YouTube destinées aux enfants, ce qui accentue leur exposition au danger.
  • Un accès plus transparent aux données des plateformes en ligne est essentiel pour mener des actions de réglementation efficaces.

En dis­cu­tant avec des amis des pro­chaines vacances ou de vos achats à venir, vous ne vous êtes jamais deman­dé pour­quoi des publi­ci­tés ciblées très pré­cises appa­rais­saient sur votre mur Face­book ou dans votre fil Ins­ta­gram ? Nous avons par­fois l’impression que nos appa­reils élec­tro­niques nous observent. Une inquié­tude qui n’est pas infon­dée : les traces que nous lais­sons en ligne affichent des infor­ma­tions ines­ti­mables sur nos vies, sou­vent sans que nous en soyons tout à fait conscients.

En outre, le 14 février 2025, la Ligue des droits de l’Homme a dépo­sé en France une plainte contre Apple pour vio­la­tion de l’intimité de la vie pri­vée avec la col­lecte non consen­tie des don­nées d’utilisateurs, via l’assistant vocal Siri. Cette affaire pose la ques­tion de la pro­tec­tion de nos don­nées per­son­nelles, res­sources convoi­tées par les entreprises.

Pre­nons l’exemple des cookies, ces élé­ments que nous sommes invi­tés à accep­ter avant d’ac­cé­der à des sites web. Der­rière leur nom appé­tis­sant, se cachent des pos­si­bi­li­tés pour des entre­prises d’ac­cé­der à nos don­nées. Comme le montre Phi­lippe Hune­man (direc­teur de recherche CNRS à l’Ins­ti­tut d’his­toire et de phi­lo­so­phie des sciences et des tech­niques) dans son ouvrage Les socié­tés du pro­fi­lage, il est impor­tant de dis­tin­guer les cookies « néces­saires », qui assurent le bon fonc­tion­ne­ment d’un site web, des cookies « facul­ta­tifs », des­ti­nés à amé­lio­rer l’expérience de navi­ga­tion de l’utilisateur ou à per­son­na­li­ser des publi­ci­tés « plus per­ti­nentes » pour ce der­nier1. En accep­tant ces cookies sur un site par­ti­cu­lier, nous consen­tons à ce que cer­tains de nos com­por­te­ments en ligne y soient obser­vés. Ces der­niers sont sou­vent liés à des data bro­kers, des entre­prises qui achètent, col­lectent et agrègent des don­nées de plu­sieurs sites et qui, fina­le­ment, les revendent. Par­mi les plus connus, citons Acxiom aux États-Unis.

Prédire et influencer nos comportements

Mais pour­quoi par­ta­ger et vendre nos don­nées per­son­nelles ? L’un des objec­tifs prin­ci­paux est d’in­fluen­cer nos com­por­te­ments d’a­chat en ligne via des publi­ci­tés ciblées.

Ain­si, comme le sou­ligne Oana Goga (direc­trice de recherche à l’INRIA à l’École poly­tech­nique [IPP]) : « Dans le domaine de la publi­ci­té en ligne, le tra­cking [N.D.L.R. : le sui­vi des com­por­te­ments des uti­li­sa­teurs en ligne sur le web] est à la base de deux méthodes de ciblage : la pre­mière est le retar­ge­ting, une méthode consis­tant à cibler les inter­nautes ayant déjà visi­té un site web en affi­chant des publi­ci­tés sur d’autres sites qu’ils consultent. L’autre tech­nique est le ciblage à base de pro­fi­lage, qui consiste à créer un pro­fil d’utilisateur. »

Les traces que nous lais­sons sur le web à l’ère du numé­rique peuvent donc notam­ment être col­lec­tées pour consti­tuer un pro­fil. Cette pra­tique, appe­lée « pro­fi­lage » est défi­nie par le RGPD comme le « trai­te­ment auto­ma­ti­sé de don­nées à carac­tère per­son­nel pour éva­luer cer­tains aspects per­son­nels rela­tifs à une per­sonne phy­sique2 ». Elle est uti­li­sée afin d’analyser, de pré­dire ou d’influencer les com­por­te­ments des indi­vi­dus, entre autres par le biais d’algorithmes. Pour illus­trer ce concept, pre­nons l’exemple don­né par la cher­cheuse du ciblage par pro­fi­lage de Face­book, et de son évo­lu­tion : « En 2018, les uti­li­sa­teurs étaient clas­sés sur Face­book dans 250 000 caté­go­ries par des algo­rithmes, en fonc­tion de leurs pré­fé­rences sur la pla­te­forme. Aujourd’hui, ce clas­se­ment n’est plus expli­cite. Les algo­rithmes ne placent plus les uti­li­sa­teurs dans des caté­go­ries pour que les publi­ci­taires choi­sissent qui ils veulent cibler, mais décident à la place des publi­ci­taires à qui envoyer les publi­ci­tés. »

Les algo­rithmes uti­li­sés aujourd’hui pour pré­dire et influen­cer nos actions sont en effet très per­for­mants. Plus que les humains, ils seraient capables de connaître nos com­por­te­ments, et pour­raient même les affec­ter. Par exemple, des recherches montrent que des modèles infor­ma­ti­sés sont bien plus effi­caces et pré­cis que les humains dans la réa­li­sa­tion d’une tâche socio-cog­ni­tive cen­trale : le juge­ment de per­son­na­li­té3.

Mais jus­qu’à quel point ces algo­rithmes peuvent-ils avoir connais­sance de nos com­por­te­ments et les pré­dire ? Et com­ment fonc­tionnent-ils ? À ce jour, les réponses res­tent obs­cures. Oana Goga déclare à ce pro­pos : « Un des grands pro­blèmes des algo­rithmes de recom­man­da­tion, c’est qu’il est dif­fi­cile de les audi­ter, car les don­nées sont pri­vées et appar­tiennent aux entre­prises. » Et Phi­lippe Hune­man ajoute : « Aujourd’hui, nous igno­rons com­ment les algo­rithmes uti­lisent nos don­nées pour pré­dire nos com­por­te­ments, mais leurs modèles deviennent de plus en plus per­for­mants. Tout comme pour l’IA géné­ra­tive, nous ne savons pas com­ment les don­nées sont assem­blées. Nous devons choi­sir : vou­lons-nous un monde où ces logi­ciels sont effi­caces, ou éthiques ? »

Les problèmes éthiques du profilage et des algorithmes

L’é­thique de ces algo­rithmes est, en effet, pre­mière. En 2016, le scan­dale de Cam­bridge Ana­ly­ti­ca4 avait fait res­sor­tir la pos­si­bi­li­té d’exploiter les don­nées des uti­li­sa­teurs sans leur consen­te­ment à des fins poli­tiques, notam­ment en déve­lop­pant des logi­ciels capables de cibler des pro­fils d’utilisateurs pré­cis et d’influencer leurs votes, comme dans le cas du Brexit ou de l’élection de Donald Trump. Tou­te­fois, prou­ver que ces manœuvres ont réel­le­ment influen­cé les résul­tats de ces évé­ne­ments reste dif­fi­cile. Par­mi les cas plus récents, citons éga­le­ment l’annulation de l’élection pré­si­den­tielle en Rou­ma­nie par la Cour consti­tu­tion­nelle en décembre 2024, après la sus­pi­cion d’une cam­pagne de sou­tien illi­cite sur Tik­Tok5. Les algo­rithmes pro­po­sés par des pla­te­formes comme Face­book ou X pour­raient éga­le­ment plus que d’autres ren­for­cer les chambres d’écho, c’est-à-dire limi­ter l’exposition à des pers­pec­tives diverses et favo­ri­ser la for­ma­tion de groupes d’utilisateurs par­ta­geant les mêmes idées, ren­for­çant cer­tains récits com­muns6.

Dans ce contexte, Oana Goga et son équipe mènent depuis 2022 le pro­gramme MOMENTOUS, finan­cé par la bourse du Conseil Euro­péen de la Recherche (ERC). Son objec­tif : com­prendre com­ment les algo­rithmes peuvent exploi­ter des traits psy­cho­lo­giques et cog­ni­tifs pour influen­cer les pré­fé­rences et les com­por­te­ments des gens. Ce pro­gramme offre une nou­velle métho­do­lo­gie de mesure, basée sur des essais contrô­lés ran­do­mi­sés dans les médias sociaux. Comme le sou­ligne Oana Goga : « Il faut bien faire la dis­tinc­tion entre les biais algo­rith­miques, avec, par exemple, les algo­rithmes qui dis­cri­minent cer­taines popu­la­tions, et les biais cog­ni­tifs, qui sont les biais que les humains ont. Avec MOMENTOUS, nous regar­dons si les algo­rithmes peuvent exploi­ter les biais cog­ni­tifs. » Sur un plan simi­laire, Phi­lippe Hune­man évoque éga­le­ment le concept de nudge dans le pro­fi­lage : « Le pro­fi­lage véhi­cule l’idée d’un pater­na­lisme  soft, ou liber­ta­rien visant à influen­cer le com­por­te­ment d’un indi­vi­du en agis­sant sur les biais qui le gou­vernent. Les publi­ci­tés et les inter­faces de sites exploitent ces biais pour influen­cer les déci­sions des uti­li­sa­teurs, c’est le nudge. »

En outre, par­mi les pro­blèmes éthiques sou­le­vés par le ciblage, citons en pre­mier lieu celui des enfants : « D’un point de vue légal, on n’a pas le droit de cibler les enfants à base de pro­fi­lage. Cepen­dant, nos études menées sur You­Tube ont mon­tré qu’il était pos­sible de les cibler de manière contex­tuelle, par exemple en affi­chant des publi­ci­tés sur des vidéos de Pep­pa Pig ou sur des chaînes d’influenceurs, explique Oana Goga. Bien que les pla­te­formes inter­disent le ciblage des enfants de moins de 18 ans, elles peuvent cibler les conte­nus qu’ils regardent. Le pro­blème réside dans le fait que les régu­la­teurs du numé­rique se concentrent sur l’interdiction du ciblage par pro­fi­lage des enfants, mais pas sur le ciblage contex­tuel, qui prend en compte les conte­nus qui leur sont spé­ci­fi­que­ment des­ti­nés, alors que ces stra­té­gies sont bien connues des publi­ci­taires. On manque de don­nées sur les publi­ci­tés qui ciblent les chaînes dédiées aux enfants, ce qui pose notam­ment la ques­tion des risques de radi­ca­li­sa­tion de la jeu­nesse », ajoute la chercheuse.

Pour un accès plus transparent aux données des plateformes en ligne

Com­ment faire bou­ger les choses ? Du point de vue de la régle­men­ta­tion, Oana Goga consi­dère qu’une des urgences est d’as­su­rer un accès plus trans­pa­rent aux don­nées des pla­te­formes en ligne : « Des mesures concrètes doivent être prises pour per­mettre un meilleur accès aux don­nées, afin de pou­voir mener des actions effi­caces. Cela pour­rait se faire de deux manières : 1) par des lois ; 2) par la par­ti­ci­pa­tion citoyenne. Il est impor­tant de pou­voir col­lec­ter des don­nées de manière éthique et res­pec­tueuse du RGPD. »

En ce sens, Oana Goga déve­loppe depuis quelques années des outils comme AdA­na­lyst et Che­ck­My­News pour Meta et You­Tube. Leur objec­tif : col­lec­ter les don­nées des uti­li­sa­teurs pour mener des recherches sur les conte­nus et les sources d’informations qu’ils reçoivent sur ces réseaux tout en res­pec­tant au maxi­mum leur vie pri­vée, notam­ment en ne col­lec­tant pas les e‑mails des gens, en pas­sant par des comi­tés éthiques, dans le res­pect du RGPD. « Il serait éga­le­ment inté­res­sant de dis­po­ser d’un panel d’utilisateurs à l’échelle euro­péenne. Un obser­va­toire des pla­te­formes, avec 1 000 à 2 000 uti­li­sa­teurs en France, en Alle­magne, etc., pour­rait per­mettre d’accéder à des don­nées, ceci indé­pen­dam­ment des pla­te­formes », ajoute la chercheuse.

Des ques­tion­ne­ments au cœur de notre socié­té, qui devraient être au centre des dis­cus­sions sur la démo­cra­tie dans les pro­chaines années.

Lucille Caliman
1Hune­man Phi­lippe, Les Socié­tés du pro­fi­lage. Éva­luer, opti­mi­ser, pré­dire, p. 49–50, Payot-Rivages, 2023.
2https://​www​.cnil​.fr/​f​r​/​r​e​g​l​e​m​e​n​t​-​e​u​r​o​p​e​e​n​-​p​r​o​t​e​c​t​i​o​n​-​d​o​n​n​e​e​s​/​c​h​a​p​i​t​r​e​1​#​A​r​t​icle4
3W. Youyou, M. Kosins­ki, & D. Stil­l­well, Com­pu­ter-based per­so­na­li­ty judg­ments are more accu­rate than those made by humans, Proc. Natl. Acad. Sci. U.S.A. 112 (4) 1036–1040, https://​doi​.org/​1​0​.​1​0​7​3​/​p​n​a​s​.​1​4​1​8​6​80112 (2015).
4https://​www​.lemonde​.fr/​p​i​x​e​l​s​/​a​r​t​i​c​l​e​/​2​0​1​8​/​0​3​/​2​2​/​c​e​-​q​u​-​i​l​-​f​a​u​t​-​s​a​v​o​i​r​-​s​u​r​-​c​a​m​b​r​i​d​g​e​-​a​n​a​l​y​t​i​c​a​-​l​a​-​s​o​c​i​e​t​e​-​a​u​-​c​-​u​r​-​d​u​-​s​c​a​n​d​a​l​e​-​f​a​c​e​b​o​o​k​_​5​2​7​4​8​0​4​_​4​4​0​8​9​9​6​.html
5https://​www​.tou​te​leu​rope​.eu/​v​i​e​-​p​o​l​i​t​i​q​u​e​-​d​e​s​-​e​t​a​t​s​-​m​e​m​b​r​e​s​/​r​o​u​m​a​n​i​e​-​d​e​u​x​-​m​o​i​s​-​a​p​r​e​s​-​l​-​a​n​n​u​l​a​t​i​o​n​-​d​-​u​n​-​s​c​r​u​t​i​n​-​t​r​e​s​-​c​o​n​t​r​o​v​e​r​s​e​-​l​e​-​p​r​e​s​i​d​e​n​t​-​k​l​a​u​s​-​i​o​h​a​n​n​i​s​-​a​n​n​o​n​c​e​-​s​o​n​-​d​e​part/
6M. Cinel­li, G. De Fran­cis­ci Morales, A. Galeaz­zi, W. Quat­tro­cioc­chi, & M. Star­ni­ni, The echo cham­ber effect on social media, Proc. Natl. Acad. Sci. U.S.A. 118 (9) e2023301118, https://​doi​.org/​1​0​.​1​0​7​3​/​p​n​a​s​.​2​0​2​3​3​01118 (2021).

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don