π Numérique π Science et technologies
Les nouveaux enjeux de l’IA

L’avenir de la synchronisation du cerveau et de la machine 

avec Hamilton Mann, vice-président du groupe chargé du marketing numérique et de la transformation numérique chez Thales et maître de conférences à l'INSEAD, Cornelia C. Walther, chercheuse invitée principale à l'initiative Wharton pour les neurosciences (WiN) et Michael Platt, directeur de la Wharton Neuroscience Initiative et professeur de marketing, de neuroscience et de psychologie à l'Université de Pennsylvanie
Le 30 octobre 2024 |
12 min. de lecture
Hamilton Mann
Hamilton Mann
vice-président du groupe chargé du marketing numérique et de la transformation numérique chez Thales et maître de conférences à l'INSEAD
Cornelia C. Walther
Cornelia C. Walther
chercheuse invitée principale à l'initiative Wharton pour les neurosciences (WiN)
Michael Platt
Michael Platt
directeur de la Wharton Neuroscience Initiative et professeur de marketing, de neuroscience et de psychologie à l'Université de Pennsylvanie
En bref
  • L’évolution de l’IA représente une avancée dans la relation entre les humains et les machines.
  • L’IA est aujourd’hui capable de générer des réponses semblables à celles d’humains et de s’adapter aux contextes de leurs interactions.
  • Des avancées comme les interfaces cerveau-ordinateur (BCIs), rendent potentiel un futur où l’IA se connecterait aux pensées et aux émotions des Hommes.
  • Les neurosciences peuvent également guider le développement de l’IA, par exemple à travers l’alternative de l’informatique neuromorphique.
  • Malgré leurs implications positives, les relations humain-machine posent des problèmes éthiques majeurs, notamment concernant la confidentialité des données ou la préservation de l’autonomie humaine.

L’é­vo­lu­tion remar­quable des sys­tèmes d’in­tel­li­gence arti­fi­cielle (IA) repré­sente un chan­ge­ment de para­digme dans la rela­tion entre les humains et les machines. Cette trans­for­ma­tion est évi­dente dans les inter­ac­tions trans­pa­rentes faci­li­tées par ces sys­tèmes avan­cés, où l’a­dap­ta­bi­li­té appa­raît comme une carac­té­ris­tique déter­mi­nante, en réso­nance avec la capa­ci­té humaine fon­da­men­tale d’ap­prendre par l’ex­pé­rience et de pré­dire le comportement.

Cet article a été publié en exclu­si­vi­té dans notre maga­zine Le 3,14 sur l’IA.
Télé­char­gez-le ici.

L’IA imite l’apprentissage humain

L’ap­pren­tis­sage par ren­for­ce­ment (AR) est une facette de l’IA qui s’a­ligne étroi­te­ment sur les pro­ces­sus cog­ni­tifs humains. L’ap­pren­tis­sage par ren­for­ce­ment imite le para­digme de l’ap­pren­tis­sage humain en per­met­tant aux sys­tèmes d’IA d’ap­prendre en inter­agis­sant avec un envi­ron­ne­ment et en rece­vant un retour d’in­for­ma­tion sous forme de récom­penses ou de péna­li­tés. En revanche, les grands modèles lin­guis­tiques (Large Lan­guage Models [LLM]) jouent un rôle cru­cial dans la recon­nais­sance des formes, en sai­sis­sant les nuances com­plexes du lan­gage et du com­por­te­ment humains. Ces modèles, tels que ChatGPT et BERT, excellent dans la com­pré­hen­sion des infor­ma­tions contex­tuelles, dans l’ap­pré­hen­sion des sub­ti­li­tés du lan­gage et dans la pré­dic­tion de l’in­ten­tion de l’u­ti­li­sa­teur. En s’ap­puyant sur de vastes ensembles de don­nées, les LLM acquièrent une com­pré­hen­sion com­plète des modèles lin­guis­tiques, ce qui leur per­met de géné­rer des réponses sem­blables à celles des humains et de s’a­dap­ter à cer­tains com­por­te­ments des uti­li­sa­teurs, par­fois avec une pré­ci­sion remarquable.

La syner­gie entre AR et LLM crée un puis­sant pré­dic­teur du com­por­te­ment humain. L’AR contri­bue à la capa­ci­té d’ap­prendre des inter­ac­tions et de s’a­dap­ter, tan­dis que les LLM amé­liorent les capa­ci­tés de pré­dic­tion grâce à la recon­nais­sance des formes. Les sys­tèmes d’IA fon­dés sur la logique des rela­tions peuvent donc affi­cher une forme de syn­chro­ni­sa­tion com­por­te­men­tale. Au fond, l’AR per­met aux sys­tèmes d’IA d’ap­prendre des séquences opti­males d’ac­tions dans des envi­ron­ne­ments inter­ac­tifs afin d’at­teindre une poli­tique. Comme un enfant qui touche une sur­face chaude et apprend à l’é­vi­ter, ces sys­tèmes d’IA s’a­daptent en fonc­tion des réac­tions posi­tives ou néga­tives qu’ils reçoivent.

L’IA reproduit les interactions humaines

Les agents d’IA qui uti­lisent l’ap­pren­tis­sage par ren­for­ce­ment pro­fond, comme Alpha­Ze­ro de DeepMind/Google, apprennent et s’a­mé­liorent en jouant des mil­lions de par­ties contre eux-mêmes, affi­nant ain­si leurs stra­té­gies au fil du temps. Ce pro­ces­sus d’au­to-amé­lio­ra­tion dans l’IA implique qu’un agent apprend de manière ité­ra­tive à par­tir de ses propres actions et résul­tats. De même, dans les inter­ac­tions humaines, la syn­chro­ni­sa­tion céré­brale se pro­duit lorsque les indi­vi­dus s’en­gagent dans des tâches coopé­ra­tives, ce qui conduit à des modèles ali­gnés d’ac­ti­vi­té céré­brale qui faci­litent ain­si la com­pré­hen­sion com­mune et la col­la­bo­ra­tion. Contrai­re­ment à l’IA, les humains par­viennent à cette syn­chro­ni­sa­tion en inter­agis­sant avec les autres plu­tôt qu’a­vec eux-mêmes.

De plus, les sys­tèmes d’IA peuvent éga­le­ment apprendre des inter­ac­tions avec les humains. Tout comme la syn­chro­ni­sa­tion du cer­veau humain amé­liore la coopé­ra­tion et la com­pré­hen­sion, les sys­tèmes d’IA peuvent amé­lio­rer et ali­gner leurs réponses grâce à un appren­tis­sage ité­ra­tif appro­fon­di à par­tir des inter­ac­tions humaines. Bien que les sys­tèmes d’IA ne par­tagent pas lit­té­ra­le­ment leurs connais­sances comme le font les cer­veaux humains, ils deviennent des dépo­si­taires de don­nées héri­tées de ces inter­ac­tions, ce qui cor­res­pond à une forme de connais­sance. Ce pro­ces­sus d’ap­pren­tis­sage à par­tir de vastes ensembles de don­nées, y com­pris les inter­ac­tions humaines, peut être consi­dé­ré comme une forme de « mémoire col­lec­tive ». Cette ana­lo­gie met en évi­dence la pos­si­bi­li­té pour les sys­tèmes d’IA d’é­vo­luer tout en étant influen­cés par les humains, tout en influen­çant les humains par leur uti­li­sa­tion, ce qui indique une forme de « syn­chro­ni­sa­tion infor­ma­tique » qui pour­rait être consi­dé­rée comme une ana­lo­gie de la syn­chro­ni­sa­tion du cer­veau humain.

Aus­si, des sys­tèmes d’IA dotés d’un sys­tème de recon­nais­sance des signaux sociaux sont en cours de concep­tion pour détec­ter les émo­tions humaines et y répondre. Ces sys­tèmes d’« infor­ma­tique affec­tive », tels qu’ils ont été inven­tés par Rosa­lind Picard en 19951, peuvent inter­pré­ter les expres­sions faciales, les modu­la­tions de la voix et même le texte pour éva­luer les émo­tions et y répondre en consé­quence. Un assis­tant IA capable de détec­ter la frus­tra­tion de l’u­ti­li­sa­teur en temps réel et d’a­jus­ter ses réponses ou sa stra­té­gie d’as­sis­tance est une forme rudi­men­taire de syn­chro­ni­sa­tion com­por­te­men­tale basée sur un retour d’in­for­ma­tion immédiat.

Par exemple, l’informatique affec­tive englobe des tech­no­lo­gies telles que les logi­ciels de recon­nais­sance des émo­tions qui ana­lysent les expres­sions faciales et le ton de la voix pour déter­mi­ner l’é­tat émo­tion­nel d’une per­sonne. L’a­na­lyse en temps réel des sen­ti­ments dans le texte et la voix per­met à l’IA d’a­jus­ter ses inter­ac­tions pour les rendre plus empa­thiques et plus effi­caces. Cette capa­ci­té est de plus en plus uti­li­sée dans les chat­bots et les assis­tants vir­tuels du ser­vice client pour amé­lio­rer l’ex­pé­rience de l’u­ti­li­sa­teur en ren­dant les inter­ac­tions plus natu­relles et plus réactives.

Tout comme les humains ajustent leur com­por­te­ment en fonc­tion des signaux sociaux, les sys­tèmes d’IA adap­ta­tifs modi­fient leurs actions en fonc­tion des don­nées four­nies par l’u­ti­li­sa­teur, ce qui peut conduire à une forme de « syn­chro­ni­sa­tion » au fil du temps. L’é­va­lua­tion des com­pé­tences sociales d’un tel sys­tème d’IA pour­rait se faire en adap­tant des outils tels que l’é­chelle de réac­ti­vi­té sociale (Social Res­pon­si­ve­ness Scale, [SRS]), un ins­tru­ment psy­chia­trique bien vali­dé qui mesure la capa­ci­té d’un indi­vi­du à modi­fier son com­por­te­ment pour s’a­dap­ter au com­por­te­ment et à la dis­po­si­tion d’un par­te­naire social ; une approxi­ma­tion de la « théo­rie de l’es­prit », qui fait réfé­rence à la capa­ci­té d’at­tri­buer des états men­taux – tels que les croyances, les inten­tions, les dési­rs, les émo­tions et les connais­sances – à soi-même et à autrui.

Vers la résonance

Les inter­faces cer­veau-ordi­na­teur (Brain-Com­pu­ter Inter­faces, [BCIs]) ont ouvert une ère de trans­for­ma­tion dans laquelle les pen­sées peuvent être tra­duites en com­mandes numé­riques et en com­mu­ni­ca­tion humaine. Des entre­prises comme Neu­ra­link pro­gressent dans le déve­lop­pe­ment d’in­ter­faces qui per­mettent aux per­sonnes para­ly­sées de contrô­ler des appa­reils direc­te­ment par la pen­sée. En asso­ciant des enre­gis­tre­ments directs de l’ac­ti­vi­té céré­brale à des sys­tèmes d’IA, des cher­cheurs ont per­mis à une per­sonne de par­ler à une vitesse nor­male après être res­tée muette pen­dant plus de dix ans à la suite d’un acci­dent vas­cu­laire céré­bral. Les sys­tèmes d’IA peuvent éga­le­ment être uti­li­sés pour déco­der non seule­ment ce qu’une per­sonne lit, mais aus­si ce qu’elle pense, sur la base de mesures non inva­sives de l’ac­ti­vi­té céré­brale à l’aide d’IRM fonctionnelle.

Sur la base de ces avan­cées, il n’est pas exa­gé­ré d’i­ma­gi­ner un scé­na­rio futur dans lequel un pro­fes­sion­nel uti­li­se­rait un BCI non inva­sif (par exemple, des moni­teurs d’ondes céré­brales por­tables tels que Cog­wear, Emo­tiv ou Muse) pour com­mu­ni­quer avec un logi­ciel de concep­tion d’IA. Le logi­ciel, recon­nais­sant les sché­mas neu­ro­naux du concep­teur asso­ciés à la créa­ti­vi­té ou à l’in­sa­tis­fac­tion, pour­rait ins­tan­ta­né­ment ajus­ter ses pro­po­si­tions de concep­tion, attei­gnant ain­si un niveau de syn­chro­ni­sa­tion aupa­ra­vant consi­dé­ré comme rele­vant du domaine de la science-fic­tion. Cette fron­tière tech­no­lo­gique pro­met une forme par­ti­cu­lière de syn­chro­ni­sa­tion, où l’in­te­rac­tion entre le cer­veau humain et l’IA trans­cende la simple inter­pré­ta­tion des com­mandes, ouvrant un ave­nir dans lequel l’IA résonne avec les pen­sées et les émo­tions humaines.

Il est essen­tiel que la réso­nance envi­sa­gée ici trans­cende le domaine du com­por­te­ment pour englo­ber éga­le­ment la com­mu­ni­ca­tion. Au fur et à mesure que les BCI évo­luent, le poten­tiel d’ex­pres­sion exté­rieure devient essen­tiel. Au-delà de la simple exé­cu­tion de com­mandes, l’in­té­gra­tion d’in­dices faciaux, du ton de la voix et d’autres indices non ver­baux dans les réponses de l’IA ampli­fie les canaux de réso­nance. Cette expan­sion de la com­mu­ni­ca­tion mul­ti­mo­dale peut enri­chir la syn­chro­ni­sa­tion en cap­tu­rant des élé­ments de la nature holis­tique de l’ex­pres­sion humaine, créant ain­si une inter­ac­tion plus immer­sive et plus naturelle.

Cepen­dant, le concept de réso­nance pré­sente éga­le­ment le défi de navi­guer dans la val­lée de l’é­trange, un phé­no­mène où les enti­tés huma­noïdes qui res­semblent étroi­te­ment aux humains pro­voquent un malaise. Il est essen­tiel de trou­ver le bon équi­libre pour que la réac­ti­vi­té de l’IA s’a­ligne de manière authen­tique sur les expres­sions humaines, sans entrer dans ce domaine décon­cer­tant. Le poten­tiel des BCI pour favo­ri­ser la syn­chro­ni­sa­tion entre le cer­veau humain et l’IA ouvre des pers­pec­tives pro­met­teuses mais dif­fi­ciles pour la col­la­bo­ra­tion entre l’homme et l’ordinateur.

Se tourner vers les neurosciences

Les neu­ros­ciences éclairent non seule­ment les fon­de­ments de l’in­tel­li­gence bio­lo­gique, mais peuvent éga­le­ment gui­der le déve­lop­pe­ment de l’in­tel­li­gence arti­fi­cielle2. La prise en compte de contraintes évo­lu­tives telles que l’ef­fi­ca­ci­té de l’es­pace et de la com­mu­ni­ca­tion, qui ont façon­né l’é­mer­gence de sys­tèmes effi­caces dans la nature, incite à explo­rer l’in­té­gra­tion de contraintes simi­laires dans les sys­tèmes d’IA, tout en envi­sa­geant des envi­ron­ne­ments arti­fi­ciels qui évo­luent orga­ni­que­ment et qui sont opti­mi­sés pour l’ef­fi­ca­ci­té et la dura­bi­li­té envi­ron­ne­men­tale, le tout, au cœur de la recherche sur ce que l’on appelle l’« infor­ma­tique neuromorphique ». 

Par exemple, l’ac­ti­vi­té neu­ro­nale oscil­la­toire semble sti­mu­ler la com­mu­ni­ca­tion entre des zones céré­brales éloi­gnées. Le cer­veau uti­lise un rythme thê­ta-gam­ma pour embal­ler et trans­mettre des infor­ma­tions, à l’ins­tar d’un ser­vice pos­tal, amé­lio­rant ain­si l’ef­fi­ca­ci­té de la trans­mis­sion et de la récu­pé­ra­tion des don­nées3. Cette inter­ac­tion a été com­pa­rée à un sys­tème avan­cé de trans­mis­sion de don­nées, où les ondes céré­brales alpha et bêta à basse fré­quence sup­priment l’ac­ti­vi­té neu­ro­nale asso­ciée aux sti­mu­li pré­vi­sibles, ce qui per­met aux neu­rones des régions sen­so­rielles de mettre en évi­dence les sti­mu­li inat­ten­dus par le biais d’ondes gam­ma à plus haute fré­quence. Bas­tos et al.4 ont consta­té que les pré­dic­tions inhi­bi­trices véhi­cu­lées par les ondes alpha/bêta cir­culent géné­ra­le­ment vers l’ar­rière à tra­vers les couches cor­ti­cales plus pro­fondes, tan­dis que les ondes gam­ma exci­ta­trices véhi­cu­lant des infor­ma­tions sur les nou­veaux sti­mu­li se pro­pagent vers l’a­vant à tra­vers les couches superficielles.

De récentes expé­riences d’IA, en par­ti­cu­lier celles impli­quant le GPT‑4 de Ope­nAI, révèlent des paral­lèles intri­gants avec l’ap­pren­tis­sage évolutif. 

Dans le cer­veau des mam­mi­fères, les ondu­la­tions d’ondes vives (SPW‑R) exercent une influence exci­ta­trice géné­ra­li­sée dans l’en­semble du cor­tex et de mul­tiples noyaux sous-cor­ti­caux5. Au sein de ces SPW‑R, les pics neu­ro­naux sont méti­cu­leu­se­ment orches­trés à la fois tem­po­rel­le­ment et spa­tia­le­ment par les inter­neu­rones, ce qui faci­lite la réac­ti­va­tion conden­sée de seg­ments de séquences neu­ro­nales éveillées6. Cette acti­vi­té orches­trée faci­lite la trans­mis­sion des repré­sen­ta­tions hip­po­cam­piques com­pri­mées aux cir­cuits dis­tri­bués, ren­for­çant ain­si le pro­ces­sus de conso­li­da­tion de la mémoire7.

De récentes expé­riences d’IA, en par­ti­cu­lier celles impli­quant le GPT‑4 de Ope­nAI, révèlent des paral­lèles intri­gants avec l’ap­pren­tis­sage évo­lu­tif. Contrai­re­ment à la for­ma­tion tra­di­tion­nelle axée sur les tâches, GPT‑4 apprend à par­tir de vastes ensembles de don­nées, en affi­nant ses réponses sur la base des « expé­riences » accu­mu­lées – par ailleurs, la recon­nais­sance des formes par les GPT est paral­lèle à la recon­nais­sance des formes par les couches de neu­rones dans le cer­veau. Cette approche reflète la capa­ci­té d’a­dap­ta­tion obser­vée dans l’é­vo­lu­tion natu­relle, où les orga­nismes affinent leurs com­por­te­ments au fil du temps pour mieux s’a­dap­ter à leur environnement.

Des ondes cérébrales aux fréquences de l’IA

S’ins­pi­rant de l’ar­chi­tec­ture du cer­veau, les réseaux neu­ro­naux de l’in­tel­li­gence arti­fi­cielle sont construits avec des nœuds orga­ni­sés en couches qui répondent aux entrées et génèrent ensuite des sor­ties. Dans le domaine de la recherche sur la syn­chro­ni­sa­tion neu­ro­nale humaine, l’é­tude du rôle des oscil­la­tions s’est avé­rée être un domaine d’in­té­rêt essen­tiel. L’ac­ti­vi­té neu­ro­nale oscil­la­toire à haute fré­quence appa­raît comme un élé­ment cru­cial, démon­trant sa capa­ci­té à faci­li­ter la com­mu­ni­ca­tion entre des zones céré­brales éloi­gnées. Dans ce contexte, le code neu­ro­nal thê­ta-gam­ma est un phé­no­mène par­ti­cu­liè­re­ment intri­guant. Il montre com­ment notre cer­veau uti­lise une méthode par­ti­cu­lière pour « embal­ler » et « trans­mettre » les infor­ma­tions, tout comme un ser­vice pos­tal qui emballe méti­cu­leu­se­ment les paquets en vue d’une livrai­son effi­cace. Ce sys­tème d’« embal­lage » neu­ro­nal orchestre des rythmes spé­ci­fiques, sem­blables à une danse coor­don­née, ce qui garan­tit la trans­mis­sion ratio­na­li­sée des infor­ma­tions, et il est encap­su­lé dans ce que l’on appelle le rythme thêta-gamma.

Cette pers­pec­tive s’a­ligne sur le concept d’« infor­ma­tique neu­ro­mor­phique », où l’ar­chi­tec­ture de l’IA est basée sur des cir­cuits neu­ro­naux. Le prin­ci­pal avan­tage de l’informatique neu­ro­mor­phique réside dans son effi­ca­ci­té de cal­cul, ce qui per­met de rele­ver les défis impor­tants en matière de consom­ma­tion d’éner­gie aux­quels sont confron­tés les modèles d’IA tra­di­tion­nels. La for­ma­tion de grands modèles d’IA, tels que ceux uti­li­sés dans le trai­te­ment du lan­gage natu­rel ou la recon­nais­sance d’i­mages, peut consom­mer une quan­ti­té exor­bi­tante d’éner­gie. Par exemple, la for­ma­tion d’un seul modèle d’IA peut émettre autant de dioxyde de car­bone que cinq voi­tures pen­dant toute leur durée de vie8. De plus, des cher­cheurs de l’U­ni­ver­si­té du Mas­sa­chu­setts, Amherst, ont consta­té que l’empreinte car­bone de l’entraînement des modèles d’ap­pren­tis­sage pro­fond a dou­blé envi­ron tous les 3,5 mois, dépas­sant de loin les amé­lio­ra­tions de l’ef­fi­ca­ci­té infor­ma­tique9.

L’in­for­ma­tique neu­ro­mor­phique offre une alter­na­tive pro­met­teuse. En imi­tant l’ar­chi­tec­ture du cer­veau humain, les sys­tèmes neu­ro­mor­phiques visent à atteindre une plus grande effi­ca­ci­té de cal­cul et une plus faible consom­ma­tion d’éner­gie par rap­port aux archi­tec­tures d’IA conven­tion­nelles10. Par exemple, la puce neu­ro­mor­phique True­North d’IBM a démon­tré des ordres de gran­deur signi­fi­ca­tifs en termes d’ef­fi­ca­ci­té éner­gé­tique par rap­port aux CPU et GPU tra­di­tion­nels11. Et, les archi­tec­tures infor­ma­tiques neu­ro­mor­phiques sont intrin­sè­que­ment adap­tées aux tâches de trai­te­ment en temps réel à faible consom­ma­tion d’éner­gie, ce qui les rend idéales pour des appli­ca­tions telles que l’in­for­ma­tique péri­phé­rique et les sys­tèmes auto­nomes, contri­buant ain­si davan­tage aux éco­no­mies d’éner­gie et à la dura­bi­li­té environnementale.

Implications pour la société

Dans le domaine de la for­ma­tion et du déve­lop­pe­ment des com­pé­tences, l’IA syn­chro­ni­sée a le poten­tiel de per­son­na­li­ser les expé­riences d’ap­pren­tis­sage en fonc­tion de la courbe d’ap­pren­tis­sage unique d’un employé, faci­li­tant ain­si une acqui­si­tion plus rapide et plus effi­cace des com­pé­tences. Du point de vue de l’en­ga­ge­ment des clients, les inter­faces d’IA syn­chro­ni­sée pour­raient com­prendre plus pré­ci­sé­ment et, dans cer­tains cas, anti­ci­per les attentes des uti­li­sa­teurs sur la base de modèles com­por­te­men­taux avancés.

En ce qui concerne l’ef­fi­ca­ci­té opé­ra­tion­nelle, en par­ti­cu­lier dans des sec­teurs tels que la fabri­ca­tion ou la logis­tique, les sys­tèmes d’IA qui tra­vaillent en coor­di­na­tion les uns avec les autres peuvent opti­mi­ser les pro­ces­sus, réduire les déchets et ren­for­cer la chaîne d’ap­pro­vi­sion­ne­ment. Il en résul­te­rait une ren­ta­bi­li­té accrue, avec une capa­ci­té tou­jours plus grande à inté­grer des consi­dé­ra­tions de dura­bi­li­té. En matière de ges­tion des risques, des sys­tèmes d’IA syn­chro­ni­sés qui ana­lysent de vastes ensembles de don­nées en col­la­bo­ra­tion pour­raient mieux pré­dire les risques poten­tiels ou les ralen­tis­se­ments du mar­ché, ce qui per­met­trait aux entre­prises et autres orga­ni­sa­tions de se pré­pa­rer ou s’adapter avant l’ap­pa­ri­tion d’une crise afin de limi­ter toutes les réper­cus­sions sociales et socié­tales qui en découlent. De même, des sys­tèmes d’IA syn­chro­ni­sés pour­raient four­nir des infor­ma­tions per­met­tant d’a­mé­lio­rer l’ef­fi­ca­ci­té des stra­té­gies de pla­ni­fi­ca­tion urbaine et de pro­tec­tion de l’en­vi­ron­ne­ment. Cela pour­rait conduire à une meilleure ges­tion du tra­fic, à des éco­no­mies d’éner­gie et à un contrôle de la pol­lu­tion, amé­lio­rant ain­si la qua­li­té de vie dans les zones urbaines.

Dans divers domaines, au-delà des affaires, le déploie­ment de l’IA avec une orien­ta­tion pro-sociale offre un immense poten­tiel pour le bien-être de l’hu­ma­ni­té et de la pla­nète. Dans le domaine de la san­té en par­ti­cu­lier, la syn­chro­ni­sa­tion entre le cer­veau humain et les sys­tèmes d’IA pour­rait ouvrir une ère révo­lu­tion­naire pour les soins aux patients et pour la recherche médi­cale. Des études récentes sou­lignent l’im­pact posi­tif de la syn­chro­ni­sa­tion des mou­ve­ments des cli­ni­ciens avec ceux des patients, ce qui ren­force la confiance et réduit la dou­leur. L’ex­ten­sion de ce concept aux chat­bots d’IA ou aux robots soi­gnants syn­chro­ni­sés avec les per­sonnes dont ils s’oc­cupent pro­met d’a­mé­lio­rer l’ex­pé­rience des patients et les résul­tats, comme en témoignent des recherches récentes indi­quant que les LLM sont plus per­for­mants que les méde­cins dans le diag­nos­tic des mala­dies, et que les patients pré­fèrent leur interaction.

Dans le domaine de l’é­du­ca­tion, l’in­té­gra­tion de sys­tèmes d’IA axés sur la syn­chro­ni­sa­tion est tout aus­si pro­met­teuse. Des recherches ont démon­tré que la syn­chro­ni­sa­tion des ondes céré­brales dans les classes de lycée per­met­tait de pré­dire des per­for­mances plus éle­vées et le bon­heur des élèves12. Cette étude sou­ligne l’im­por­tance de la syn­chro­ni­sa­tion neu­ro­nale dans l’en­vi­ron­ne­ment d’ap­pren­tis­sage. En tirant par­ti d’un sys­tème de tuto­rat d’IA capable de détec­ter les états cog­ni­tifs des élèves et d’y répondre en temps réel, les tech­no­lo­gies de l’é­du­ca­tion peuvent poten­tiel­le­ment repro­duire les résul­tats posi­tifs obser­vés dans les salles de classe syn­chro­ni­sées.  L’in­té­gra­tion de sys­tèmes d’IA en réso­nance avec les états céré­braux des élèves pour­rait créer une atmo­sphère d’ap­pren­tis­sage plus pro­pice et plus effi­cace, opti­mi­sant ain­si l’en­ga­ge­ment et favo­ri­sant des résul­tats d’ap­pren­tis­sage positifs.

Perspectives et potentiel

L’en­thou­siasme entou­rant les pers­pec­tives de syn­chro­ni­sa­tion cer­veau-machine et machine-machine s’ac­com­pagne d’un ensemble de pré­oc­cu­pa­tions pri­mor­diales qui néces­sitent un exa­men appro­fon­di qui est tout sauf tech­nique. La confi­den­tia­li­té des don­nées devient une pré­oc­cu­pa­tion majeure, étant don­né la nature intime des infor­ma­tions neu­ro­nales trai­tées par ces sys­tèmes. Les dimen­sions éthiques d’une telle syn­chro­ni­sa­tion, en par­ti­cu­lier dans le domaine de la prise de déci­sion de l’IA, pré­sentent des défis com­plexes qui néces­sitent un exa­men minu­tieux1314.

Dans le pro­lon­ge­ment de ces pré­oc­cu­pa­tions, deux ques­tions pri­mor­diales méritent une atten­tion par­ti­cu­lière. Pre­miè­re­ment, la pré­ser­va­tion de l’au­to­no­mie humaine est un prin­cipe fon­da­men­tal. Alors que nous entrons dans l’ère de la syn­chro­ni­sa­tion cer­veau-machine, il devient impé­ra­tif de veiller à ce que les indi­vi­dus conservent leur capa­ci­té à faire des choix éclai­rés. Évi­ter les scé­na­rios dans les­quels les indi­vi­dus se sentent contraints ou mani­pu­lés par la tech­no­lo­gie est cru­cial pour le res­pect des normes éthiques.

Deuxiè­me­ment, la ques­tion de l’é­qui­té dans l’ac­cès à ces tech­no­lo­gies se pose avec acui­té. Actuel­le­ment, ces tech­no­lo­gies avan­cées sont sou­vent coû­teuses et peuvent ne pas être acces­sibles à tous les pans de la socié­té. Cela sou­lève des inquié­tudes quant à l’exa­cer­ba­tion des inéga­li­tés exis­tantes15. Un scé­na­rio dans lequel seuls cer­tains groupes pri­vi­lé­giés peuvent exploi­ter les avan­tages de la syn­chro­ni­sa­tion cer­veau-machine risque d’ag­gra­ver les frac­tures socié­tales. Et, le manque de sen­si­bi­li­sa­tion à ces tech­no­lo­gies aggrave encore les pro­blèmes d’ac­cès équi­table16.

L’in­té­gra­tion de l’IA à la cog­ni­tion humaine marque le seuil d’une ère sans pré­cé­dent, où les machines ne se contentent pas de repro­duire l’in­tel­li­gence humaine, mais reflètent éga­le­ment des sché­mas com­por­te­men­taux et des émo­tions com­plexes. La syn­chro­ni­sa­tion poten­tielle de l’IA avec les inten­tions et les émo­tions humaines pro­met de redé­fi­nir la nature de la col­la­bo­ra­tion homme-machine et, peut-être même, l’es­sence de la condi­tion humaine. Le résul­tat de l’har­mo­ni­sa­tion des humains et des machines aura un impact signi­fi­ca­tif sur l’hu­ma­ni­té et la pla­nète. Cela dépen­dra des aspi­ra­tions humaines qui gui­de­ront alors cette quête et ouvri­ra ain­si des oppor­tu­ni­tés pour une expé­rience avan­cée de l’IA cen­trée sur l’hu­main, dans un « mode de fusion », tel qu’il a été inven­té dans le concept d’« inté­gri­té arti­fi­cielle ». Cela sou­lève une ques­tion intem­po­relle, qui se réper­cute tout au long de l’his­toire de l’hu­ma­ni­té : à quoi accor­dons-nous de la valeur, et pourquoi ?

Il est essen­tiel de sou­li­gner que les impli­ca­tions de la syn­chro­ni­sa­tion des humains et des machines vont bien au-delà du domaine des experts en IA ; elles concernent chaque indi­vi­du. D’où la néces­si­té de sen­si­bi­li­ser et d’im­pli­quer le public à chaque étape de ce voyage trans­for­ma­teur. À mesure que le déve­lop­pe­ment de l’IA pro­gresse, il est essen­tiel de veiller à ce que les dimen­sions éthiques, socié­tales et exis­ten­tielles soient façon­nées par des valeurs et des réflexions col­lec­tives, afin d’é­vi­ter que les grandes entre­prises tech­no­lo­giques ne prennent des déci­sions uni­la­té­rales qui pour­raient ne pas cor­res­pondre aux inté­rêts plus larges de l’hu­ma­ni­té. Ce qui se pas­se­ra ensuite déter­mi­ne­ra notre ave­nir indi­vi­duel et col­lec­tif. Il est de notre res­pon­sa­bi­li­té com­mune de bien faire les choses.

1Picard, R. W. (1995). "Affec­tive Computing.&quot ; MIT Media Labo­ra­to­ry Per­cep­tual Com­pu­ting Sec­tion.
2Ach­ter­berg, J., Akar­ca, D., Strouse, D.J. et al. Spa­tial­ly embed­ded recur­rent neu­ral net­works reveal wides­pread links bet­ween struc­tu­ral and func­tio­nal neu­ros­cience fin­dings. Nature Machine Intel­li­gence 5, 1369–1381 (2023). https://doi.org/10.1038/s42256-023–00748‑9
3Lis­man, J. E., &amp ; Idiart, M. A. (1995). Sto­rage of 7 +/- 2 short-term memo­ries in oscil­la­to­ry sub­cycles. Science, 267(5203), 1512–1515. [DOI : 10.1126/science.7878473]
4Bas­tos, A. M., Lund­q­vist, M., Waite, A. S., &amp ; Mil­ler, E. K. (2020). Layer and rhythm spe­ci­fi­ci­ty for pre­dic­tive rou­ting. Pro­cee­dings of the Natio­nal Aca­de­my of Sciences, 117(49), 31459–31469. [https://​doi​.org/​1​0​.​1​0​7​3​/​p​n​a​s​.​2​0​1​4​8​68117]
5Buzsá­ki G. (2015). Hip­po­cam­pal sharp wave-ripple : A cog­ni­tive bio­mar­ker for epi­so­dic memo­ry and plan­ning. Hip­po­cam­pus. 2015 Oct;25(10):1073–188. doi : 10.1002/hipo.22488. PMID : 26135716 ; PMCID : PMC4648295.
6O’Neill, J., Boc­ca­ra, C. N., Stel­la, F., Schoe­nen­ber­ger, P., &amp ; Csics­va­ri, J. (2008). Super­fi­cial layers of the medial ento­rhi­nal cor­tex replay inde­pen­dent­ly of the hip­po­cam­pus. Science, 320(5879), 129–133.
7Ego-Sten­gel, V., Wil­son, M. A. (2010). Dis­rup­tion of ripple-asso­cia­ted hip­po­cam­pal acti­vi­ty during rest impairs spa­tial lear­ning in the rat. Hip­po­cam­pus, 20(1), 1–10.
8Stru­bell, E., Ganesh, A., &amp ; McCal­lum, A. (2019). Ener­gy and poli­cy consi­de­ra­tions for deep lear­ning in NLP. Pro­cee­dings of the 57th Annual Mee­ting of the Asso­cia­tion for Com­pu­ta­tio­nal Lin­guis­tics, 3645–3650. https://​doi​.org/​1​0​.​1​8​6​5​3​/​v​1​/​P​1​9​-1356
9Schwartz, R., Dodge, J., Smith, N. A., Over­ton, J. ; Var­sh­ney, L. R. (2019). Green AI. Pro­cee­dings of the AAAI Confe­rence on Arti­fi­cial Intel­li­gence, 33, 9342–9350. https://​doi​.org/​1​0​.​1​6​0​9​/​a​a​a​i​.​v​3​3​i​0​1​.​3​3​0​19342
10Fur­ber, S. B., Gal­lup­pi, F., Temple, S., Pla­na, L. A. (2014). The SpiN­Na­ker Pro­ject. Pro­cee­dings of the IEEE, 102(5), 652–665. https://​doi​.org/​1​0​.​1​1​0​9​/​J​P​R​O​C​.​2​0​1​4​.​2​3​04638
11Merol­la, P. A., Arthur, J. V., Alva­rez-Ica­za, R., Cas­si­dy, A. S., Sawa­da, J., Ako­pyan, F., … Mod­ha, D. S. (2014). A mil­lion spi­king-neu­ron inte­gra­ted cir­cuit with a sca­lable com­mu­ni­ca­tion net­work and inter­face. Science, 345(6197), 668–673. https://​doi​.org/​1​0​.​1​1​2​6​/​s​c​i​e​n​c​e​.​1​2​54642
12Dik­ker, S., Wan, L., Davi­des­co, I., Kag­gen, L., Oos­trik, M., McClin­tock, J., … &amp ; Poep­pel, D. (2017). Brain-to- brain syn­chro­ny tracks real-world dyna­mic group inter­ac­tions in the class­room. Cur­rent Bio­lo­gy, 27(9), 1375–1380.
13Dignum, V. (2018). Res­pon­sible Arti­fi­cial Intel­li­gence : How to Deve­lop and Use AI in a Res­pon­sible Way. AI &amp ; Socie­ty, 33(3), 475–476. https://doi.org/10.1007/s00146-018‑0812‑0
14Flo­ri­di, L., Cowls, J., Bel­tra­met­ti, M., Cha­ti­la, R., Cha­ze­rand, P., Dignum, V., Luetge, C., Made­lin, R.,Pagallo, U., Ros­si, F., Scha­fer, B., Valcke, P., &amp ; Vaye­na, E. (2018). AI4People—An Ethi­cal Fra­me­work for a Good AI Socie­ty : Oppor­tu­ni­ties, Risks, Prin­ciples, and Recom­men­da­tions. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018‑9482‑5
15Dia­ko­pou­los, N. (2016). Accoun­ta­bi­li­ty in Algo­rith­mic Deci­sion Making. Com­mu­ni­ca­tions of the ACM, 59(2), 56–62. https://​doi​.org/​1​0​.​1​1​4​5​/​2​8​44148
16Kost­ko­va, P., Bre­wer, H., de Lusi­gnan, S., Fot­trell, E., Gol­dacre, B., Hart, G., Koc­zan, P., Knight, P., Mar­so­lier, C., McKen­dry, R. A., Ross, E., Sasse, A., Sul­li­van, R., Chay­tor, S., Ste­ven­son, O., Vel­ho, R., Tooke, J., &amp ; Ross, E. (2016). Who Owns the Data ? Open Data for Heal­th­care. Fron­tiers in Public Health, 4. https://​doi​.org/​1​0​.​3​3​8​9​/​f​p​u​b​h​.​2​0​1​6​.​00107

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don