neuroscienceEtSociete_05curiosite
π Société
Comment les neurosciences transforment notre rapport à l’intelligence

Dans le cerveau d’une IA : de la curiosité à l’autonomie

Agnès Vernet, journaliste scientifique
Le 18 février 2021 |
4 mins de lecture
4
Dans le cerveau d’une IA : de la curiosité à l’autonomie
Pierre-Yves Oudeyer
Pierre-Yves Oudeyer
directeur du laboratoire de recherche FLOWERS de l'Ensta Paris (IP Paris) et Inria
En bref
  • La recherche en intelligence artificielle se nourrit de sciences cognitives et la neurobiologie progresse grâce aux modélisations algorithmiques.
  • La curiosité, que les psychologues appellent la « motivation intrinsèque », est nécessaire à l’apprentissage autonome chez les enfants.
  • Pour le Pr. Pierre-Yves Oudeyer, ce mécanisme est également applicable aux machines.
  • Ses travaux explorent donc la façon dont on peut s'inspirer de la cognition humaine pour améliorer l’intelligence artificielle… et vice-versa.

Com­ment mesure-t-on l’intelligence d’une intel­li­gence artificielle ? 

Ce n’est pas évi­dent, car le terme d’« intel­li­gence arti­fi­cielle » est util­isé par le grand pub­lic pour désign­er les objets dévelop­pés au sein de ce champ de recherche, comme les logi­ciels équipés de sys­tème d’ap­pren­tis­sage. En fait, l’in­tel­li­gence arti­fi­cielle n’est pas une chose, mais un domaine de recherche qui essaie de mod­élis­er cer­taines fonc­tions de la pen­sée humaine comme la mémoire, le raison­nement, l’ap­pren­tis­sage ou le lan­gage. Donc on ne peut pas en mesur­er l’intelligence.

En plus, la notion d’in­tel­li­gence n’a pas de sens de manière générale. On ne peut pas dire qu’un ver de terre est plus bête qu’un humain. Chaque être vivant a des car­ac­téris­tiques com­porte­men­tales, mor­phologiques qui sont le résul­tat d’un proces­sus évo­lu­tif lié à son envi­ron­nement. Les vers de terre arrivent à trou­ver de la nour­ri­t­ure dans la terre. Et, dans leur écosys­tème, les êtres humains entre­ti­en­nent des échanges soci­aux, lin­guis­tiques ou cul­turels avec leurs con­génères. Un ver de terre dans notre écosys­tème ne saurait pas faire grand-chose et un humain ne ferait pas mieux dans la terre. 

Les objets tech­nologiques sont aus­si dévelop­pés dans un con­texte par­ti­c­uli­er. On ne peut pas dire des sys­tèmes de recon­nais­sance vocale des smart­phones qu’ils sont bêtes parce qu’ils ne com­pren­nent pas le sens des phras­es qu’ils tran­scrivent. Ils n’ont pas été entrainés pour ça, cela ne fait pas par­tie de leur écosystème. 

Ce logi­ciel retran­scrit et apprend, ne pour­rait-il pas aus­si comprendre ? 

Fon­da­men­tale­ment le sens que nous asso­cions à une phrase est incar­né, il est inter­prété au regard des expéri­ences sen­sorielles et motri­ces de notre corps dans son envi­ron­nement. Si une machine n’a pas accès à un corps pour inter­a­gir physique­ment avec notre monde, elle n’a aucune chance d’in­ter­préter des phras­es comme nous. 

Par con­tre, on peut entrain­er les mod­èles de lan­gage avec de gross­es bases de texte. Ils peu­vent alors repér­er des régu­lar­ités sta­tis­tiques et faire des choses éton­nantes, comme répon­dre à une ques­tion sim­ple, en prédis­ant les struc­tures de phras­es asso­ciées à un con­texte. Ces out­ils sont très utiles dans le monde indus­triel, pour les inter­faces homme-machine, où cette dernière doit inter­préter une instruc­tion en fonc­tion du con­texte. Pour faire cela, elle n’a pas for­cé­ment besoin de com­pren­dre les phras­es comme les humains. 

Vous décrivez dans vos recherch­es que, chez l’hu­main, une par­tie de l’ap­pren­tis­sage est poussé par la curiosité. Peut-on implé­menter cela dans un logiciel ?

C’est le cœur des travaux de mon équipe de recherche. Nous étu­dions les mécan­ismes de la curiosité, ce que les psy­cho­logues appel­lent la « moti­va­tion intrin­sèque ». Chez les êtres vivants, ils per­me­t­tent un appren­tis­sage autonome. Nous dévelop­pons des mod­èles algo­rith­miques de la curiosité afin d’é­clair­er les mécan­ismes en jeu, comme l’ex­plo­ration spon­tanée. Celle-ci joue un rôle fon­da­men­tal dans le développe­ment sen­soriel, cog­ni­tif et moteur des humains. 

Nous testons ensuite nos théories auprès de volon­taires ou de machines. Nous nous sommes ain­si aperçus que pour explor­er effi­cace­ment un envi­ron­nement, un robot doit priv­ilégi­er les espaces où il pro­gresse le plus, c’est-à-dire ceux où la dif­férence entre sa pré­dic­tion et la réal­ité tend à se réduire. Par exem­ple, il a intérêt à jouer préféren­tielle­ment avec un objet avec lequel il pro­gresse au fil de sa manip­u­la­tion, plutôt qu’avec ceux qu’il maitrise immé­di­ate­ment ou au con­traire qu’il n’arrive pas du tout à utilis­er. Nous avons mon­tré de manière théorique que cette stratégie est effi­cace pour des robots. Savoir si les humains utilisent cette mesure de pro­grès pour guider leur explo­ration reste une ques­tion ouverte.

Pour­tant cette mesure du pro­grès pour­rait expli­quer la ten­dance des humains à préfér­er les activ­ités où ils ont des facil­ités à appren­dre, non ?

Oui. Le mécan­isme d’ex­plo­ration en fonc­tion du pro­grès entraine un effet boule de neige : au fil de l’exploration d’une activ­ité, ini­tiée par hasard ou à cause de con­tin­gences, on développe cer­tains savoir-faire ou con­nais­sances qui faciliteront l’ap­pren­tis­sage d’autres activ­ités du même genre. Cela va nous encour­ager à aller dans cette direc­tion. Cet aspect est aus­si lié au plaisir que le cerveau génère quand il explore des activ­ités nou­velles et qu’il apprend.

Cette hypothèse fon­da­men­tale explique une telle diver­sité dans des tra­jec­toires d’apprentissage des indi­vidus. Pour la con­firmer, nous avons com­paré les com­porte­ments de volon­taires adultes à ceux prédits par notre mod­èle numérique. Ces analy­ses ont mon­tré que le pro­grès d’ap­pren­tis­sage et la mesure de per­for­mances de chaque tâche sont des mesures util­isées par les humains pour guider leur explo­ration, mais de manière dif­férente : la com­bi­nai­son de ces dif­férences et de l’effet boule de neige men­tion­né plus haut explique ain­si la diver­sité des par­cours d’apprentissage entre individus. 

Ce mod­èle améliore-t-il les machines ?

Nos théories peu­vent par­fois être inté­grées dans des machines pour les ren­dre plus flex­i­bles. Mais le com­porte­ment d’ex­plo­ration des humains n’est pas for­cé­ment le plus opti­mal. Par exem­ple, pour les robots des­tinés à explor­er de manière autonome les fonds océaniques ou la planète Mars, on peut préfér­er d’autres mécaniques de curiosité, ne serait-ce que pour éviter au max­i­mum que la machine ne fasse des choix dangereux. 

Ce sont aus­si des out­ils pour aider les humains à mieux apprendre ?

Il y a en effet des appli­ca­tions dans le domaine de l’é­d­u­ca­tion. Nous avons conçu un logi­ciel qui per­son­nalise des séquences d’ex­er­ci­ces en math­é­ma­tiques pour des élèves. Il s’agit de pro­pos­er à chaque enfants une série qui opti­mise à la fois son appren­tis­sage et sa moti­va­tion. On sait que cette dernière est un fac­teur d’échec sco­laire impor­tant. Les dimen­sions moti­va­tion­nelles inci­tent à per­sévér­er et à faire des efforts. Grâce à nos mod­èles de curiosité, nous avons dévelop­pé des algo­rithmes qui inter­agis­sent avec chaque enfant et pro­posent des séries d’exercices moti­vants selon son pro­fil. Dans un pro­jet précé­dent, Kidlearn, nous avons mon­tré qu’en moyenne les propo­si­tions de notre logi­ciel fai­saient pro­gress­er une plus grande diver­sité d’élèves, y com­pris ceux avec beau­coup de dif­fi­cultés ou de facil­ités, que celles d’un expert en didac­tique. Ce gain était asso­cié à un degré de moti­va­tion intrin­sèque plus élevé. Nous tra­vail­lons aujourd’hui avec un con­sor­tium d’industriels du domaine des edTech afin de trans­fér­er cette approche dans un sys­tème numérique édu­catif des­tiné à être util­isé à grande échelle dans les écoles pri­maires en France (c’est le pro­jet Adaptiv’Maths).  Ma col­lègue Hélène Sauzéon mon­tre même que ce sys­tème facilite l’apprentissage d’enfants souf­frant de trou­bles du développe­ment de type autistique.