neuroscienceEtSociete_05curiosite
π Société π Neurosciences
Comment les neurosciences transforment notre rapport à l’intelligence

Dans le cerveau d’une IA : de la curiosité à l’autonomie

par Agnès Vernet, journaliste scientifique
Le 18 février 2021 |
4min. de lecture
Pierre-Yves Oudeyer
Pierre-Yves Oudeyer
directeur du laboratoire de recherche FLOWERS de l'Ensta Paris (IP Paris) et Inria
En bref
  • La recherche en intelligence artificielle se nourrit de sciences cognitives et la neurobiologie progresse grâce aux modélisations algorithmiques.
  • La curiosité, que les psychologues appellent la « motivation intrinsèque », est nécessaire à l’apprentissage autonome chez les enfants.
  • Pour le Pr. Pierre-Yves Oudeyer, ce mécanisme est également applicable aux machines.
  • Ses travaux explorent donc la façon dont on peut s'inspirer de la cognition humaine pour améliorer l’intelligence artificielle… et vice-versa.

Com­ment mesure-t-on l’intelligence d’une intel­li­gence artificielle ? 

Ce n’est pas évident, car le terme d’« intel­li­gence arti­fi­cielle » est uti­li­sé par le grand public pour dési­gner les objets déve­lop­pés au sein de ce champ de recherche, comme les logi­ciels équi­pés de sys­tème d’ap­pren­tis­sage. En fait, l’in­tel­li­gence arti­fi­cielle n’est pas une chose, mais un domaine de recherche qui essaie de modé­li­ser cer­taines fonc­tions de la pen­sée humaine comme la mémoire, le rai­son­ne­ment, l’ap­pren­tis­sage ou le lan­gage. Donc on ne peut pas en mesu­rer l’intelligence.

En plus, la notion d’in­tel­li­gence n’a pas de sens de manière géné­rale. On ne peut pas dire qu’un ver de terre est plus bête qu’un humain. Chaque être vivant a des carac­té­ris­tiques com­por­te­men­tales, mor­pho­lo­giques qui sont le résul­tat d’un pro­ces­sus évo­lu­tif lié à son envi­ron­ne­ment. Les vers de terre arrivent à trou­ver de la nour­ri­ture dans la terre. Et, dans leur éco­sys­tème, les êtres humains entre­tiennent des échanges sociaux, lin­guis­tiques ou cultu­rels avec leurs congé­nères. Un ver de terre dans notre éco­sys­tème ne sau­rait pas faire grand-chose et un humain ne ferait pas mieux dans la terre. 

Les objets tech­no­lo­giques sont aus­si déve­lop­pés dans un contexte par­ti­cu­lier. On ne peut pas dire des sys­tèmes de recon­nais­sance vocale des smart­phones qu’ils sont bêtes parce qu’ils ne com­prennent pas le sens des phrases qu’ils trans­crivent. Ils n’ont pas été entrai­nés pour ça, cela ne fait pas par­tie de leur écosystème. 

Ce logi­ciel retrans­crit et apprend, ne pour­rait-il pas aus­si comprendre ? 

Fon­da­men­ta­le­ment le sens que nous asso­cions à une phrase est incar­né, il est inter­pré­té au regard des expé­riences sen­so­rielles et motrices de notre corps dans son envi­ron­ne­ment. Si une machine n’a pas accès à un corps pour inter­agir phy­si­que­ment avec notre monde, elle n’a aucune chance d’in­ter­pré­ter des phrases comme nous. 

Par contre, on peut entrai­ner les modèles de lan­gage avec de grosses bases de texte. Ils peuvent alors repé­rer des régu­la­ri­tés sta­tis­tiques et faire des choses éton­nantes, comme répondre à une ques­tion simple, en pré­di­sant les struc­tures de phrases asso­ciées à un contexte. Ces outils sont très utiles dans le monde indus­triel, pour les inter­faces homme-machine, où cette der­nière doit inter­pré­ter une ins­truc­tion en fonc­tion du contexte. Pour faire cela, elle n’a pas for­cé­ment besoin de com­prendre les phrases comme les humains. 

Vous décri­vez dans vos recherches que, chez l’hu­main, une par­tie de l’ap­pren­tis­sage est pous­sé par la curio­si­té. Peut-on implé­men­ter cela dans un logiciel ?

C’est le cœur des tra­vaux de mon équipe de recherche. Nous étu­dions les méca­nismes de la curio­si­té, ce que les psy­cho­logues appellent la « moti­va­tion intrin­sèque ». Chez les êtres vivants, ils per­mettent un appren­tis­sage auto­nome. Nous déve­lop­pons des modèles algo­rith­miques de la curio­si­té afin d’é­clai­rer les méca­nismes en jeu, comme l’ex­plo­ra­tion spon­ta­née. Celle-ci joue un rôle fon­da­men­tal dans le déve­lop­pe­ment sen­so­riel, cog­ni­tif et moteur des humains. 

Nous tes­tons ensuite nos théo­ries auprès de volon­taires ou de machines. Nous nous sommes ain­si aper­çus que pour explo­rer effi­ca­ce­ment un envi­ron­ne­ment, un robot doit pri­vi­lé­gier les espaces où il pro­gresse le plus, c’est-à-dire ceux où la dif­fé­rence entre sa pré­dic­tion et la réa­li­té tend à se réduire. Par exemple, il a inté­rêt à jouer pré­fé­ren­tiel­le­ment avec un objet avec lequel il pro­gresse au fil de sa mani­pu­la­tion, plu­tôt qu’avec ceux qu’il mai­trise immé­dia­te­ment ou au contraire qu’il n’arrive pas du tout à uti­li­ser. Nous avons mon­tré de manière théo­rique que cette stra­té­gie est effi­cace pour des robots. Savoir si les humains uti­lisent cette mesure de pro­grès pour gui­der leur explo­ra­tion reste une ques­tion ouverte.

Pour­tant cette mesure du pro­grès pour­rait expli­quer la ten­dance des humains à pré­fé­rer les acti­vi­tés où ils ont des faci­li­tés à apprendre, non ?

Oui. Le méca­nisme d’ex­plo­ra­tion en fonc­tion du pro­grès entraine un effet boule de neige : au fil de l’exploration d’une acti­vi­té, ini­tiée par hasard ou à cause de contin­gences, on déve­loppe cer­tains savoir-faire ou connais­sances qui faci­li­te­ront l’ap­pren­tis­sage d’autres acti­vi­tés du même genre. Cela va nous encou­ra­ger à aller dans cette direc­tion. Cet aspect est aus­si lié au plai­sir que le cer­veau génère quand il explore des acti­vi­tés nou­velles et qu’il apprend.

Cette hypo­thèse fon­da­men­tale explique une telle diver­si­té dans des tra­jec­toires d’apprentissage des indi­vi­dus. Pour la confir­mer, nous avons com­pa­ré les com­por­te­ments de volon­taires adultes à ceux pré­dits par notre modèle numé­rique. Ces ana­lyses ont mon­tré que le pro­grès d’ap­pren­tis­sage et la mesure de per­for­mances de chaque tâche sont des mesures uti­li­sées par les humains pour gui­der leur explo­ra­tion, mais de manière dif­fé­rente : la com­bi­nai­son de ces dif­fé­rences et de l’effet boule de neige men­tion­né plus haut explique ain­si la diver­si­té des par­cours d’apprentissage entre individus. 

Ce modèle amé­liore-t-il les machines ?

Nos théo­ries peuvent par­fois être inté­grées dans des machines pour les rendre plus flexibles. Mais le com­por­te­ment d’ex­plo­ra­tion des humains n’est pas for­cé­ment le plus opti­mal. Par exemple, pour les robots des­ti­nés à explo­rer de manière auto­nome les fonds océa­niques ou la pla­nète Mars, on peut pré­fé­rer d’autres méca­niques de curio­si­té, ne serait-ce que pour évi­ter au maxi­mum que la machine ne fasse des choix dangereux. 

Ce sont aus­si des outils pour aider les humains à mieux apprendre ?

Il y a en effet des appli­ca­tions dans le domaine de l’é­du­ca­tion. Nous avons conçu un logi­ciel qui per­son­na­lise des séquences d’exer­cices en mathé­ma­tiques pour des élèves. Il s’agit de pro­po­ser à chaque enfants une série qui opti­mise à la fois son appren­tis­sage et sa moti­va­tion. On sait que cette der­nière est un fac­teur d’échec sco­laire impor­tant. Les dimen­sions moti­va­tion­nelles incitent à per­sé­vé­rer et à faire des efforts. Grâce à nos modèles de curio­si­té, nous avons déve­lop­pé des algo­rithmes qui inter­agissent avec chaque enfant et pro­posent des séries d’exercices moti­vants selon son pro­fil. Dans un pro­jet pré­cé­dent, Kid­learn, nous avons mon­tré qu’en moyenne les pro­po­si­tions de notre logi­ciel fai­saient pro­gres­ser une plus grande diver­si­té d’é­lèves, y com­pris ceux avec beau­coup de dif­fi­cul­tés ou de faci­li­tés, que celles d’un expert en didac­tique. Ce gain était asso­cié à un degré de moti­va­tion intrin­sèque plus éle­vé. Nous tra­vaillons aujourd’hui avec un consor­tium d’industriels du domaine des edTech afin de trans­fé­rer cette approche dans un sys­tème numé­rique édu­ca­tif des­ti­né à être uti­li­sé à grande échelle dans les écoles pri­maires en France (c’est le pro­jet Adaptiv’Maths).  Ma col­lègue Hélène Sau­zéon montre même que ce sys­tème faci­lite l’apprentissage d’enfants souf­frant de troubles du déve­lop­pe­ment de type autistique.

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don