Accueil / Chroniques / Mieux comprendre la mémoire de court terme grâce à la plasticité neuronale
Artistic depiction of a brain with gears and cogs inside, representing the workings of advertising strategies and campaigns
π Neurosciences

Mieux comprendre la mémoire de court terme grâce à la plasticité neuronale

David Clark
David Clark
doctorant en neurobiologie et comportement à l'Université de Columbia
En bref
  • Les synapses, et non les neurones, jouent le rôle principal dans la mémoire de travail.
  • Pour simplifier l’analyse des réseaux neuronaux, les premières études considéraient les neurones comme « fixes », occultant ainsi la plasticité synaptique.
  • Des chercheurs de l'Université de Columbia ont actualisé la théorie en incluant la dynamique synaptique et neuronale.
  • Ils ont découvert que la dynamique synaptique peut moduler le comportement global des réseaux neuronaux, accélérant ou ralentissant l'activité neuronale.
  • Un nouveau comportement, appelé « chaos figé », a été identifié, où les synapses créent des schémas fixes d'activité neuronale, potentiellement cruciaux pour la mémoire de travail.
  • Ce modèle est encore perfectible : les neuroscientifiques souhaitent dorénavant intégrer certaines propriétés biologiques du cerveau pour le rendre plus réaliste.

Quel rôle jouent les neu­rones et les synapses dans la mémoire de tra­vail ? Une ques­tion qui a long­temps été pon­dé­rée par les neu­ros­cien­ti­fiques. Jusqu’à pré­sent, on pen­sait que l’ac­ti­vi­té neu­ro­nale domi­nait, les synapses n’in­ter­ve­nant que dans les pro­ces­sus plus lents d’ap­pren­tis­sage et de mémo­ri­sa­tion. Mais des cher­cheurs de l’U­ni­ver­si­té de Colum­bia, aux États-Unis, ont mis au point un nou­veau cadre théo­rique qui pré­dit que ce seraient les synapses, plu­tôt que les neu­rones, qui sont les plus impor­tantes. Ce nou­veau modèle pour­rait ain­si conduire à un autre méca­nisme pour la mémoire de tra­vail dans le cer­veau, affirment-ils.

Le cer­veau humain est consti­tué d’en­vi­ron 100 mil­liards de neu­rones. Cha­cun d’entre eux reçoit des signaux élec­triques d’autres neu­rones par l’in­ter­mé­diaire de mil­liers de connexions minus­cules appe­lées synapses. Lorsque la somme des signaux émis par les synapses dépasse un cer­tain seuil, un neu­rone « se déclenche » en envoyant une série de pics de ten­sion à un grand nombre d’autres neu­rones. Les neu­rones sont donc « excitables ».

La force des inter­ac­tions entre les neu­rones peut éga­le­ment chan­ger avec le temps. Ce pro­ces­sus, appe­lé plas­ti­ci­té synap­tique, joue­rait un rôle cru­cial dans l’apprentissage.

Avec et sans plasticité

Pour sim­pli­fier les choses, les pre­mières études dans ce domaine consi­dé­raient que les réseaux neu­ro­naux étaient dépour­vus de plas­ti­ci­té. Elles sup­po­saient que la connec­ti­vi­té synap­tique était fixe. Les cher­cheurs ana­ly­saient donc com­ment cette connec­ti­vi­té façon­nait l’ac­ti­vi­té col­lec­tive des neu­rones. Bien qu’elle ne soit pas réa­liste, cette approche a per­mis de com­prendre les prin­cipes de base de ces réseaux et leur fonctionnement.

David Clark, doc­to­rant en neu­ro­bio­lo­gie et com­por­te­ment à l’U­ni­ver­si­té de Colum­bia, et Lar­ry Abbott, son direc­teur de thèse, ont main­te­nant éten­du ce modèle aux synapses plas­tiques. Cela rend le sys­tème plus com­plexe – et plus réa­liste – car l’ac­ti­vi­té neu­ro­nale peut désor­mais façon­ner dyna­mi­que­ment la connec­ti­vi­té entre les synapses.

Les cher­cheurs ont uti­li­sé un outil mathé­ma­tique connu sous le nom de « théo­rie du champ moyen dyna­mique » pour réduire les équa­tions de réseau « à haute dimen­sion » du modèle ori­gi­nal à une des­crip­tion sta­tis­tique « à basse dimen­sion ». En bref, ils ont modi­fié la théo­rie pour inclure la dyna­mique synap­tique et neu­ro­nale. Cela leur a per­mis de déve­lop­per un modèle plus simple qui intègre plu­sieurs fac­teurs majeurs impli­qués dans les réseaux neu­ro­naux plas­tiques. « Le prin­ci­pal défi consis­tait à cap­tu­rer toute la dyna­mique des neu­rones et des synapses tout en conser­vant un modèle ana­ly­ti­que­ment soluble », explique David Clark.

La dynamique synaptique devient importante

Les cher­cheurs ont consta­té que lorsque la dyna­mique synap­tique et la dyna­mique neu­ro­nale se pro­duisent à une échelle de temps simi­laire, la dyna­mique synap­tique façonne gran­de­ment le com­por­te­ment glo­bal d’un réseau neu­ro­nal. Leurs ana­lyses ont éga­le­ment mon­tré que la dyna­mique synap­tique peut accé­lé­rer ou ralen­tir la dyna­mique neu­ro­nale, et donc ren­for­cer ou sup­pri­mer l’ac­ti­vi­té chao­tique des neurones.

Ils ont sur­tout décou­vert un nou­veau type de com­por­te­ment qui appa­raît lorsque les synapses génèrent des sché­mas fixes d’ac­ti­vi­té neu­ro­nale dans les réseaux. Ces sché­mas appa­raissent quand la plas­ti­ci­té est momen­ta­né­ment désac­ti­vée, ce qui a pour effet de « figer » les états des neu­rones. Ce « chaos figé », comme l’ont appe­lé les cher­cheurs, peut aider à sto­cker des infor­ma­tions dans le cer­veau et s’ap­pa­rente au fonc­tion­ne­ment de la mémoire de travail.

Le défi scien­ti­fique de notre étude consis­tait à tra­duire cette intui­tion en équa­tions et en résultats.

« Ce sujet de recherche est né lorsque Lar­ry Abbot a évo­qué, quand nous dis­cu­tions dans son bureau, l’i­dée que les synapses dyna­miques jouent un rôle tout aus­si impor­tant dans le cal­cul neu­ro­nal que les neu­rones eux-mêmes », explique David Clark. « J’ai trou­vé cette idée très inté­res­sante, car elle ren­verse la vision habi­tuelle des neu­rones en tant qu’u­ni­tés dyna­miques, les synapses n’é­tant impli­quées que dans les pro­ces­sus plus lents de l’ap­pren­tis­sage et de la mémo­ri­sa­tion. Le défi scien­ti­fique de notre étude consis­tait à tra­duire cette intui­tion en équa­tions et en résul­tats. »

Le nou­veau modèle four­nit un nou­veau méca­nisme pos­sible pour la mémoire de tra­vail, ajoute-t-il. « Plus géné­ra­le­ment, nous dis­po­sons désor­mais d’un modèle soluble de dyna­mique neu­ro­nale et synap­tique cou­plé qui pour­rait être éten­du, par exemple, à la modé­li­sa­tion de la conso­li­da­tion de la mémoire à court terme en mémoire à long terme. »

David Clark et Lar­ry Abbott espèrent main­te­nant rendre leur modèle plus réa­liste en y inté­grant cer­taines pro­prié­tés bio­lo­giques du cer­veau, notam­ment les pics de ten­sion dis­crets par les­quels les neu­rones com­mu­niquent. D’autres carac­té­ris­tiques impor­tantes, comme le fait que les neu­rones sont orga­ni­sés en connexions spé­ci­fi­que­ment struc­tu­rées, devront éga­le­ment être prises en compte, ajoutent-ils.

Propos recueillis par Isabelle Dumé

Réfé­rence : D. G. Clark and L. F. Abbott, “Theo­ry of cou­pled neu­ro­nal-synap­tic dyna­mics,” Phys. Rev. X 14, 021001 (2024).

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don