Accueil / Chroniques / Résilience cognitive face aux crises complexes : l’enjeu de la « gamification »
Généré par l'IA / Generated using AI
π Science et technologies π Géopolitique

Résilience cognitive face aux crises complexes : l’enjeu de la « gamification »

Jean LANGLOIS-BERTHELOT
Jean Langlois-Berthelot
docteur en mathématiques appliquées
Christophe Gaie
Christophe Gaie
chef de division ingénierie et innovation numérique au sein des services du Premier ministre
En bref
  • La résilience cognitive correspond à la capacité à garder son sang-froid, à s’adapter et à prendre de meilleures décisions en situation de stress et de surcharge d’information.
  • Les méthodes classiques d’entrainement à la résilience cognitive montrent leurs limites, il est nécessaire de moderniser ces outils pour mieux se préparer.
  • Pour ce faire, la simulation et la ludification permettent des expériences plus dynamiques, interactives, et davantage proches des conditions de complexité actuelles des crises.
  • La ludification offre un cadre qui stimule la complexité cognitive obligeant à prendre des décisions dans des environnements incertains.
  • Cependant, le développement de ces technologies soulève des questions éthiques et déontologiques, comme la protection des données et une utilisation des données sans dérives manipulatrices ou de conditionnement.

Face à l’accélération des crises inter­na­tio­nales de plus en plus com­plexes et incer­taines, la ques­tion de la rési­lience cog­ni­tive est deve­nue cen­trale. Ce concept, qui désigne la capa­ci­té à gar­der son sang-froid, à s’adapter et à prendre les meilleures déci­sions en situa­tion de stress, de sur­charge d’informations ain­si que d’ambiguïté, est désor­mais un enjeu majeur pour les déci­deurs, mili­taires comme civils.

Mal­heu­reu­se­ment, les méthodes clas­siques d’entraînement repo­sant sur des pro­cé­dures figées et des scé­na­rios rela­ti­ve­ment pré­vi­sibles montrent leurs limites. Elles ne reflètent pas suf­fi­sam­ment la réa­li­té mou­vante, par­fois chao­tique, dans laquelle les acteurs doivent évo­luer aujourd’hui. C’est là que la simu­la­tion et la ludi­fi­ca­tion — aus­si nom­mée gami­fi­ca­tion —   entrent en jeu, en pro­po­sant des expé­riences plus dyna­miques, inter­ac­tives et sur­tout plus proches de la com­plexi­té réelle des crises1.

L’insuffisance des simulateurs traditionnels

La for­ma­tion à la ges­tion de crise s’est appuyée sur des simu­la­teurs conçus pour repro­duire des situa­tions plu­tôt linéaires, où les résul­tats sont rela­ti­ve­ment pré­vi­sibles. Cette approche est effi­cace quand il s’agit d’apprendre des pro­cé­dures ou des réflexes, mais s’avère insuf­fi­sante pour pré­pa­rer aux crises hybrides, cyber, ou aux conflits asy­mé­triques où l’information est incom­plète, brouillée voire contra­dic­toire. Que fau­drait-il faire si des attaques frap­paient simul­ta­né­ment plu­sieurs infra­struc­tures vitales comme les sec­teurs éner­gé­tiques2, les télé­com­mu­ni­ca­tions3et le domaine infor­ma­tion­nel4 ?

Dans ces condi­tions, la prise de déci­sion devient un véri­table défi cog­ni­tif, influen­cé par la charge men­tale et les émo­tions, ain­si que par des biais par­fois incons­cients5. Ces aspects humains, essen­tiels, sont trop sou­vent absents des for­ma­tions clas­siques, ce qui limite leur effi­ca­ci­té dans des situa­tions impré­vi­sibles6. Il est donc néces­saire de moder­ni­ser les outils à notre dis­po­si­tion pour mieux se préparer.

Les grandes puissances à la pointe des technologies cognitives

Pour répondre à ces défis, plu­sieurs pays ont déve­lop­pé des solu­tions inno­vantes. Aux États-Unis, par exemple, la DARPA (Defense Advan­ced Research Pro­jects Agen­cy, un orga­nisme de recherche et de déve­lop­pe­ment de tech­no­lo­gies mili­taires), mise sur des simu­la­teurs immer­sifs qui intègrent des cap­teurs bio­mé­triques pour mesu­rer en temps réel la charge cog­ni­tive et l’état émo­tion­nel des opé­ra­teurs. Cela per­met d’ajuster auto­ma­ti­que­ment la dif­fi­cul­té des exer­cices et d’offrir un entraî­ne­ment per­son­na­li­sé7.

En Chine, l’approche est encore plus ambi­tieuse, avec le déve­lop­pe­ment d’interfaces cer­veau-machine visant à aug­men­ter direc­te­ment les capa­ci­tés cog­ni­tives, comme la vigi­lance ou la mémoire, dans des envi­ron­ne­ments simu­lés très com­plexes8. En Europe, on observe une démarche plus inter­dis­ci­pli­naire, com­bi­nant intel­li­gence arti­fi­cielle, sciences cog­ni­tives et ana­lyse sociale pour mieux modé­li­ser la prise de déci­sion humaine en crise9. Mais, l’intégration de ces recherches dans les sys­tèmes de for­ma­tion reste encore à généraliser.

Le déve­lop­pe­ment de ces tech­no­lo­gies sou­lève des ques­tions éthiques et déon­to­lo­giques, comme l’u­ti­li­sa­tion et la pro­tec­tion des données.

Néan­moins, le déve­lop­pe­ment de ces tech­no­lo­gies sou­lève des ques­tions éthiques et déon­to­lo­giques cru­ciales. Il est impé­ra­tif de garan­tir la pro­tec­tion des don­nées et de s’as­su­rer que ces outils d’aug­men­ta­tion cog­ni­tive sont uti­li­sés dans un cadre éthique strict, sans dérive mani­pu­la­trice ou condi­tion­nante et, dans l’intérêt des citoyens, c’est-à-dire non exclu­si­ve­ment à des fins com­mer­ciales ou mili­taires10.

Ludification : plus qu’un simple outil ludique

La ludi­fi­ca­tion est par­fois per­çue comme une manière de rendre l’apprentissage plus fun, mais son poten­tiel va bien au-delà. Quand elle est bien conçue, elle offre un cadre qui simule la com­plexi­té cog­ni­tive, obli­geant les par­ti­ci­pants à prendre des déci­sions dans des envi­ron­ne­ments incer­tains, avec des consé­quences qui peuvent être impré­vi­sibles11. Ces serious games, notam­ment ceux qui pro­posent des scé­na­rios à embran­che­ments mul­tiples, sont des ter­rains d’entraînement effi­caces pour déve­lop­per la capa­ci­té d’adaptation, la ges­tion du stress et la prise de déci­sion sous pres­sion12. Dans la for­ma­tion aux crises cyber, par exemple, leur effi­ca­ci­té a été confir­mée par plu­sieurs études13.

De plus, l’in­té­gra­tion de l’in­tel­li­gence arti­fi­cielle géné­ra­tive dans la concep­tion de ces serious games ouvre la voie à des scé­na­rios encore plus dyna­miques, où l’IA peut géné­rer des évé­ne­ments, des per­son­nages ou des rebon­dis­se­ments en temps réel, ren­dant chaque ses­sion d’en­traî­ne­ment unique et exi­geant une adap­ta­bi­li­té cog­ni­tive accrue14.

Les innovations françaises : un travail discret mais concret

Entre 2022 et 2024, la SRAT (Sys­tem Risk Assess­ment and Tech­no­lo­gy) a mené plu­sieurs tra­vaux qui illus­trent par­fai­te­ment cette dyna­mique. Cette équipe a déve­lop­pé un simu­la­teur basé sur le moteur Uni­ty, recréant un centre de ges­tion de crise en zone conflic­tuelle où les déci­sions des uti­li­sa­teurs influencent le dérou­le­ment, intro­dui­sant ain­si la notion d’incertitude et d’imprévisibilité. Cou­plé à une inter­face élec­troen­cé­pha­lo­gra­phie (EEG), ce simu­la­teur mesure en temps réel la charge cog­ni­tive et les émo­tions des uti­li­sa­teurs, offrant un retour pré­cieux sur leurs méca­nismes de déci­sion. En paral­lèle, la SRAT a tra­vaillé sur le pro­jet C‑RAND, un bench­mark des tech­no­lo­gies émer­gentes en inter­faces cyber-cog­ni­tives, en col­la­bo­ra­tion avec l’Armée de Terre. Ce tra­vail a per­mis de sélec­tion­ner les solu­tions les plus adap­tées pour les inté­grer dans les sys­tèmes d’entraînement et d’opérations15.

Un autre pro­jet mar­quant est le déve­lop­pe­ment d’un serious game numé­rique en HTML, uti­li­sé à la fois pour la for­ma­tion d’étudiants en Mas­ter et d’officiers de l’École Mili­taire Inter­armes. Ce jeu met en scène une crise cyber aux rami­fi­ca­tions mul­tiples, obli­geant à gérer la sur­charge d’information et à prendre des déci­sions rapides et per­ti­nentes. Les retours d’expérience montrent une amé­lio­ra­tion notable des capa­ci­tés d’adaptation et de ges­tion du stress16. Enfin, la SRAT a dis­pen­sé plus de 100 heures d’enseignement mêlant intel­li­gence arti­fi­cielle, sciences cog­ni­tives et stra­té­gie au sein de l’Enseignement Mili­taire Supé­rieur Scien­ti­fique et Tech­nique (EMSST), pré­pa­rant ain­si les futurs cadres aux défis cog­ni­tifs des crises contemporaines.

La simu­la­tion et la ludi­fi­ca­tion sont des outils stra­té­giques capables de trans­for­mer la for­ma­tion et d’augmenter la rési­lience cog­ni­tive des décideurs. 

Pour maxi­mi­ser l’im­pact de ces outils sur la for­ma­tion des appre­nants, le rôle du débrie­fing et du retour d’ex­pé­rience struc­tu­ré est cru­cial. L’a­na­lyse post-simu­la­tion, où les don­nées col­lec­tées (charge cog­ni­tive, émo­tions, déci­sions) sont uti­li­sées pour un feed­back per­son­na­li­sé, per­met aux par­ti­ci­pants de com­prendre leurs biais et d’in­té­grer dura­ble­ment les apprentissages.

Vers une souveraineté cognitive renforcée

Ces dif­fé­rentes approches montrent clai­re­ment que simu­la­tion et ludi­fi­ca­tion ne sont pas de simples gad­gets, mais des outils stra­té­giques capables de trans­for­mer la for­ma­tion et d’augmenter la rési­lience cog­ni­tive des déci­deurs. Dans un monde où l’information est un levier de pou­voir et où la rapi­di­té de déci­sion peut faire la dif­fé­rence entre suc­cès et échec, il devient essen­tiel de ren­for­cer cette capa­ci­té d’adaptation et de prise de déci­sion sous stress17. La sou­ve­rai­ne­té cog­ni­tive, au même titre que la sou­ve­rai­ne­té tech­no­lo­gique, est désor­mais un enjeu de sécu­ri­té nationale.

Il est éga­le­ment impor­tant de consi­dé­rer que la rési­lience cog­ni­tive n’est pas uni­que­ment l’a­pa­nage des déci­deurs ; une approche ouverte à chaque citoyen per­met­trait de sen­si­bi­li­ser et pré­pa­rer un public plus large aux défis cog­ni­tifs des crises contem­po­raines (dés­in­for­ma­tion, rumeurs, urgences). Dans le contexte actuel d’attaques hybrides visant à dés­in­for­mer, à atti­ser les haines et à bri­ser la cohé­sion natio­nale, l’éveil des esprits consti­tue un levier puis­sant de résis­tance à développer.

Mais il ne s’agit pas seule­ment de tech­no­lo­gie. La rési­lience cog­ni­tive est un pro­ces­sus com­plexe qui demande une approche inté­grée, mêlant tech­no­lo­gie, com­pré­hen­sion humaine et péda­go­gie adap­tée. Les tra­vaux de la SRAT en France montrent la voie, avec une approche prag­ma­tique, rigou­reuse et proche des besoins réels des forces armées. L’enjeu est désor­mais d’assurer la dif­fu­sion et l’adoption à plus grande échelle de ces inno­va­tions, pour que la for­ma­tion cog­ni­tive devienne une réa­li­té opé­ra­tion­nelle et un atout dans la ges­tion des crises de demain.

La simu­la­tion et la ludi­fi­ca­tion ouvrent des pers­pec­tives pas­sion­nantes pour rele­ver le défi de la rési­lience cog­ni­tive. Plus que jamais, il faut pen­ser ces outils comme des leviers indis­pen­sables pour pré­pa­rer les déci­deurs aux réa­li­tés com­plexes et incer­taines des crises modernes. La com­bi­nai­son des pro­grès tech­no­lo­giques avec une approche cen­trée sur l’humain est la clé pour construire une véri­table sou­ve­rai­ne­té cog­ni­tive, garante d’efficacité et de sécu­ri­té dans un monde en muta­tion rapide.

1Salas, E., Bowers, C. A., & Rho­de­ni­zer, L. (2017). It is not how much you prac­tice, but how you prac­tice : Toward a new para­digm in trai­ning research. Psy­cho­lo­gi­cal Science, 8(4), 270–276.
2IT-Pro. (2025, April 9). Menaces cyber sur le sec­teur éner­gé­tique euro­péen ! iTPro​.fr. https://​www​.itpro​.fr/​m​e​n​a​c​e​s​-​c​y​b​e​r​-​s​u​r​-​l​e​-​s​e​c​t​e​u​r​-​e​n​e​r​g​e​t​i​q​u​e​-​e​u​r​o​peen/
3Les Echos (2024, Novem­ber 18). Câble télé­com rom­pu : Ber­lin et Hel­sin­ki évoquent la « guerre hybride » et la menace russe. Les Echos. https://​www​.lese​chos​.fr/​m​o​n​d​e​/​e​n​j​e​u​x​-​i​n​t​e​r​n​a​t​i​o​n​a​u​x​/​c​a​b​l​e​-​t​e​l​e​c​o​m​-​r​o​m​p​u​-​b​e​r​l​i​n​-​e​t​-​h​e​l​s​i​n​k​i​-​e​v​o​q​u​e​n​t​-​l​a​-​g​u​e​r​r​e​-​h​y​b​r​i​d​e​-​e​t​-​l​a​-​m​e​n​a​c​e​-​r​u​s​s​e​-​2​1​32308
4Mar­tin, O. (2024, July 25). Cam­pagnes de dés­in­for­ma­tion, cybe­rat­taques, ingé­rences… le com­bat hybride a déjà com­men­cé, à nous d’y faire face. Le Figa­ro. https://​www​.lefi​ga​ro​.fr/​v​o​x​/​m​o​n​d​e​/​l​e​-​c​o​m​b​a​t​-​h​y​b​r​i​d​e​-​a​-​d​e​j​a​-​c​o​m​m​e​n​c​e​-​a​-​n​o​u​s​-​d​-​y​-​f​a​i​r​e​-​f​a​c​e​-​2​0​2​40725
5Kah­ne­man, D. (2011). Thin­king, fast and slow. Far­rar, Straus and Giroux.
6Para­su­ra­man, R., & Riley, V. (1997). Humans and auto­ma­tion : Use, misuse, disuse, abuse. Human Fac­tors, 39(2), 230–253.
7Gon­za­lez, C., & al. (2021). Adap­tive cog­ni­tive work­load assess­ment using EEG and eye tra­cking in cri­sis simu­la­tions. Neu­roI­mage, 236, 118070.
8Wang, Y., Li, X., & Zhang, Y. (2022). Brain-com­pu­ter inter­faces for enhan­cing cog­ni­tive per­for­mance : A review. Fron­tiers in Neu­ros­cience, 16, 987654.
9Bour­rier, M., & Béna­ben, F. (2021). Cog­ni­tive sys­tems and cri­sis mana­ge­ment : An inte­gra­tive fra­me­work. Cog­ni­tion, Tech­no­lo­gy & Work, 23(1), 15–29.
10Shults, F.L., Wild­man, W.J. (2019). Ethics, Com­pu­ter Simu­la­tion, and the Future of Huma­ni­ty. In : Dial­lo, S., Wild­man, W., Shults, F., Tolk, A. (eds) Human Simu­la­tion : Pers­pec­tives, Insights, and Appli­ca­tions. New Approaches to the Scien­ti­fic Stu­dy of Reli­gion, vol 7. Sprin­ger, Cham. https://doi.org/10.1007/978–3‑030–17090-5_2
11Michael, D., & Chen, S. (2006). Serious games : Games that edu­cate, train, and inform. Mus­ka & Lip­man/­Pre­mier-Trade.
12Connol­ly, T. M., Boyle, E. A., MacAr­thur, E., Hai­ney, T., & Boyle, J. M. (2012). A sys­te­ma­tic lite­ra­ture review of empi­ri­cal evi­dence on com­pu­ter games and serious games. Com­pu­ters & Edu­ca­tion, 59(2), 661–686.
13Ander­son, J., & Rai­nie, L. (2021). The future of cri­sis simu­la­tion and trai­ning. Jour­nal of Cog­ni­tive Engi­nee­ring and Deci­sion Making, 15(2), 90–108.
14Eun S‑J., Eun J. K., Kim, JY., Arti­fi­cial intel­li­gence-based per­so­na­li­zed serious game for enhan­cing the phy­si­cal and cog­ni­tive abi­li­ties of the elder­ly, Future Gene­ra­tion Com­pu­ter Sys­tems, Volume 141, 2023, Pages 713–722, ISSN 0167–739X, https://​doi​.org/​1​0​.​1​0​1​6​/​j​.​f​u​t​u​r​e​.​2​0​2​2​.​1​2.017.
15Lan­glois-Ber­the­lot, L. (2024). Syn­thèse des inno­va­tions en inter­faces cyber-cog­ni­tives pour l’Armée de Terre. SRAT
16Lan­glois-Ber­the­lot, L. (2023). Rap­port interne sur la simu­la­tion et la gami­fi­ca­tion dans la ges­tion de crise. SRAT
17Woods, D. D., & Holl­na­gel, E. (2019). Resi­lience engi­nee­ring : Concepts and pre­cepts. CRC Press.

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don à Polytechnique Insights