Accueil / Chroniques / Résilience cognitive face aux crises complexes : l’enjeu de la « gamification »
Généré par l'IA / Generated using AI
π Science et technologies π Géopolitique

Résilience cognitive face aux crises complexes : l’enjeu de la « gamification »

Jean LANGLOIS-BERTHELOT
Jean Langlois-Berthelot
docteur en mathématiques appliquées et chef de division au sein de l'armée de Terre
Christophe Gaie
Christophe Gaie
chef de division ingénierie et innovation numérique au sein des services du Premier ministre
En bref
  • La résilience cognitive correspond à la capacité à garder son sang-froid, à s’adapter et à prendre de meilleures décisions en situation de stress et de surcharge d’information.
  • Les méthodes classiques d’entrainement à la résilience cognitive montrent leurs limites, il est nécessaire de moderniser ces outils pour mieux se préparer.
  • Pour ce faire, la simulation et la ludification permettent des expériences plus dynamiques, interactives, et davantage proches des conditions de complexité actuelles des crises.
  • La ludification offre un cadre qui stimule la complexité cognitive obligeant à prendre des décisions dans des environnements incertains.
  • Cependant, le développement de ces technologies soulève des questions éthiques et déontologiques, comme la protection des données et une utilisation des données sans dérives manipulatrices ou de conditionnement.

Face à l’accélération des crises inter­na­tio­nales de plus en plus com­plexes et incer­taines, la ques­tion de la rési­lience cog­ni­tive est deve­nue cen­trale. Ce concept, qui désigne la capa­ci­té à gar­der son sang-froid, à s’adapter et à prendre les meilleures déci­sions en situa­tion de stress, de sur­charge d’informations ain­si que d’ambiguïté, est désor­mais un enjeu majeur pour les déci­deurs, mili­taires comme civils.

Mal­heu­reu­se­ment, les méthodes clas­siques d’entraînement repo­sant sur des pro­cé­dures figées et des scé­na­rios rela­ti­ve­ment pré­vi­sibles montrent leurs limites. Elles ne reflètent pas suf­fi­sam­ment la réa­li­té mou­vante, par­fois chao­tique, dans laquelle les acteurs doivent évo­luer aujourd’hui. C’est là que la simu­la­tion et la ludi­fi­ca­tion — aus­si nom­mée gami­fi­ca­tion —   entrent en jeu, en pro­po­sant des expé­riences plus dyna­miques, inter­ac­tives et sur­tout plus proches de la com­plexi­té réelle des crises1.

L’insuffisance des simulateurs traditionnels

La for­ma­tion à la ges­tion de crise s’est appuyée sur des simu­la­teurs conçus pour repro­duire des situa­tions plu­tôt linéaires, où les résul­tats sont rela­ti­ve­ment pré­vi­sibles. Cette approche est effi­cace quand il s’agit d’apprendre des pro­cé­dures ou des réflexes, mais s’avère insuf­fi­sante pour pré­pa­rer aux crises hybrides, cyber, ou aux conflits asy­mé­triques où l’information est incom­plète, brouillée voire contra­dic­toire. Que fau­drait-il faire si des attaques frap­paient simul­ta­né­ment plu­sieurs infra­struc­tures vitales comme les sec­teurs éner­gé­tiques2, les télé­com­mu­ni­ca­tions3et le domaine infor­ma­tion­nel4 ?

Dans ces condi­tions, la prise de déci­sion devient un véri­table défi cog­ni­tif, influen­cé par la charge men­tale et les émo­tions, ain­si que par des biais par­fois incons­cients5. Ces aspects humains, essen­tiels, sont trop sou­vent absents des for­ma­tions clas­siques, ce qui limite leur effi­ca­ci­té dans des situa­tions impré­vi­sibles6. Il est donc néces­saire de moder­ni­ser les outils à notre dis­po­si­tion pour mieux se préparer.

Les grandes puissances à la pointe des technologies cognitives

Pour répondre à ces défis, plu­sieurs pays ont déve­lop­pé des solu­tions inno­vantes. Aux États-Unis, par exemple, la DARPA (Defense Advan­ced Research Pro­jects Agen­cy, un orga­nisme de recherche et de déve­lop­pe­ment de tech­no­lo­gies mili­taires), mise sur des simu­la­teurs immer­sifs qui intègrent des cap­teurs bio­mé­triques pour mesu­rer en temps réel la charge cog­ni­tive et l’état émo­tion­nel des opé­ra­teurs. Cela per­met d’ajuster auto­ma­ti­que­ment la dif­fi­cul­té des exer­cices et d’offrir un entraî­ne­ment per­son­na­li­sé7.

En Chine, l’approche est encore plus ambi­tieuse, avec le déve­lop­pe­ment d’interfaces cer­veau-machine visant à aug­men­ter direc­te­ment les capa­ci­tés cog­ni­tives, comme la vigi­lance ou la mémoire, dans des envi­ron­ne­ments simu­lés très com­plexes8. En Europe, on observe une démarche plus inter­dis­ci­pli­naire, com­bi­nant intel­li­gence arti­fi­cielle, sciences cog­ni­tives et ana­lyse sociale pour mieux modé­li­ser la prise de déci­sion humaine en crise9. Mais, l’intégration de ces recherches dans les sys­tèmes de for­ma­tion reste encore à généraliser.

Le déve­lop­pe­ment de ces tech­no­lo­gies sou­lève des ques­tions éthiques et déon­to­lo­giques, comme l’u­ti­li­sa­tion et la pro­tec­tion des données.

Néan­moins, le déve­lop­pe­ment de ces tech­no­lo­gies sou­lève des ques­tions éthiques et déon­to­lo­giques cru­ciales. Il est impé­ra­tif de garan­tir la pro­tec­tion des don­nées et de s’as­su­rer que ces outils d’aug­men­ta­tion cog­ni­tive sont uti­li­sés dans un cadre éthique strict, sans dérive mani­pu­la­trice ou condi­tion­nante et, dans l’intérêt des citoyens, c’est-à-dire non exclu­si­ve­ment à des fins com­mer­ciales ou mili­taires10.

Ludification : plus qu’un simple outil ludique

La ludi­fi­ca­tion est par­fois per­çue comme une manière de rendre l’apprentissage plus fun, mais son poten­tiel va bien au-delà. Quand elle est bien conçue, elle offre un cadre qui simule la com­plexi­té cog­ni­tive, obli­geant les par­ti­ci­pants à prendre des déci­sions dans des envi­ron­ne­ments incer­tains, avec des consé­quences qui peuvent être impré­vi­sibles11. Ces serious games, notam­ment ceux qui pro­posent des scé­na­rios à embran­che­ments mul­tiples, sont des ter­rains d’entraînement effi­caces pour déve­lop­per la capa­ci­té d’adaptation, la ges­tion du stress et la prise de déci­sion sous pres­sion12. Dans la for­ma­tion aux crises cyber, par exemple, leur effi­ca­ci­té a été confir­mée par plu­sieurs études13.

De plus, l’in­té­gra­tion de l’in­tel­li­gence arti­fi­cielle géné­ra­tive dans la concep­tion de ces serious games ouvre la voie à des scé­na­rios encore plus dyna­miques, où l’IA peut géné­rer des évé­ne­ments, des per­son­nages ou des rebon­dis­se­ments en temps réel, ren­dant chaque ses­sion d’en­traî­ne­ment unique et exi­geant une adap­ta­bi­li­té cog­ni­tive accrue14.

Les innovations françaises : un travail discret mais concret

Entre 2022 et 2024, la SRAT (Sys­tem Risk Assess­ment and Tech­no­lo­gy) a mené plu­sieurs tra­vaux qui illus­trent par­fai­te­ment cette dyna­mique. Cette équipe a déve­lop­pé un simu­la­teur basé sur le moteur Uni­ty, recréant un centre de ges­tion de crise en zone conflic­tuelle où les déci­sions des uti­li­sa­teurs influencent le dérou­le­ment, intro­dui­sant ain­si la notion d’incertitude et d’imprévisibilité. Cou­plé à une inter­face élec­troen­cé­pha­lo­gra­phie (EEG), ce simu­la­teur mesure en temps réel la charge cog­ni­tive et les émo­tions des uti­li­sa­teurs, offrant un retour pré­cieux sur leurs méca­nismes de déci­sion. En paral­lèle, la SRAT a tra­vaillé sur le pro­jet C‑RAND, un bench­mark des tech­no­lo­gies émer­gentes en inter­faces cyber-cog­ni­tives, en col­la­bo­ra­tion avec l’Armée de Terre. Ce tra­vail a per­mis de sélec­tion­ner les solu­tions les plus adap­tées pour les inté­grer dans les sys­tèmes d’entraînement et d’opérations15.

Un autre pro­jet mar­quant est le déve­lop­pe­ment d’un serious game numé­rique en HTML, uti­li­sé à la fois pour la for­ma­tion d’étudiants en Mas­ter et d’officiers de l’École Mili­taire Inter­armes. Ce jeu met en scène une crise cyber aux rami­fi­ca­tions mul­tiples, obli­geant à gérer la sur­charge d’information et à prendre des déci­sions rapides et per­ti­nentes. Les retours d’expérience montrent une amé­lio­ra­tion notable des capa­ci­tés d’adaptation et de ges­tion du stress16. Enfin, la SRAT a dis­pen­sé plus de 100 heures d’enseignement mêlant intel­li­gence arti­fi­cielle, sciences cog­ni­tives et stra­té­gie au sein de l’Enseignement Mili­taire Supé­rieur Scien­ti­fique et Tech­nique (EMSST), pré­pa­rant ain­si les futurs cadres aux défis cog­ni­tifs des crises contemporaines.

La simu­la­tion et la ludi­fi­ca­tion sont des outils stra­té­giques capables de trans­for­mer la for­ma­tion et d’augmenter la rési­lience cog­ni­tive des décideurs. 

Pour maxi­mi­ser l’im­pact de ces outils sur la for­ma­tion des appre­nants, le rôle du débrie­fing et du retour d’ex­pé­rience struc­tu­ré est cru­cial. L’a­na­lyse post-simu­la­tion, où les don­nées col­lec­tées (charge cog­ni­tive, émo­tions, déci­sions) sont uti­li­sées pour un feed­back per­son­na­li­sé, per­met aux par­ti­ci­pants de com­prendre leurs biais et d’in­té­grer dura­ble­ment les apprentissages.

Vers une souveraineté cognitive renforcée

Ces dif­fé­rentes approches montrent clai­re­ment que simu­la­tion et ludi­fi­ca­tion ne sont pas de simples gad­gets, mais des outils stra­té­giques capables de trans­for­mer la for­ma­tion et d’augmenter la rési­lience cog­ni­tive des déci­deurs. Dans un monde où l’information est un levier de pou­voir et où la rapi­di­té de déci­sion peut faire la dif­fé­rence entre suc­cès et échec, il devient essen­tiel de ren­for­cer cette capa­ci­té d’adaptation et de prise de déci­sion sous stress17. La sou­ve­rai­ne­té cog­ni­tive, au même titre que la sou­ve­rai­ne­té tech­no­lo­gique, est désor­mais un enjeu de sécu­ri­té nationale.

Il est éga­le­ment impor­tant de consi­dé­rer que la rési­lience cog­ni­tive n’est pas uni­que­ment l’a­pa­nage des déci­deurs ; une approche ouverte à chaque citoyen per­met­trait de sen­si­bi­li­ser et pré­pa­rer un public plus large aux défis cog­ni­tifs des crises contem­po­raines (dés­in­for­ma­tion, rumeurs, urgences). Dans le contexte actuel d’attaques hybrides visant à dés­in­for­mer, à atti­ser les haines et à bri­ser la cohé­sion natio­nale, l’éveil des esprits consti­tue un levier puis­sant de résis­tance à développer.

Mais il ne s’agit pas seule­ment de tech­no­lo­gie. La rési­lience cog­ni­tive est un pro­ces­sus com­plexe qui demande une approche inté­grée, mêlant tech­no­lo­gie, com­pré­hen­sion humaine et péda­go­gie adap­tée. Les tra­vaux de la SRAT en France montrent la voie, avec une approche prag­ma­tique, rigou­reuse et proche des besoins réels des forces armées. L’enjeu est désor­mais d’assurer la dif­fu­sion et l’adoption à plus grande échelle de ces inno­va­tions, pour que la for­ma­tion cog­ni­tive devienne une réa­li­té opé­ra­tion­nelle et un atout dans la ges­tion des crises de demain.

La simu­la­tion et la ludi­fi­ca­tion ouvrent des pers­pec­tives pas­sion­nantes pour rele­ver le défi de la rési­lience cog­ni­tive. Plus que jamais, il faut pen­ser ces outils comme des leviers indis­pen­sables pour pré­pa­rer les déci­deurs aux réa­li­tés com­plexes et incer­taines des crises modernes. La com­bi­nai­son des pro­grès tech­no­lo­giques avec une approche cen­trée sur l’humain est la clé pour construire une véri­table sou­ve­rai­ne­té cog­ni­tive, garante d’efficacité et de sécu­ri­té dans un monde en muta­tion rapide.

1Salas, E., Bowers, C. A., & Rho­de­ni­zer, L. (2017). It is not how much you prac­tice, but how you prac­tice : Toward a new para­digm in trai­ning research. Psy­cho­lo­gi­cal Science, 8(4), 270–276.
2IT-Pro. (2025, April 9). Menaces cyber sur le sec­teur éner­gé­tique euro­péen ! iTPro​.fr. https://​www​.itpro​.fr/​m​e​n​a​c​e​s​-​c​y​b​e​r​-​s​u​r​-​l​e​-​s​e​c​t​e​u​r​-​e​n​e​r​g​e​t​i​q​u​e​-​e​u​r​o​peen/
3Les Echos (2024, Novem­ber 18). Câble télé­com rom­pu : Ber­lin et Hel­sin­ki évoquent la « guerre hybride » et la menace russe. Les Echos. https://​www​.lese​chos​.fr/​m​o​n​d​e​/​e​n​j​e​u​x​-​i​n​t​e​r​n​a​t​i​o​n​a​u​x​/​c​a​b​l​e​-​t​e​l​e​c​o​m​-​r​o​m​p​u​-​b​e​r​l​i​n​-​e​t​-​h​e​l​s​i​n​k​i​-​e​v​o​q​u​e​n​t​-​l​a​-​g​u​e​r​r​e​-​h​y​b​r​i​d​e​-​e​t​-​l​a​-​m​e​n​a​c​e​-​r​u​s​s​e​-​2​1​32308
4Mar­tin, O. (2024, July 25). Cam­pagnes de dés­in­for­ma­tion, cybe­rat­taques, ingé­rences… le com­bat hybride a déjà com­men­cé, à nous d’y faire face. Le Figa­ro. https://​www​.lefi​ga​ro​.fr/​v​o​x​/​m​o​n​d​e​/​l​e​-​c​o​m​b​a​t​-​h​y​b​r​i​d​e​-​a​-​d​e​j​a​-​c​o​m​m​e​n​c​e​-​a​-​n​o​u​s​-​d​-​y​-​f​a​i​r​e​-​f​a​c​e​-​2​0​2​40725
5Kah­ne­man, D. (2011). Thin­king, fast and slow. Far­rar, Straus and Giroux.
6Para­su­ra­man, R., & Riley, V. (1997). Humans and auto­ma­tion : Use, misuse, disuse, abuse. Human Fac­tors, 39(2), 230–253.
7Gon­za­lez, C., & al. (2021). Adap­tive cog­ni­tive work­load assess­ment using EEG and eye tra­cking in cri­sis simu­la­tions. Neu­roI­mage, 236, 118070.
8Wang, Y., Li, X., & Zhang, Y. (2022). Brain-com­pu­ter inter­faces for enhan­cing cog­ni­tive per­for­mance : A review. Fron­tiers in Neu­ros­cience, 16, 987654.
9Bour­rier, M., & Béna­ben, F. (2021). Cog­ni­tive sys­tems and cri­sis mana­ge­ment : An inte­gra­tive fra­me­work. Cog­ni­tion, Tech­no­lo­gy & Work, 23(1), 15–29.
10Shults, F.L., Wild­man, W.J. (2019). Ethics, Com­pu­ter Simu­la­tion, and the Future of Huma­ni­ty. In : Dial­lo, S., Wild­man, W., Shults, F., Tolk, A. (eds) Human Simu­la­tion : Pers­pec­tives, Insights, and Appli­ca­tions. New Approaches to the Scien­ti­fic Stu­dy of Reli­gion, vol 7. Sprin­ger, Cham. https://doi.org/10.1007/978–3‑030–17090-5_2
11Michael, D., & Chen, S. (2006). Serious games : Games that edu­cate, train, and inform. Mus­ka & Lip­man/­Pre­mier-Trade.
12Connol­ly, T. M., Boyle, E. A., MacAr­thur, E., Hai­ney, T., & Boyle, J. M. (2012). A sys­te­ma­tic lite­ra­ture review of empi­ri­cal evi­dence on com­pu­ter games and serious games. Com­pu­ters & Edu­ca­tion, 59(2), 661–686.
13Ander­son, J., & Rai­nie, L. (2021). The future of cri­sis simu­la­tion and trai­ning. Jour­nal of Cog­ni­tive Engi­nee­ring and Deci­sion Making, 15(2), 90–108.
14Eun S‑J., Eun J. K., Kim, JY., Arti­fi­cial intel­li­gence-based per­so­na­li­zed serious game for enhan­cing the phy­si­cal and cog­ni­tive abi­li­ties of the elder­ly, Future Gene­ra­tion Com­pu­ter Sys­tems, Volume 141, 2023, Pages 713–722, ISSN 0167–739X, https://​doi​.org/​1​0​.​1​0​1​6​/​j​.​f​u​t​u​r​e​.​2​0​2​2​.​1​2.017.
15Lan­glois-Ber­the­lot, L. (2024). Syn­thèse des inno­va­tions en inter­faces cyber-cog­ni­tives pour l’Armée de Terre. SRAT
16Lan­glois-Ber­the­lot, L. (2023). Rap­port interne sur la simu­la­tion et la gami­fi­ca­tion dans la ges­tion de crise. SRAT
17Woods, D. D., & Holl­na­gel, E. (2019). Resi­lience engi­nee­ring : Concepts and pre­cepts. CRC Press.

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don