Accueil / Chroniques / Résilience cognitive face aux crises complexes : l’enjeu de la « gamification »
Généré par l'IA / Generated using AI
π Science et technologies π Géopolitique

Résilience cognitive face aux crises complexes : l’enjeu de la « gamification »

Jean LANGLOIS-BERTHELOT
Jean Langlois-Berthelot
docteur en mathématiques appliquées et chef de division au sein de l'armée de Terre
Christophe Gaie
Christophe Gaie
chef de division ingénierie et innovation numérique au sein des services du Premier ministre
En bref
  • La résilience cognitive correspond à la capacité à garder son sang-froid, à s’adapter et à prendre de meilleures décisions en situation de stress et de surcharge d’information.
  • Les méthodes classiques d’entrainement à la résilience cognitive montrent leurs limites, il est nécessaire de moderniser ces outils pour mieux se préparer.
  • Pour ce faire, la simulation et la ludification permettent des expériences plus dynamiques, interactives, et davantage proches des conditions de complexité actuelles des crises.
  • La ludification offre un cadre qui stimule la complexité cognitive obligeant à prendre des décisions dans des environnements incertains.
  • Cependant, le développement de ces technologies soulève des questions éthiques et déontologiques, comme la protection des données et une utilisation des données sans dérives manipulatrices ou de conditionnement.

Face à l’accélération des crises inter­na­tionales de plus en plus com­plex­es et incer­taines, la ques­tion de la résilience cog­ni­tive est dev­enue cen­trale. Ce con­cept, qui désigne la capac­ité à garder son sang-froid, à s’adapter et à pren­dre les meilleures déci­sions en sit­u­a­tion de stress, de sur­charge d’informations ain­si que d’ambiguïté, est désor­mais un enjeu majeur pour les décideurs, mil­i­taires comme civils.

Mal­heureuse­ment, les méth­odes clas­siques d’entraînement reposant sur des procé­dures figées et des scé­nar­ios rel­a­tive­ment prévis­i­bles mon­trent leurs lim­ites. Elles ne reflè­tent pas suff­isam­ment la réal­ité mou­vante, par­fois chao­tique, dans laque­lle les acteurs doivent évoluer aujourd’hui. C’est là que la sim­u­la­tion et la lud­i­fi­ca­tion — aus­si nom­mée gam­i­fi­ca­tion —   entrent en jeu, en pro­posant des expéri­ences plus dynamiques, inter­ac­tives et surtout plus proches de la com­plex­ité réelle des crises1.

L’insuffisance des simulateurs traditionnels

La for­ma­tion à la ges­tion de crise s’est appuyée sur des sim­u­la­teurs conçus pour repro­duire des sit­u­a­tions plutôt linéaires, où les résul­tats sont rel­a­tive­ment prévis­i­bles. Cette approche est effi­cace quand il s’agit d’apprendre des procé­dures ou des réflex­es, mais s’avère insuff­isante pour pré­par­er aux crises hybrides, cyber, ou aux con­flits asymétriques où l’information est incom­plète, brouil­lée voire con­tra­dic­toire. Que faudrait-il faire si des attaques frap­paient simul­tané­ment plusieurs infra­struc­tures vitales comme les secteurs énergé­tiques2, les télé­com­mu­ni­ca­tions3et le domaine infor­ma­tion­nel4?

Dans ces con­di­tions, la prise de déci­sion devient un véri­ta­ble défi cog­ni­tif, influ­encé par la charge men­tale et les émo­tions, ain­si que par des biais par­fois incon­scients5. Ces aspects humains, essen­tiels, sont trop sou­vent absents des for­ma­tions clas­siques, ce qui lim­ite leur effi­cac­ité dans des sit­u­a­tions imprévis­i­bles6. Il est donc néces­saire de mod­erniser les out­ils à notre dis­po­si­tion pour mieux se préparer.

Les grandes puissances à la pointe des technologies cognitives

Pour répon­dre à ces défis, plusieurs pays ont dévelop­pé des solu­tions inno­vantes. Aux États-Unis, par exem­ple, la DARPA (Defense Advanced Research Projects Agency, un organ­isme de recherche et de développe­ment de tech­nolo­gies mil­i­taires), mise sur des sim­u­la­teurs immer­sifs qui intè­grent des cap­teurs bio­métriques pour mesur­er en temps réel la charge cog­ni­tive et l’état émo­tion­nel des opéra­teurs. Cela per­met d’ajuster automa­tique­ment la dif­fi­culté des exer­ci­ces et d’offrir un entraîne­ment per­son­nal­isé7.

En Chine, l’approche est encore plus ambitieuse, avec le développe­ment d’interfaces cerveau-machine visant à aug­menter directe­ment les capac­ités cog­ni­tives, comme la vig­i­lance ou la mémoire, dans des envi­ron­nements simulés très com­plex­es8. En Europe, on observe une démarche plus inter­dis­ci­plinaire, com­bi­nant intel­li­gence arti­fi­cielle, sci­ences cog­ni­tives et analyse sociale pour mieux mod­élis­er la prise de déci­sion humaine en crise9. Mais, l’intégration de ces recherch­es dans les sys­tèmes de for­ma­tion reste encore à généraliser.

Le développe­ment de ces tech­nolo­gies soulève des ques­tions éthiques et déon­tologiques, comme l’u­til­i­sa­tion et la pro­tec­tion des données.

Néan­moins, le développe­ment de ces tech­nolo­gies soulève des ques­tions éthiques et déon­tologiques cru­ciales. Il est impératif de garan­tir la pro­tec­tion des don­nées et de s’as­sur­er que ces out­ils d’aug­men­ta­tion cog­ni­tive sont util­isés dans un cadre éthique strict, sans dérive manip­u­la­trice ou con­di­tion­nante et, dans l’intérêt des citoyens, c’est-à-dire non exclu­sive­ment à des fins com­mer­ciales ou mil­i­taires10.

Ludification : plus qu’un simple outil ludique

La lud­i­fi­ca­tion est par­fois perçue comme une manière de ren­dre l’apprentissage plus fun, mais son poten­tiel va bien au-delà. Quand elle est bien conçue, elle offre un cadre qui simule la com­plex­ité cog­ni­tive, oblig­eant les par­tic­i­pants à pren­dre des déci­sions dans des envi­ron­nements incer­tains, avec des con­séquences qui peu­vent être imprévis­i­bles11. Ces seri­ous games, notam­ment ceux qui pro­posent des scé­nar­ios à embranche­ments mul­ti­ples, sont des ter­rains d’entraînement effi­caces pour dévelop­per la capac­ité d’adaptation, la ges­tion du stress et la prise de déci­sion sous pres­sion12. Dans la for­ma­tion aux crises cyber, par exem­ple, leur effi­cac­ité a été con­fir­mée par plusieurs études13.

De plus, l’in­té­gra­tion de l’in­tel­li­gence arti­fi­cielle généra­tive dans la con­cep­tion de ces seri­ous games ouvre la voie à des scé­nar­ios encore plus dynamiques, où l’IA peut génér­er des événe­ments, des per­son­nages ou des rebondisse­ments en temps réel, ren­dant chaque ses­sion d’en­traîne­ment unique et exigeant une adapt­abil­ité cog­ni­tive accrue14.

Les innovations françaises : un travail discret mais concret

Entre 2022 et 2024, la SRAT (Sys­tem Risk Assess­ment and Tech­nol­o­gy) a mené plusieurs travaux qui illus­trent par­faite­ment cette dynamique. Cette équipe a dévelop­pé un sim­u­la­teur basé sur le moteur Uni­ty, recréant un cen­tre de ges­tion de crise en zone con­flictuelle où les déci­sions des util­isa­teurs influ­en­cent le déroule­ment, intro­duisant ain­si la notion d’incertitude et d’imprévisibilité. Cou­plé à une inter­face élec­troencéphalo­gra­phie (EEG), ce sim­u­la­teur mesure en temps réel la charge cog­ni­tive et les émo­tions des util­isa­teurs, offrant un retour pré­cieux sur leurs mécan­ismes de déci­sion. En par­al­lèle, la SRAT a tra­vail­lé sur le pro­jet C‑RAND, un bench­mark des tech­nolo­gies émer­gentes en inter­faces cyber-cog­ni­tives, en col­lab­o­ra­tion avec l’Armée de Terre. Ce tra­vail a per­mis de sélec­tion­ner les solu­tions les plus adap­tées pour les inté­gr­er dans les sys­tèmes d’entraînement et d’opérations15.

Un autre pro­jet mar­quant est le développe­ment d’un seri­ous game numérique en HTML, util­isé à la fois pour la for­ma­tion d’étudiants en Mas­ter et d’officiers de l’École Mil­i­taire Inter­armes. Ce jeu met en scène une crise cyber aux ram­i­fi­ca­tions mul­ti­ples, oblig­eant à gér­er la sur­charge d’information et à pren­dre des déci­sions rapi­des et per­ti­nentes. Les retours d’expérience mon­trent une amélio­ra­tion notable des capac­ités d’adaptation et de ges­tion du stress16. Enfin, la SRAT a dis­pen­sé plus de 100 heures d’enseignement mêlant intel­li­gence arti­fi­cielle, sci­ences cog­ni­tives et stratégie au sein de l’Enseignement Mil­i­taire Supérieur Sci­en­tifique et Tech­nique (EMSST), pré­parant ain­si les futurs cadres aux défis cog­ni­tifs des crises contemporaines.

La sim­u­la­tion et la lud­i­fi­ca­tion sont des out­ils stratégiques capa­bles de trans­former la for­ma­tion et d’augmenter la résilience cog­ni­tive des décideurs. 

Pour max­imiser l’im­pact de ces out­ils sur la for­ma­tion des apprenants, le rôle du débrief­ing et du retour d’ex­péri­ence struc­turé est cru­cial. L’analyse post-sim­u­la­tion, où les don­nées col­lec­tées (charge cog­ni­tive, émo­tions, déci­sions) sont util­isées pour un feed­back per­son­nal­isé, per­met aux par­tic­i­pants de com­pren­dre leurs biais et d’in­té­gr­er durable­ment les apprentissages.

Vers une souveraineté cognitive renforcée

Ces dif­férentes approches mon­trent claire­ment que sim­u­la­tion et lud­i­fi­ca­tion ne sont pas de sim­ples gad­gets, mais des out­ils stratégiques capa­bles de trans­former la for­ma­tion et d’augmenter la résilience cog­ni­tive des décideurs. Dans un monde où l’information est un levi­er de pou­voir et où la rapid­ité de déci­sion peut faire la dif­férence entre suc­cès et échec, il devient essen­tiel de ren­forcer cette capac­ité d’adaptation et de prise de déci­sion sous stress17. La sou­veraineté cog­ni­tive, au même titre que la sou­veraineté tech­nologique, est désor­mais un enjeu de sécu­rité nationale.

Il est égale­ment impor­tant de con­sid­ér­er que la résilience cog­ni­tive n’est pas unique­ment l’a­panage des décideurs ; une approche ouverte à chaque citoyen per­me­t­trait de sen­si­bilis­er et pré­par­er un pub­lic plus large aux défis cog­ni­tifs des crises con­tem­po­raines (dés­in­for­ma­tion, rumeurs, urgences). Dans le con­texte actuel d’attaques hybrides visant à dés­in­former, à attis­er les haines et à bris­er la cohé­sion nationale, l’éveil des esprits con­stitue un levi­er puis­sant de résis­tance à développer.

Mais il ne s’agit pas seule­ment de tech­nolo­gie. La résilience cog­ni­tive est un proces­sus com­plexe qui demande une approche inté­grée, mêlant tech­nolo­gie, com­préhen­sion humaine et péd­a­gogie adap­tée. Les travaux de la SRAT en France mon­trent la voie, avec une approche prag­ma­tique, rigoureuse et proche des besoins réels des forces armées. L’enjeu est désor­mais d’assurer la dif­fu­sion et l’adoption à plus grande échelle de ces inno­va­tions, pour que la for­ma­tion cog­ni­tive devi­enne une réal­ité opéra­tionnelle et un atout dans la ges­tion des crises de demain.

La sim­u­la­tion et la lud­i­fi­ca­tion ouvrent des per­spec­tives pas­sion­nantes pour relever le défi de la résilience cog­ni­tive. Plus que jamais, il faut penser ces out­ils comme des leviers indis­pens­ables pour pré­par­er les décideurs aux réal­ités com­plex­es et incer­taines des crises mod­ernes. La com­bi­nai­son des pro­grès tech­nologiques avec une approche cen­trée sur l’humain est la clé pour con­stru­ire une véri­ta­ble sou­veraineté cog­ni­tive, garante d’efficacité et de sécu­rité dans un monde en muta­tion rapide.

1Salas, E., Bow­ers, C. A., & Rho­d­eniz­er, L. (2017). It is not how much you prac­tice, but how you prac­tice: Toward a new par­a­digm in train­ing research. Psy­cho­log­i­cal Sci­ence, 8(4), 270–276.
2IT-Pro. (2025, April 9). Men­aces cyber sur le secteur énergé­tique européen ! iTPro​.fr. https://​www​.itpro​.fr/​m​e​n​a​c​e​s​-​c​y​b​e​r​-​s​u​r​-​l​e​-​s​e​c​t​e​u​r​-​e​n​e​r​g​e​t​i​q​u​e​-​e​u​r​o​peen/
3Les Echos (2024, Novem­ber 18). Câble télé­com rompu : Berlin et Helsin­ki évo­quent la « guerre hybride » et la men­ace russe. Les Echos. https://​www​.lese​chos​.fr/​m​o​n​d​e​/​e​n​j​e​u​x​-​i​n​t​e​r​n​a​t​i​o​n​a​u​x​/​c​a​b​l​e​-​t​e​l​e​c​o​m​-​r​o​m​p​u​-​b​e​r​l​i​n​-​e​t​-​h​e​l​s​i​n​k​i​-​e​v​o​q​u​e​n​t​-​l​a​-​g​u​e​r​r​e​-​h​y​b​r​i​d​e​-​e​t​-​l​a​-​m​e​n​a​c​e​-​r​u​s​s​e​-​2​1​32308
4Mar­tin, O. (2024, July 25). Cam­pagnes de dés­in­for­ma­tion, cyber­at­taques, ingérences… le com­bat hybride a déjà com­mencé, à nous d’y faire face. Le Figaro. https://​www​.lefi​garo​.fr/​v​o​x​/​m​o​n​d​e​/​l​e​-​c​o​m​b​a​t​-​h​y​b​r​i​d​e​-​a​-​d​e​j​a​-​c​o​m​m​e​n​c​e​-​a​-​n​o​u​s​-​d​-​y​-​f​a​i​r​e​-​f​a​c​e​-​2​0​2​40725
5Kah­ne­man, D. (2011). Think­ing, fast and slow. Far­rar, Straus and Giroux.
6Para­sur­a­man, R., & Riley, V. (1997). Humans and automa­tion: Use, mis­use, dis­use, abuse. Human Fac­tors, 39(2), 230–253.
7Gon­za­lez, C., & al. (2021). Adap­tive cog­ni­tive work­load assess­ment using EEG and eye track­ing in cri­sis sim­u­la­tions. Neu­roIm­age, 236, 118070.
8Wang, Y., Li, X., & Zhang, Y. (2022). Brain-com­put­er inter­faces for enhanc­ing cog­ni­tive per­for­mance: A review. Fron­tiers in Neu­ro­science, 16, 987654.
9Bour­ri­er, M., & Bén­aben, F. (2021). Cog­ni­tive sys­tems and cri­sis man­age­ment: An inte­gra­tive frame­work. Cog­ni­tion, Tech­nol­o­gy & Work, 23(1), 15–29.
10Shults, F.L., Wild­man, W.J. (2019). Ethics, Com­put­er Sim­u­la­tion, and the Future of Human­i­ty. In: Dial­lo, S., Wild­man, W., Shults, F., Tolk, A. (eds) Human Sim­u­la­tion: Per­spec­tives, Insights, and Appli­ca­tions. New Approach­es to the Sci­en­tif­ic Study of Reli­gion, vol 7. Springer, Cham. https://doi.org/10.1007/978–3‑030–17090-5_2
11Michael, D., & Chen, S. (2006). Seri­ous games: Games that edu­cate, train, and inform. Mus­ka & Lip­man/Premier-Trade.
12Con­nol­ly, T. M., Boyle, E. A., MacArthur, E., Hainey, T., & Boyle, J. M. (2012). A sys­tem­at­ic lit­er­a­ture review of empir­i­cal evi­dence on com­put­er games and seri­ous games. Com­put­ers & Edu­ca­tion, 59(2), 661–686.
13Ander­son, J., & Rainie, L. (2021). The future of cri­sis sim­u­la­tion and train­ing. Jour­nal of Cog­ni­tive Engi­neer­ing and Deci­sion Mak­ing, 15(2), 90–108.
14Eun S‑J., Eun J. K., Kim, JY., Arti­fi­cial intel­li­gence-based per­son­al­ized seri­ous game for enhanc­ing the phys­i­cal and cog­ni­tive abil­i­ties of the elder­ly, Future Gen­er­a­tion Com­put­er Sys­tems, Vol­ume 141, 2023, Pages 713–722, ISSN 0167–739X, https://​doi​.org/​1​0​.​1​0​1​6​/​j​.​f​u​t​u​r​e​.​2​0​2​2​.​1​2.017.
15Lan­glois-Berth­elot, L. (2024). Syn­thèse des inno­va­tions en inter­faces cyber-cog­ni­tives pour l’Armée de Terre. SRAT
16Lan­glois-Berth­elot, L. (2023). Rap­port interne sur la sim­u­la­tion et la gam­i­fi­ca­tion dans la ges­tion de crise. SRAT
17Woods, D. D., & Holl­nagel, E. (2019). Resilience engi­neer­ing: Con­cepts and pre­cepts. CRC Press.

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don