1_etatdelart
π Science et technologies π Géopolitique
Faut-il avoir peur des robots tueurs ?

L’automatisation, troisième révolution des techniques de guerre

avec Richard Robert, journaliste et auteur
Le 9 novembre 2021 |
4min. de lecture
En bref
  • Certains spécialistes considèrent les armes autonomes comme la troisième révolution des techniques de guerre, après la poudre à canon et la bombe nucléaire.
  • L’automatisation des systèmes d’armement a commencé il y a plusieurs décennies. Les progrès en matière de mobilité et d’interprétation des informations sur l’environnement leur confèrent désormais une forte autonomie.
  • Les drones ont une longueur d’avance sur les robots « fantassins », qui doivent relever des défis techniques considérables.
  • Dans leur version armée, ces systèmes sont principalement utilisés sur des cibles physiques. Leur usage létal conduit à des débats éthiques. Mais la course aux armements a commencé.

Des missiles guidés aux systèmes d’armes létales autonomes

On uti­lise depuis les années 1980 des mis­siles gui­dés comme l’Exocet qui pré­sentent cer­taines carac­té­ris­tiques des robots : en mode auto­ma­tique, ils uti­lisent des infor­ma­tions contex­tuelles pour ajus­ter leur tra­jec­toire. Mais la qua­li­fi­ca­tion de robots est réser­vée à des méca­nismes dis­po­sant d’une plus grande auto­no­mie : trai­te­ment d’informations plus variées, auto­no­mie allon­gée de quelques minutes à plu­sieurs heures, mobi­li­té com­plète, palette de déci­sions élar­gie (tirer ou ne pas tirer par exemple).

La plus grande auto­no­mie des « sys­tèmes d’armes létales auto­nomes » (SALA) a été ren­due pos­sible par les pro­grès de l’informatique embar­quée (minia­tu­ri­sa­tion des pro­ces­seurs, pré­ci­sion crois­sante des cap­teurs) et de la mobi­li­té. Il existe deux types de systèmes.

#1 Drones

La plu­part des drones marins et aériens sont dotés d’un mode auto­ma­tique. D’abord uti­li­sés pour des mis­sions d’observation, de recon­nais­sance, puis de gui­dage laser, ils ont été armés au début des années 2000, en Afgha­nis­tan puis en Irak. Le Pre­da­tor (pro­gres­si­ve­ment rem­pla­cé par le Rea­per) reste un pré­cur­seur iso­lé, mais depuis les années 2010, l’usage des drones de com­bat est de plus en plus fréquent.

Les Turcs en dis­posent depuis 2012 et ils ont équi­pé les Azé­ris lors de la guerre contre l’Arménie en 2020 : ces modèles, moins sophis­ti­qués que les drones amé­ri­cains, ont eu un impact déci­sif. Russes, Indiens, Israé­liens, Sud-Afri­cains, Pakis­ta­nais fabriquent leurs propres drones. Les Chi­nois en fabriquent (Wing Loong 1 et 2, Cai­Hong 1 à 6) et, à la dif­fé­rence des États-Unis qui n’en four­nissent qu’à leurs proches alliés, en vendent à des pays tiers.

Les drones ont mon­tré leur effi­ca­ci­té sur des théâtres spé­ci­fiques, mais ils ne sont pas com­pé­ti­tifs dans un conflit de haute intensité.

Dif­fé­rents pro­jets euro­péens ont été déve­lop­pés, cer­tains au stade du pro­to­type (Bar­ra­cu­da d’EADS, Tara­nis de BAe), d’autres plus avan­cés (Neu­ron de Das­sault), ou adop­tés par les armées (Patrol­ler de Safran). Le pro­jet de drone de com­bat euro­péen, long­temps repous­sé, a été lan­cé récem­ment et sera opé­ra­tion­nel vers 2028.

Les drones ont mon­tré leur effi­ca­ci­té sur des théâtres spé­ci­fiques (com­bat contre des ter­ro­ristes, conflits régio­naux), mais ils ne sont pas com­pé­ti­tifs dans un conflit de haute inten­si­té. Les enjeux de déve­lop­pe­ment sont la fur­ti­vi­té, l’endurance, la qua­li­té des cap­teurs et l’usage accru de l’IA. Alors que les drones MALE (Medium Alti­tude Long Endu­rance) font plu­sieurs mètres de long, des modèles ultra­lé­gers font leur appa­ri­tion. Une équipe de cher­cheurs chi­nois a dévoi­lé en 2021 un pro­to­type de drone amphi­bie ne pesant que 1,5 kg. Enfin, les états-majors s’inquiètent aujourd’hui d’une nou­velle menace : de petits drones civils équi­pés d’armes rudi­men­taires (explo­sifs) et fonc­tion­nant en essaim.

#2 Robots terrestres

Uti­li­sés prin­ci­pa­le­ment sur des mis­sions défen­sives (sur­veillance, pro­tec­tion des sites), ou de trans­port, les robots ter­restres sont moins répan­dus. La mobi­li­té sur des ter­rains acci­den­tés pose des pro­blèmes tech­niques deman­dant, dans le cas des robots « à pattes » comme ceux de Bos­ton Dyna­mics, des prouesses tech­niques, y com­pris pour les robots « mules » uti­li­sés par l’armée américaine.

Moins spec­ta­cu­laires mais en plein essor, les véhi­cules ter­restres lourds sans pilote (unman­ned ground vehicles), mon­tés sur che­nilles sont uti­li­sés pour des tâches de trans­port mais peuvent aus­si ser­vir de sup­port à des sys­tèmes de drones. Proches de modèles uti­li­sés dans le civil, moins oné­reux que les drones, ils sont déve­lop­pés par des indus­triels dif­fé­rents, comme l’estonien Mil­rem Robo­tics dont le THe­MIS a été déployé en 2019 dans la mis­sion Bar­khane au Mali. L’armée russe est l’une des seules à avoir armé ces véhi­cules, avec l’Uran‑9 qui aurait été tes­té en Syrie.

Débats

De nom­breux débats ont entou­ré l’émergence des drones de com­bat. Le terme « Killer Robot » a été pous­sé par des mili­tants oppo­sés à son usage. Le public craint de voir ces tech­no­lo­gies uti­li­sées par un acteur mal­fai­sant pour domi­ner un champ de bataille ou une popu­la­tion. Une autre crainte touche au rôle de l’IA. En juillet 2015, une lettre ouverte sur les armes auto­nomes1 signée par des cher­cheurs en robo­tique et en IA, mais aus­si par l’astrophysicien Ste­phen Haw­kins et les entre­pre­neurs Elon Musk et Steve Woz­niak, s’en inquié­tait : « nous pour­rions, un jour, perdre le contrôle des sys­tèmes d’IA par l’as­cen­sion d’une super intel­li­gence qui n’a­gi­rait pas en confor­mi­té avec les dési­rs de l’humanité ».

Les futurs débats entre États risquent de ne plus concer­ner l’exis­tence de ces sys­tèmes, mais plu­tôt les règles d’engagement.

Plus concrè­te­ment, il existe le risque d’une perte de contrôle : en 2020, d’après un rap­port de l’ONU, un drone en Libye aurait tué sa cible sans « ordre direct2 ». Cela sou­lève des ques­tions tech­niques : com­ment évi­ter de perdre le contrôle ou de voir faire pira­ter les sys­tèmes, et des ques­tions de fond : les robots mili­taires auto­nomes doivent-ils être inter­dits ? Si oui, com­ment défi­nir pré­ci­sé­ment le mot « auto­nome » ? Dans le cas contraire, com­ment répar­tir la res­pon­sa­bi­li­té en cas de mau­vaise uti­li­sa­tion ou de dys­fonc­tion­ne­ment ? On peut sou­te­nir, pour­tant, que la tech­no­lo­gie pour­rait poten­tiel­le­ment sau­ver des vies en évi­tant les pertes civiles, ou en met­tant fin aux guerres plus rapidement.

Chris­tof Heyns, rap­por­teur spé­cial de l’ONU jusqu’en 2016, a plai­dé vigou­reu­se­ment pour un mora­toire sur le déve­lop­pe­ment de ces sys­tèmes. Sa crainte était de voir les États se lan­cer dans une course aux arme­ments, avec un « coût d’entrée » beau­coup plus faible que pour l’arme nucléaire : des États voyous ou des orga­ni­sa­tions cri­mi­nelles pour­raient s’équiper. Mais cette course a com­men­cé. Les futurs débats (entre États) risquent de ne plus concer­ner l’exis­tence de ces sys­tèmes, mais plu­tôt les règles d’engagement.

1https://​futu​reo​flife​.org/​o​p​e​n​-​l​e​t​t​e​r​-​a​u​t​o​n​o​m​o​u​s​-​w​e​apons
2https://​docu​ments​-dds​-ny​.un​.org/​d​o​c​/​U​N​D​O​C​/​G​E​N​/​N​2​1​/​0​3​7​/​7​3​/​P​D​F​/​N​2​1​0​3​7​7​3​.​p​d​f​?​O​p​e​n​E​l​ement

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don