1_etatdelart
π Science et technologies π Géopolitique
Faut-il avoir peur des robots tueurs ?

L’automatisation, troisième révolution des techniques de guerre

Richard Robert, journaliste et auteur
Le 9 novembre 2021 |
4 min. de lecture
En bref
  • Certains spécialistes considèrent les armes autonomes comme la troisième révolution des techniques de guerre, après la poudre à canon et la bombe nucléaire.
  • L’automatisation des systèmes d’armement a commencé il y a plusieurs décennies. Les progrès en matière de mobilité et d’interprétation des informations sur l’environnement leur confèrent désormais une forte autonomie.
  • Les drones ont une longueur d’avance sur les robots « fantassins », qui doivent relever des défis techniques considérables.
  • Dans leur version armée, ces systèmes sont principalement utilisés sur des cibles physiques. Leur usage létal conduit à des débats éthiques. Mais la course aux armements a commencé.

Des missiles guidés aux systèmes d’armes létales autonomes

On utilise depuis les années 1980 des mis­siles guidés comme l’Exocet qui présen­tent cer­taines car­ac­téris­tiques des robots : en mode automa­tique, ils utilisent des infor­ma­tions con­textuelles pour ajuster leur tra­jec­toire. Mais la qual­i­fi­ca­tion de robots est réservée à des mécan­ismes dis­posant d’une plus grande autonomie : traite­ment d’informations plus var­iées, autonomie allongée de quelques min­utes à plusieurs heures, mobil­ité com­plète, palette de déci­sions élargie (tir­er ou ne pas tir­er par exemple).

La plus grande autonomie des « sys­tèmes d’armes létales autonomes » (SALA) a été ren­due pos­si­ble par les pro­grès de l’informatique embar­quée (minia­tur­i­sa­tion des processeurs, pré­ci­sion crois­sante des cap­teurs) et de la mobil­ité. Il existe deux types de systèmes.

#1 Drones

La plu­part des drones marins et aériens sont dotés d’un mode automa­tique. D’abord util­isés pour des mis­sions d’observation, de recon­nais­sance, puis de guidage laser, ils ont été armés au début des années 2000, en Afghanistan puis en Irak. Le Preda­tor (pro­gres­sive­ment rem­placé par le Reaper) reste un précurseur isolé, mais depuis les années 2010, l’usage des drones de com­bat est de plus en plus fréquent.

Les Turcs en dis­posent depuis 2012 et ils ont équipé les Azéris lors de la guerre con­tre l’Arménie en 2020 : ces mod­èles, moins sophis­tiqués que les drones améri­cains, ont eu un impact décisif. Russ­es, Indi­ens, Israéliens, Sud-Africains, Pak­istanais fab­riquent leurs pro­pres drones. Les Chi­nois en fab­riquent (Wing Loong 1 et 2, Cai­Hong 1 à 6) et, à la dif­férence des États-Unis qui n’en four­nissent qu’à leurs proches alliés, en vendent à des pays tiers.

Les drones ont mon­tré leur effi­cac­ité sur des théâtres spé­ci­fiques, mais ils ne sont pas com­péti­tifs dans un con­flit de haute intensité.

Dif­férents pro­jets européens ont été dévelop­pés, cer­tains au stade du pro­to­type (Bar­racu­da d’EADS, Tara­nis de BAe), d’autres plus avancés (Neu­ron de Das­sault), ou adop­tés par les armées (Patroller de Safran). Le pro­jet de drone de com­bat européen, longtemps repoussé, a été lancé récem­ment et sera opéra­tionnel vers 2028.

Les drones ont mon­tré leur effi­cac­ité sur des théâtres spé­ci­fiques (com­bat con­tre des ter­ror­istes, con­flits régionaux), mais ils ne sont pas com­péti­tifs dans un con­flit de haute inten­sité. Les enjeux de développe­ment sont la furtiv­ité, l’endurance, la qual­ité des cap­teurs et l’usage accru de l’IA. Alors que les drones MALE (Medi­um Alti­tude Long Endurance) font plusieurs mètres de long, des mod­èles ultra­légers font leur appari­tion. Une équipe de chercheurs chi­nois a dévoilé en 2021 un pro­to­type de drone amphi­bie ne pesant que 1,5 kg. Enfin, les états-majors s’inquiètent aujourd’hui d’une nou­velle men­ace : de petits drones civils équipés d’armes rudi­men­taires (explosifs) et fonc­tion­nant en essaim.

#2 Robots terrestres

Util­isés prin­ci­pale­ment sur des mis­sions défen­sives (sur­veil­lance, pro­tec­tion des sites), ou de trans­port, les robots ter­restres sont moins répan­dus. La mobil­ité sur des ter­rains acci­den­tés pose des prob­lèmes tech­niques deman­dant, dans le cas des robots « à pattes » comme ceux de Boston Dynam­ics, des prouess­es tech­niques, y com­pris pour les robots « mules » util­isés par l’armée américaine.

Moins spec­tac­u­laires mais en plein essor, les véhicules ter­restres lourds sans pilote (unmanned ground vehi­cles), mon­tés sur che­nilles sont util­isés pour des tâch­es de trans­port mais peu­vent aus­si servir de sup­port à des sys­tèmes de drones. Proches de mod­èles util­isés dans le civ­il, moins onéreux que les drones, ils sont dévelop­pés par des indus­triels dif­férents, comme l’estonien Mil­rem Robot­ics dont le THeMIS a été déployé en 2019 dans la mis­sion Barkhane au Mali. L’armée russe est l’une des seules à avoir armé ces véhicules, avec l’Uran‑9 qui aurait été testé en Syrie.

Débats

De nom­breux débats ont entouré l’émergence des drones de com­bat. Le terme « Killer Robot » a été poussé par des mil­i­tants opposés à son usage. Le pub­lic craint de voir ces tech­nolo­gies util­isées par un acteur mal­faisant pour domin­er un champ de bataille ou une pop­u­la­tion. Une autre crainte touche au rôle de l’IA. En juil­let 2015, une let­tre ouverte sur les armes autonomes1 signée par des chercheurs en robo­t­ique et en IA, mais aus­si par l’astrophysicien Stephen Hawkins et les entre­pre­neurs Elon Musk et Steve Woz­ni­ak, s’en inquié­tait : « nous pour­rions, un jour, per­dre le con­trôle des sys­tèmes d’IA par l’as­cen­sion d’une super intel­li­gence qui n’a­gi­rait pas en con­for­mité avec les désirs de l’humanité ».

Les futurs débats entre États risquent de ne plus con­cern­er l’ex­is­tence de ces sys­tèmes, mais plutôt les règles d’engagement.

Plus con­crète­ment, il existe le risque d’une perte de con­trôle : en 2020, d’après un rap­port de l’ONU, un drone en Libye aurait tué sa cible sans « ordre direct2 ». Cela soulève des ques­tions tech­niques : com­ment éviter de per­dre le con­trôle ou de voir faire pirater les sys­tèmes, et des ques­tions de fond : les robots mil­i­taires autonomes doivent-ils être inter­dits ? Si oui, com­ment définir pré­cisé­ment le mot « autonome » ? Dans le cas con­traire, com­ment répar­tir la respon­s­abil­ité en cas de mau­vaise util­i­sa­tion ou de dys­fonc­tion­nement ? On peut soutenir, pour­tant, que la tech­nolo­gie pour­rait poten­tielle­ment sauver des vies en évi­tant les pertes civiles, ou en met­tant fin aux guer­res plus rapidement.

Christof Heyns, rap­por­teur spé­cial de l’ONU jusqu’en 2016, a plaidé vigoureuse­ment pour un mora­toire sur le développe­ment de ces sys­tèmes. Sa crainte était de voir les États se lancer dans une course aux arme­ments, avec un « coût d’entrée » beau­coup plus faible que pour l’arme nucléaire : des États voy­ous ou des organ­i­sa­tions crim­inelles pour­raient s’équiper. Mais cette course a com­mencé. Les futurs débats (entre États) risquent de ne plus con­cern­er l’ex­is­tence de ces sys­tèmes, mais plutôt les règles d’engagement.

1https://​future​oflife​.org/​o​p​e​n​-​l​e​t​t​e​r​-​a​u​t​o​n​o​m​o​u​s​-​w​e​apons
2https://​doc​u​ments​-dds​-ny​.un​.org/​d​o​c​/​U​N​D​O​C​/​G​E​N​/​N​2​1​/​0​3​7​/​7​3​/​P​D​F​/​N​2​1​0​3​7​7​3​.​p​d​f​?​O​p​e​n​E​l​ement

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter