0_robotsTueurs
π Science et technologies π Géopolitique
Faut-il avoir peur des robots tueurs ?

Peut-on justifier l’utilisation des robots militaires ?

Richard Robert, journaliste et auteur
Le 9 novembre 2021 |
5 min. de lecture
Alan Wagner
Alan Wagner
professeur adjoint au département du génie aérospatial et chercheur associé au Rock Ethics Institute
En bref
  • En théorie, les robots soldats ne connaîtraient ni la rancune, ni la colère. Mais l'éventualité d'un accident soulève des questions de responsabilité, sujet crucial dans le domaine militaire.
  • Les progrès en matière d’autonomie et de létalité posent un problème philosophique : est-il acceptable de mettre des soldats humains face à des machines incroyablement efficaces ?
  • Mais un ciblage toujours plus précis amène vers une « guerre de précision », qui serait potentiellement moins sanglante.
  • Cette évolution pourrait également conduire à un nouveau type de dissuasion.

Les robots mil­i­taires ont fait des pro­grès con­sid­érables au cours des deux dernières décen­nies, ce qui soulève des ques­tions quant à leur engage­ment act­if sur le champ de bataille. Quels sont les prob­lèmes éthiques ?

Il y a des avan­tages et des incon­vénients. Tout d’abord, étant don­né que les robots sol­dats ne sont pas émo­tifs ou ran­cu­niers, qu’ils ne con­nais­sent pas la colère, en théorie ils suiv­raient à la let­tre les règles de la guerre. Cela pour­rait empêch­er cer­taines des atroc­ités com­mis­es en temps de guerre. En ce sens, les robots pour­raient avoir un com­porte­ment plus éthique que les humains. Cepen­dant, à l’heure actuelle, les sys­tèmes robo­t­iques ne sont générale­ment pas capa­bles de faire la dis­tinc­tion entre civils et mil­i­taires. Par con­séquent, il existe un risque que les robots ciblent acci­den­telle­ment des civils. Ces deux argu­ments ne s’ex­clu­ent pas mutuellement.

La pos­si­bil­ité d’un acci­dent est au cœur du débat éthique actuel.

L’éven­tu­al­ité d’un acci­dent soulève des ques­tions de respon­s­abil­ité, qui sont au cœur du débat éthique actuel. L’une de nos valeurs en matière mil­i­taire est que c’est un humain qui est respon­s­able de la déci­sion. Mais la respon­s­abil­ité est une notion très déli­cate lorsqu’il s’ag­it de robots mil­i­taires. Si un com­man­dant autorise un sys­tème autonome, jusqu’où est-il respon­s­able de sa con­duite ? Si le sys­tème fait des erreurs, com­bi­en de temps l’au­torité per­siste-t-elle ? Sur une péri­ode don­née ? Seule­ment pour cer­taines actions ? Ces ques­tions doivent faire l’ob­jet d’une réflex­ion plus poussée, mais aus­si d’une cod­i­fi­ca­tion, afin de décider des lim­ites de ces systèmes.

La déf­i­ni­tion de la respon­s­abil­ité et de l’au­torité est un point juridique, qui pour­rait être traité sur la base d’un ensem­ble de règles. Mais il y a aus­si un prob­lème philosophique : la per­spec­tive de sol­dats en chair et en os face à des êtres de métal est-elle acceptable ?

On en revient à nos valeurs et à nos sys­tèmes de croy­ance. La ques­tion n’est pas seule­ment de savoir à quel point il serait injuste pour un sol­dat d’af­fron­ter une machine tueuse du type Ter­mi­na­tor. Bien sûr, si une valeur-clé de votre armée et de votre société est que seul un humain peut décider de pren­dre la vie d’un autre humain, alors cela exclut l’u­til­i­sa­tion de sys­tèmes autonomes pour la plu­part des opéra­tions mil­i­taires. Mais débat­tre en ter­mes aus­si abso­lus revient à sim­pli­fi­er la ques­tion. Vous pou­vez avoir un sys­tème de valeurs qui favorise la sécu­rité de vos sol­dats. Dans ce cas, des robots autonomes ont leur place dans votre armée.

Les valeurs sont sou­vent en con­flit les unes avec les autres et requièrent un com­pro­mis. Pour la plu­part des pays, la prin­ci­pale valeur est de ne pas per­dre une guerre, car les con­séquences sont impor­tantes pour la société dans son ensem­ble. Cela soulève un défi : si un pays développe des sys­tèmes autonomes qui n’ont pas de valeurs éthiques, mais lui don­nent un avan­tage stratégique, êtes-vous tenu de faire de même afin de ne pas renon­cer à cet avantage ?

À l’in­verse, il y a la ques­tion de la légitim­ité. Si vous gag­nez une bataille grâce aux robots, votre adver­saire acceptera-t-il votre vic­toire ? Pour­rez-vous réelle­ment faire la paix et met­tre fin à la guerre ? Il s’agit d’une ques­tion essen­tielle, qui passe pour­tant inaperçue dans les débats éthiques sur les robots mil­i­taires. Elle va de pair avec la pos­si­bil­ité que l’usage des robots accroisse la propen­sion à lancer des opéra­tions. En Irak, on sait que lorsque les sol­dats améri­cains n’é­taient pas en dan­ger, le nom­bre d’at­taques de drones par les États-Unis a aug­men­té ; ce qui sug­gère que les drones favorisent les batailles et les guer­res. Mais à l’inverse, lors de la récente guerre entre l’Ar­ménie et l’Azer­baïd­jan, l’u­til­i­sa­tion de drones aurait pu met­tre fin à la guerre plus rapidement.

Dans le passé, la mécan­i­sa­tion de la guerre l’a ren­due plus coû­teuse et plus sanglante, avant un retourne­ment de sit­u­a­tion. Cela pour­rait-il être le cas avec les robots ?

Il n’est pas cer­tain que les robots ren­dent la guerre plus sanglante. Ils pour­raient la ren­dre moins sanglante si les sys­tèmes autonomes con­tin­u­ent à pro­gress­er en matière de ciblage, en évi­tant com­plète­ment les vic­times civiles. Des mil­liers de vies seraient ain­si épargnées. C’est pourquoi il faut être pru­dent sur la notion même de « robot tueur ».

Nous pou­vons ne pas être très à l’aise avec les mis­siles guidés, mais ils rem­pla­cent les bom­barde­ments en tapis. Le même phénomène s’est pro­duit dans l’a­gri­cul­ture, où après un siè­cle d’u­til­i­sa­tion mas­sive d’en­grais, nous pas­sons à un mod­èle de pré­ci­sion. L’expression de « frappes chirur­gi­cales », util­isée dans les années 1990, a été cri­tiquée comme étant un sim­ple slo­gan. Mais la ten­dance sous-jacente, qui est tout à fait cohérente avec nos sys­tèmes de valeurs, est que nous avons con­tin­ué à dévelop­per des tech­nolo­gies per­me­t­tant de min­imiser les pertes civiles. Les années 90 ont mar­qué le début de la guerre de pré­ci­sion. Nous dis­posons aujourd’hui d’une recon­nais­sance de pré­ci­sion et égale­ment de capac­ités d’as­sas­si­nat ciblé, avec des fusils à longue portée capa­bles de tuer une seule per­son­ne dans une voiture.

Des mil­liers de vies pour­raient être sauvées, il faut donc être pru­dent sur la notion même de robot tueur.

Il est dif­fi­cile de savoir si nous devons dis­pos­er de ces tech­nolo­gies ou si nous devons men­er les guer­res qui pour­raient en résul­ter sans elles. L’ar­gu­ment de la pente glis­sante dit que cela pour­rait devenir une bataille pour le con­trôle de ces tech­nolo­gies. Mais un autre argu­ment est que si les chefs d’É­tat ou des décideurs-clés peu­vent être ciblés, la pré­ci­sion peut amen­er la même logique de dis­sua­sion que les bombes nucléaires, inci­tant toutes les par­ties à faire preuve de retenue.

La per­spec­tive de l’in­tel­li­gence arti­fi­cielle mod­i­fie-t-elle ces considérations ?

La rela­tion entre l’IA et la robo­t­ique est sim­ple : le robot est la machine, l’IA est le cerveau. Ils sont étroite­ment liés : plus le sys­tème est intel­li­gent, plus il est per­for­mant. Mais l’IA est un vaste domaine, qui va de la vision et de la per­cep­tion par ordi­na­teur à la prise de déci­sion intel­li­gente en pas­sant par le mou­ve­ment intel­li­gent. Tous ces élé­ments pour­raient être inté­grés aux sys­tèmes robo­t­iques et util­isés pour les ren­dre plus per­for­mants et moins sujets aux défauts et aux erreurs. Ici, l’IA per­met la pré­ci­sion, ce qui ren­force les argu­ments ci-dessus.

L’IA peut-elle rem­plac­er les per­son­nes ? Là encore, la réponse n’est pas sim­ple. Elle peut rem­plac­er l’humain pour cer­taines déci­sions, non létales, ou pour toutes les déci­sions, ou juste une par­tie du temps, mais pas tout le temps. Nous en revenons aux lim­ites juridiques et aux ques­tions de respon­s­abil­ité. Ce qui change vrai­ment, ce sont les paramètres stratégiques de la déci­sion. Nous par­lons ici de guerre ciné­tique. Lorsque vous utilisez, par exem­ple, des drones pour men­er une charge, vous risquez beau­coup moins que lorsque vous engagez des troupes. Les drones ne sont que des objets man­u­fac­turés, faciles à rem­plac­er. Vous pou­vez ne jamais per­dre l’élan si vous pou­vez l’obtenir, ce qui change la donne sur le plan stratégique. Vous pou­vez imag­in­er une bataille dans laque­lle vous déposez un groupe de robots pour con­trôler un pont et ils le font pen­dant des années. Ils ne s’éteignent pas ou ne dor­ment pas. Ils restent là, et per­son­ne ne tra­verse le pont sans autorisation.

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter