4_reglementation
π Science et technologies π Géopolitique
Faut-il avoir peur des robots tueurs ?

La prolifération des armes autonomes est-elle inévitable ?

Richard Robert, journaliste et auteur
Le 9 novembre 2021 |
3 mins de lecture
1
La prolifération des armes autonomes est-elle inévitable ?
En bref
  • Certaines ONG et gouvernements ont tenté d'obtenir l'interdiction des robots tueurs dans le cadre de campagnes telles que Stop Killer Robots.
  • Les arguments avancés sont la déshumanisation, les biais algorithmiques et le manque de compréhension par les machines des conséquences de leurs actions.
  • Cependant, la propagation rapide de ces systèmes d'armement semble avoir mis de côté ces discussions, conduisant à une course aux armes robots.
  • Une forme de contrôle humain est donc nécessaire et reste au cœur des discussions actuelles.

L’essor des armes létales autonomes au début des années 2000 a provo­qué des réac­tions poli­tiques : depuis 2013, des États et des organ­i­sa­tions non gou­verne­men­tales ont engagé des dis­cus­sions dans le cadre de la Con­ven­tion sur les armes con­ven­tion­nelles, une instance des Nations-unies située à Genève. Une cam­pagne a par ailleurs été lancée par des organ­i­sa­tions non gou­verne­men­tales et notam­ment Human Watch Inter­na­tion­al, Stop Killer Robots. Mais en 2021 force est de con­stater que les efforts n’ont pas abouti. La course aux arme­ments qui s’est engagée rend très peu prob­a­ble une inter­dic­tion pure et sim­ple. Face à un « lais­sez-faire » de fac­to, la ques­tion s’est donc déplacée vers une régle­men­ta­tion internationale.

Les arguments en faveur d’une interdiction

Le pre­mier argu­ment mis en avant par la cam­pagne Stop Killer Robots est la déshu­man­i­sa­tion : les machines ne nous voient pas comme des per­son­nes, mais comme des lignes de code. Le sec­ond argu­ment est celui des biais algo­rith­miques : la recon­nais­sance faciale util­isée dans cer­tains sys­tèmes d’armes automa­tiques favorise les vis­ages pâles aux traits mar­qués, repro­duisant ain­si des dis­crim­i­na­tions insti­tu­tion­nelles envers les femmes et les per­son­nes de couleur. Le troisième argu­ment est celui de la dif­férence entre une déci­sion humaine et une déci­sion infor­ma­tique : les machines ne com­pren­nent pas la com­plex­ité d’un con­texte et les con­séquences de leurs actions peu­vent min­er l’ordre juridique et social. C’est pourquoi les humains doivent en con­serv­er le con­trôle. D’autres élé­ments vont dans ce sens, comme la ques­tion de la respon­s­abil­ité juridique, ou l’abaissement du seuil de déclenche­ment d’un con­flit. Une guerre de drones  s’ap­par­ente à un jeu vidéo, menant à la dére­spon­s­abil­i­sa­tion des bel­ligérants. Le dernier argu­ment est la course aux arme­ments. Or celle-ci a com­mencé et c’est pré­cisé­ment elle qui explique l’échec de la cam­pagne pour inter­dire les sys­tèmes d’armes autonomes.

L’échec des discussions entre États

Par­al­lèle­ment à la cam­pagne des ONG activistes, un cer­tain nom­bre d’États ont poussé pour une sévère lim­i­ta­tion, et une trentaine se sont pronon­cés en faveur d’une inter­dic­tion com­plète. Le secré­taire général de l’ONU s’est exprimé à plusieurs repris­es sur le sujet, en ter­mes vigoureux1 « les machines qui ont le pou­voir et la dis­cré­tion de tuer sans inter­ven­tion humaine sont poli­tique­ment inac­cept­a­bles, morale­ment répug­nantes et devraient être inter­dites par le droit inter­na­tion­al ». Mais la dif­fu­sion rapi­de de ces sys­tèmes d’armes (pro­duits par un nom­bre gran­dis­sant de pays dont cer­tains en font le com­merce) a pris de vitesse ces discussions.

L’une des raisons de cet échec est que les pays plaidant pour une inter­dic­tion pure et sim­ple ont peu de poids sur la scène inter­na­tionale, tan­dis que les prin­ci­paux pays pro­duc­teurs et util­isa­teurs sont des poids lourds : États-Unis, Chine et Russie sont des mem­bres per­ma­nents du Con­seil de sécu­rité. La per­spec­tive d’un traité a été rejetée formelle­ment en 2019. Les États-Unis et la Russie for­maient le noy­au dur des opposants. La Chine, moins reven­di­ca­trice, est sur la même ligne. Le Roy­aume-Uni et la France, qui sont les deux autres mem­bres per­ma­nents du Con­seil, ont longtemps penché pour une inter­dic­tion mais n’en ont pas moins pris le virage indus­triel de la fab­ri­ca­tion de ces sys­tèmes d’armes.

La cul­ture poli­tique de ces puis­sances n’est pas de se laiss­er entraver, mais bien davan­tage – comme on le voit dans le domaine nucléaire – de lim­iter l’accès à un club de pays. Or les tech­nolo­gies impliquées dans les armes létales autonomes sont dévelop­pées en grande par­tie dans le monde civ­il et vont se généralis­er. Dans ces con­di­tions, les grands États mis­ent sur leur avance tech­nologique pour ne pas être pris au dépourvu.

La ten­ta­tive d’interdire s’est donc muée en une ten­ta­tive de régle­menter. Les ques­tions posées devi­en­nent plus tech­niques : une déf­i­ni­tion pré­cise de l’autonomie, de la respon­s­abil­ité juridique. Le dis­cours de Human Watch Inter­na­tion­al, par exem­ple, s’est infléchi : tout en con­tin­u­ant à plaider pour une inter­dic­tion, l’ONG exige « le main­tien d’un con­trôle humain sig­ni­fi­catif sur les sys­tèmes d’armes et le recours à la force ». Une régle­men­ta­tion s’appuierait sur les principes du droit inter­na­tion­al : l’oblig­a­tion de dis­tinguer entre civils et com­bat­tants, la pro­por­tion­nal­ité des moyens et des fins, et la néces­sité mil­i­taire du recours à la force. Mais con­ver­tir ces principes par­fois abstraits en solu­tions tech­niques n’a rien d’évident ; d’où l’idée désor­mais cen­trale, dans les dis­cus­sions, de main­tenir une forme de con­trôle humain. La ten­dance tech­nologique allant vers une autonomie crois­sante avec un rôle accru de l’IA, c’est entre ces deux pôles (con­trôle humain – déci­sion par l’AI) que se joue l’avenir des armes autonomes.

1https://​news​.un​.org/​f​r​/​s​t​o​r​y​/​2​0​1​9​/​0​3​/​1​0​39521