4_reglementation
π Science et technologies π Géopolitique
Faut-il avoir peur des robots tueurs ?

La prolifération des armes autonomes est-elle inévitable ?

avec Richard Robert, journaliste et auteur
Le 9 novembre 2021 |
3min. de lecture
En bref
  • Certaines ONG et gouvernements ont tenté d'obtenir l'interdiction des robots tueurs dans le cadre de campagnes telles que Stop Killer Robots.
  • Les arguments avancés sont la déshumanisation, les biais algorithmiques et le manque de compréhension par les machines des conséquences de leurs actions.
  • Cependant, la propagation rapide de ces systèmes d'armement semble avoir mis de côté ces discussions, conduisant à une course aux armes robots.
  • Une forme de contrôle humain est donc nécessaire et reste au cœur des discussions actuelles.

L’essor des armes létales auto­nomes au début des années 2000 a pro­vo­qué des réac­tions poli­tiques : depuis 2013, des États et des orga­ni­sa­tions non gou­ver­ne­men­tales ont enga­gé des dis­cus­sions dans le cadre de la Conven­tion sur les armes conven­tion­nelles, une ins­tance des Nations-unies située à Genève. Une cam­pagne a par ailleurs été lan­cée par des orga­ni­sa­tions non gou­ver­ne­men­tales et notam­ment Human Watch Inter­na­tio­nal, Stop Killer Robots. Mais en 2021 force est de consta­ter que les efforts n’ont pas abou­ti. La course aux arme­ments qui s’est enga­gée rend très peu pro­bable une inter­dic­tion pure et simple. Face à un « lais­sez-faire » de fac­to, la ques­tion s’est donc dépla­cée vers une régle­men­ta­tion internationale.

Les arguments en faveur d’une interdiction

Le pre­mier argu­ment mis en avant par la cam­pagne Stop Killer Robots est la déshu­ma­ni­sa­tion : les machines ne nous voient pas comme des per­sonnes, mais comme des lignes de code. Le second argu­ment est celui des biais algo­rith­miques : la recon­nais­sance faciale uti­li­sée dans cer­tains sys­tèmes d’armes auto­ma­tiques favo­rise les visages pâles aux traits mar­qués, repro­dui­sant ain­si des dis­cri­mi­na­tions ins­ti­tu­tion­nelles envers les femmes et les per­sonnes de cou­leur. Le troi­sième argu­ment est celui de la dif­fé­rence entre une déci­sion humaine et une déci­sion infor­ma­tique : les machines ne com­prennent pas la com­plexi­té d’un contexte et les consé­quences de leurs actions peuvent miner l’ordre juri­dique et social. 

Les machines ne com­prennent pas la com­plexi­té et les consé­quences de leurs actions… les humains doivent en conser­ver le contrôle.

C’est pour­quoi les humains doivent en conser­ver le contrôle. D’autres élé­ments vont dans ce sens, comme la ques­tion de la res­pon­sa­bi­li­té juri­dique, ou l’abaissement du seuil de déclen­che­ment d’un conflit. Une guerre de drones  s’ap­pa­rente à un jeu vidéo, menant à la déres­pon­sa­bi­li­sa­tion des bel­li­gé­rants. Le der­nier argu­ment est la course aux arme­ments. Or celle-ci a com­men­cé et c’est pré­ci­sé­ment elle qui explique l’échec de la cam­pagne pour inter­dire les sys­tèmes d’armes autonomes.

L’échec des discussions entre États

Paral­lè­le­ment à la cam­pagne des ONG acti­vistes, un cer­tain nombre d’États ont pous­sé pour une sévère limi­ta­tion, et une tren­taine se sont pro­non­cés en faveur d’une inter­dic­tion com­plète. Le secré­taire géné­ral de l’ONU s’est expri­mé à plu­sieurs reprises sur le sujet, en termes vigou­reux1 « les machines qui ont le pou­voir et la dis­cré­tion de tuer sans inter­ven­tion humaine sont poli­ti­que­ment inac­cep­tables, mora­le­ment répu­gnantes et devraient être inter­dites par le droit inter­na­tio­nal ». Mais la dif­fu­sion rapide de ces sys­tèmes d’armes (pro­duits par un nombre gran­dis­sant de pays dont cer­tains en font le com­merce) a pris de vitesse ces discussions.

L’une des rai­sons de cet échec est que les pays plai­dant pour une inter­dic­tion pure et simple ont peu de poids sur la scène inter­na­tio­nale, tan­dis que les prin­ci­paux pays pro­duc­teurs et uti­li­sa­teurs sont des poids lourds : États-Unis, Chine et Rus­sie sont des membres per­ma­nents du Conseil de sécu­ri­té. La pers­pec­tive d’un trai­té a été reje­tée for­mel­le­ment en 2019. Les États-Unis et la Rus­sie for­maient le noyau dur des oppo­sants. La Chine, moins reven­di­ca­trice, est sur la même ligne. Le Royaume-Uni et la France, qui sont les deux autres membres per­ma­nents du Conseil, ont long­temps pen­ché pour une inter­dic­tion mais n’en ont pas moins pris le virage indus­triel de la fabri­ca­tion de ces sys­tèmes d’armes.

La culture poli­tique de ces puis­sances n’est pas de se lais­ser entra­ver, mais bien davan­tage – comme on le voit dans le domaine nucléaire – de limi­ter l’accès à un club de pays. Or les tech­no­lo­gies impli­quées dans les armes létales auto­nomes sont déve­lop­pées en grande par­tie dans le monde civil et vont se géné­ra­li­ser. Dans ces condi­tions, les grands États misent sur leur avance tech­no­lo­gique pour ne pas être pris au dépourvu.

La ten­ta­tive d’interdire s’est donc muée en une ten­ta­tive de régle­men­ter. Les ques­tions posées deviennent plus tech­niques : une défi­ni­tion pré­cise de l’autonomie, de la res­pon­sa­bi­li­té juri­dique. Le dis­cours de Human Watch Inter­na­tio­nal, par exemple, s’est inflé­chi : tout en conti­nuant à plai­der pour une inter­dic­tion, l’ONG exige « le main­tien d’un contrôle humain signi­fi­ca­tif sur les sys­tèmes d’armes et le recours à la force ». Une régle­men­ta­tion s’appuierait sur les prin­cipes du droit inter­na­tio­nal : l’o­bli­ga­tion de dis­tin­guer entre civils et com­bat­tants, la pro­por­tion­na­li­té des moyens et des fins, et la néces­si­té mili­taire du recours à la force. Mais conver­tir ces prin­cipes par­fois abs­traits en solu­tions tech­niques n’a rien d’évident ; d’où l’idée désor­mais cen­trale, dans les dis­cus­sions, de main­te­nir une forme de contrôle humain. La ten­dance tech­no­lo­gique allant vers une auto­no­mie crois­sante avec un rôle accru de l’IA, c’est entre ces deux pôles (contrôle humain – déci­sion par l’AI) que se joue l’avenir des armes autonomes.

1https://​news​.un​.org/​f​r​/​s​t​o​r​y​/​2​0​1​9​/​0​3​/​1​0​39521

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don à Polytechnique Insights