3_regulationIA
π Science et technologies π Société
Comment réguler l’intelligence artificielle ?

Va-t-on vers une régulation mondiale de l’IA ?

Henri Verdier, ambassadeur pour le Numérique et membre fondateur du pôle de compétitivité Cap Digital
Le 14 mai 2024 |
5 min. de lecture
Henri Verdier
Henri Verdier
ambassadeur pour le Numérique et membre fondateur du pôle de compétitivité Cap Digital
En bref
  • L’IA est une technologie aux innombrables promesses, mais son utilisation présente de nombreuses dérives : deep fake, violation des droits de l'Homme ou manipulation de l’opinion.
  • Cet outil multiusage en constante évolution suscite une intense réflexion mondiale sur un cadre de gouvernance partagée.
  • De plus en plus, les nouvelles IA menacent la vie privée des utilisateurs et la propriété intellectuelle.
  • En régulant l’IA à l’échelle « nationale », l’Europe craint d’être affaiblie et dépassée par les autres puissances.
  • La France accueillera en 2025 un grand sommet international sur l’IA qui permettra de faire avancer ces questions.
  • Bien que la technologie évolue rapidement, il est possible de réguler l'IA à long terme en se basant sur des principes fondamentaux et robustes.

Quels enjeux faut-il prendre en compte aujourd’hui pour une régulation de l’intelligence artificielle ?

De nom­breux prob­lèmes doivent être con­sid­érés. D’abord, il y a la peur d’un risque exis­ten­tiel ali­men­tée par les réc­its d’une IA qui pour­rait s’autonomiser et détru­ire l’humanité. Cepen­dant, je n’y crois pas vrai­ment – en tous cas avec les mod­èles qui arrivent aujourd’hui. Ensuite, il y a la crainte d’un oli­go­p­o­le, avec une forte dépen­dance à une poignée d’entreprises. Il y a égale­ment le risque de vio­la­tion des droits de l’Homme. Et dans ce cas, entre en compte une nou­velle donne : longtemps, les actions les plus ter­ri­bles étaient réservées aux pays et aux armées des pays les plus puis­sants. Là, c’est une tech­nolo­gie banale, grand pub­lic. La même IA qui per­met de détecter des can­cers pour­rait empêch­er une par­tie de la pop­u­la­tion d’entrer dans les aéro­ports. On avait rarement vu des tech­nolo­gies aus­si mul­ti-usages. L’IA rend aus­si pos­si­ble des actes malveil­lants, comme les deep fake, les attaques dans nos sys­tèmes, ou la manip­u­la­tion de l’opinion. Sans compter ce qu’elle va déséquili­br­er en matière de pro­priété intel­lectuelle, de pro­tec­tion du domaine pub­lic, de défense de la vie privée, et les boule­verse­ments dans le monde du tra­vail. Tous ces défis, ajoutés au désir de béné­fici­er réelle­ment des promess­es de l’IA (qui sont innom­brables), ont sus­cité une intense réflex­ion mon­di­ale sur un cadre de gou­ver­nance partagée.

Selon vous, quel risque doit-être considéré en priorité ?

Le plus grand risque, selon moi, est celui du mono­pole. C’est une ques­tion de démoc­ra­tie. Un des grands dan­gers c’est que l’économie mon­di­ale, la société et les médias entrent dans une ultra-dépen­dance vis-à-vis d’un petit oli­go­p­o­le que l’on n’arrive pas à réguler. Au nom de cette analyse, j’essaie de pouss­er la défense des com­muns numériques, de l’open source. Il s’agit d’être cer­tain qu’il y ait des mod­èles libres d’utilisation pour que tous les citoyens puis­sent s’en empar­er. Il existe déjà des mod­èles open source de qual­ité. Alors la ques­tion se pose : va-t-on met­tre assez d’argent pub­lic pour les entraîn­er au béné­fice de tout le monde ? Selon moi, le grand com­bat est là. S’assurer qu’il y ait des ressources pour l’intérêt général et qu’il sera pos­si­ble d’innover sans deman­der de permissions.

Y a‑t-il une attention internationale particulière sur certains risques liés à l’IA ?

Dans les aspects qui pour­raient amen­er à une coor­di­na­tion inter­na­tionale, il y a les effets indi­rects de l’IA. En effet, ces tech­nolo­gies pour­raient per­turber la manière dont on a con­stru­it la pro­tec­tion de la vie privée. Aujourd’hui, le principe général est de pro­téger les don­nées per­son­nelles pour pro­téger les per­son­nes. Avec l’IA, en faisant un mod­èle de pré­dic­tion, on peut con­naître beau­coup d’éléments, voire tout sur une per­son­ne. Les mod­èles pré­dic­tifs peu­vent pren­dre en compte l’âge, le lieu de vie, de tra­vail et don­ner avec une très bonne prob­a­bil­ité le risque de can­cer ou la pos­si­bil­ité d’aimer tel film. Un autre enjeu débat­tu au niveau inter­na­tion­al est celui de la pro­priété intel­lectuelle. Il est aujourd’hui pos­si­ble de deman­der à une IA de pro­duire des pein­tures à la façon de Kei­th Har­ing et de les ven­dre, ce qui pose souci aux ayants droit de l’artiste. 

Est-ce qu’il y a une véritable prise de conscience de la nécessité d’une régulation internationale ?

Il y a une dizaine d’années, il y a eu un accord tacite pour ne pas réguler les réseaux soci­aux. Main­tenant, ces entre­pris­es pèsent 1000 mil­liards de dol­lars et il est très dif­fi­cile de chang­er leur tra­jec­toire. La plu­part des États dévelop­pés se dis­ent qu’ils ne refer­ont pas l’erreur et qu’il ne faut pas rater le coche ce coup-ci. Mais cela sig­ni­fie qu’ils savent quoi faire. Il existe une con­science nou­velle que la régu­la­tion doit s’ancrer dans un cadre inter­na­tion­al. Il n’y a telle­ment plus de fron­tières dans le monde numérique, qu’il est pos­si­ble de s’installer dans n’importe quel pays en étant présent dans un autre. En clair, il y a une intense activ­ité inter­na­tionale autour des enjeux majeurs cités précédem­ment : le risque exis­ten­tiel, la ques­tion de la sou­veraineté économique et les acteurs malveillants.

L’échelle internationale est-elle la seule pertinente pour encadrer l’intelligence artificielle ?

Non. L’échelle « régionale » (à savoir un ensem­ble cohérent de pays), est égale­ment très impor­tante. L’Europe a appris à ses dépens qu’en régu­lant l’ensemble des usages numériques à l’échelle nationale, elle n’était pas assez forte pour faire pli­er les géants. Quand on pose un cadre européen, ils négo­cient. Mais cela crée d’autres ten­sions, et nous ne voulons pas encour­ager un ordre inter­na­tion­al fondé sur des déci­sions d’application extra-ter­ri­to­ri­ales. Donc l’idée que l’international est la bonne taille pour penser le numérique s’est instal­lée, et on ne la remet plus trop en question.

En droit pur, nous avons le droit d’interdire le développe­ment de cer­taines IA. Mais nous avons peur que les autres puis­sances con­tin­u­ent, et que l’on devi­enne faible et dépassé. Il s’agit d’être à la fois pro-inno­va­tion et pro-sécu­rité pour les citoyens, et c’est ce qui fait que tout le monde aimerait bien que les déci­sions soient col­lec­tives. Ces tech­nolo­gies changent très vite, et créent beau­coup de puis­sance, donc on ne veut pas faire de désarme­ment unilatéral.

Où en est-on de la réflexion et de la concrétisation de cet encadrement ? 

Il y a une réflex­ion sur le cadre éthique. Des dis­cus­sions ont lieu dans des dizaines d’enceintes au sein des entre­pris­es, de la société civile, chez les chercheurs, à l’ONU, au G7, à l’OCDE ou encore dans le cadre de l’initiative française de parte­nar­i­at mon­di­al pour l’intelligence arti­fi­cielle. Il y a aus­si une diplo­matie qui sort des ambas­sades, des débats à l’Inter­net Gov­er­nance Forum, au som­met annuel sur les droits de l’Homme, le RightsCon. Petit à petit, des idées s’installent ou s’imposent. On est encore en train de faire émerg­er les con­cepts sur lesquels il y aura un accord. Un pre­mier con­sen­sus émerge autour de cer­tains principes : ne pas faire d’usage con­traires aux droits de l’homme, la tech­nolo­gie doit être dans l’intérêt des util­isa­teurs, il faut prou­ver que des pré­cau­tions ont été pris­es pour qu’il n’y ait pas de biais dans l’éducation des mod­èles, la néces­sité de la trans­parence pour que les experts puis­sent auditer les mod­èles. Après, il sera temps de chercher des traités.

Il y a égale­ment des débats sur un cadre démoc­ra­tique. Com­ment s’assure-t-on que ces entre­pris­es ne sont pas en train de nous manip­uler ? Est-ce qu’on a le droit de savoir avec quelles don­nées les IA ont été éduquées ? Les notions de sécu­rité face au risque exis­ten­tiel ont été beau­coup dis­cutées au Roy­aume-Uni lors du som­met mon­di­al de l’année dernière. Désor­mais, la con­ver­sa­tion s’engage sur le futur du tra­vail, de la pro­priété intel­lectuelle, par exem­ple. La France accueillera en 2025 un grand som­met inter­na­tion­al sur l’IA qui per­me­t­tra de faire avancer ces questions.

La réflexion va-t-elle aussi vite que la technologie ?

Beau­coup de per­son­nes pensent que non. Je pense pour ma part qu’un bon texte est prin­cip­iel. La Déc­la­ra­tion des droits de l’homme est tou­jours val­able, pour­tant, les tech­nolo­gies ont changé. La loi Infor­ma­tique et lib­ertés de 1978 est dev­enue le RGPD, mais le principe du con­sen­te­ment de l’utilisateur pour que les don­nées cir­cu­lent n’a pas pris une ride. Si on arrive à trou­ver des principes robustes, on peut faire des textes qui passent les siè­cles. Je pense qu’on pour­rait réguler l’IA avec le RGPD, la respon­s­abil­ité des médias et des édi­teurs de con­tenu, et deux ou trois autres textes qui exis­tent déjà. Il n’est pas sûr qu’il y ait besoin d’un cadre entière­ment nouveau.

Sirine Azououai

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter