3_regulationIA
π Numérique π Société
Comment réguler l’intelligence artificielle ?

Va-t-on vers une régulation mondiale de l’IA ?

avec Henri Verdier, ambassadeur pour le numérique et membre fondateur du pôle de compétitivité Cap Digital
Le 14 mai 2024 |
5 min. de lecture
Henri Verdier
Henri Verdier
ambassadeur pour le numérique et membre fondateur du pôle de compétitivité Cap Digital
En bref
  • L’IA est une technologie aux innombrables promesses, mais son utilisation présente de nombreuses dérives : deep fake, violation des droits de l'Homme ou manipulation de l’opinion.
  • Cet outil multiusage en constante évolution suscite une intense réflexion mondiale sur un cadre de gouvernance partagée.
  • De plus en plus, les nouvelles IA menacent la vie privée des utilisateurs et la propriété intellectuelle.
  • En régulant l’IA à l’échelle « nationale », l’Europe craint d’être affaiblie et dépassée par les autres puissances.
  • La France accueillera en 2025 un grand sommet international sur l’IA qui permettra de faire avancer ces questions.
  • Bien que la technologie évolue rapidement, il est possible de réguler l'IA à long terme en se basant sur des principes fondamentaux et robustes.

Quels enjeux faut-il prendre en compte aujourd’hui pour une régulation de l’intelligence artificielle ?

De nom­breux pro­blèmes doivent être consi­dé­rés. D’abord, il y a la peur d’un risque exis­ten­tiel ali­men­tée par les récits d’une IA qui pour­rait s’autonomiser et détruire l’humanité. Cepen­dant, je n’y crois pas vrai­ment – en tous cas avec les modèles qui arrivent aujourd’hui. Ensuite, il y a la crainte d’un oli­go­pole, avec une forte dépen­dance à une poi­gnée d’entreprises. Il y a éga­le­ment le risque de vio­la­tion des droits de l’Homme. Et dans ce cas, entre en compte une nou­velle donne : long­temps, les actions les plus ter­ribles étaient réser­vées aux pays et aux armées des pays les plus puis­sants. Là, c’est une tech­no­lo­gie banale, grand public. La même IA qui per­met de détec­ter des can­cers pour­rait empê­cher une par­tie de la popu­la­tion d’entrer dans les aéro­ports. On avait rare­ment vu des tech­no­lo­gies aus­si mul­ti-usages. L’IA rend aus­si pos­sible des actes mal­veillants, comme les deep fake, les attaques dans nos sys­tèmes, ou la mani­pu­la­tion de l’opinion. Sans comp­ter ce qu’elle va dés­équi­li­brer en matière de pro­prié­té intel­lec­tuelle, de pro­tec­tion du domaine public, de défense de la vie pri­vée, et les bou­le­ver­se­ments dans le monde du tra­vail. Tous ces défis, ajou­tés au désir de béné­fi­cier réel­le­ment des pro­messes de l’IA (qui sont innom­brables), ont sus­ci­té une intense réflexion mon­diale sur un cadre de gou­ver­nance partagée.

Selon vous, quel risque doit-être considéré en priorité ?

Le plus grand risque, selon moi, est celui du mono­pole. C’est une ques­tion de démo­cra­tie. Un des grands dan­gers c’est que l’économie mon­diale, la socié­té et les médias entrent dans une ultra-dépen­dance vis-à-vis d’un petit oli­go­pole que l’on n’arrive pas à régu­ler. Au nom de cette ana­lyse, j’essaie de pous­ser la défense des com­muns numé­riques, de l’open source. Il s’agit d’être cer­tain qu’il y ait des modèles libres d’utilisation pour que tous les citoyens puissent s’en empa­rer. Il existe déjà des modèles open source de qua­li­té. Alors la ques­tion se pose : va-t-on mettre assez d’argent public pour les entraî­ner au béné­fice de tout le monde ? Selon moi, le grand com­bat est là. S’assurer qu’il y ait des res­sources pour l’intérêt géné­ral et qu’il sera pos­sible d’innover sans deman­der de permissions.

Y a‑t-il une attention internationale particulière sur certains risques liés à l’IA ?

Dans les aspects qui pour­raient ame­ner à une coor­di­na­tion inter­na­tio­nale, il y a les effets indi­rects de l’IA. En effet, ces tech­no­lo­gies pour­raient per­tur­ber la manière dont on a construit la pro­tec­tion de la vie pri­vée. Aujourd’hui, le prin­cipe géné­ral est de pro­té­ger les don­nées per­son­nelles pour pro­té­ger les per­sonnes. Avec l’IA, en fai­sant un modèle de pré­dic­tion, on peut connaître beau­coup d’éléments, voire tout sur une per­sonne. Les modèles pré­dic­tifs peuvent prendre en compte l’âge, le lieu de vie, de tra­vail et don­ner avec une très bonne pro­ba­bi­li­té le risque de can­cer ou la pos­si­bi­li­té d’aimer tel film. Un autre enjeu débat­tu au niveau inter­na­tio­nal est celui de la pro­prié­té intel­lec­tuelle. Il est aujourd’hui pos­sible de deman­der à une IA de pro­duire des pein­tures à la façon de Keith Haring et de les vendre, ce qui pose sou­ci aux ayants droit de l’artiste. 

Est-ce qu’il y a une véritable prise de conscience de la nécessité d’une régulation internationale ?

Il y a une dizaine d’années, il y a eu un accord tacite pour ne pas régu­ler les réseaux sociaux. Main­te­nant, ces entre­prises pèsent 1000 mil­liards de dol­lars et il est très dif­fi­cile de chan­ger leur tra­jec­toire. La plu­part des États déve­lop­pés se disent qu’ils ne refe­ront pas l’erreur et qu’il ne faut pas rater le coche ce coup-ci. Mais cela signi­fie qu’ils savent quoi faire. Il existe une conscience nou­velle que la régu­la­tion doit s’ancrer dans un cadre inter­na­tio­nal. Il n’y a tel­le­ment plus de fron­tières dans le monde numé­rique, qu’il est pos­sible de s’installer dans n’importe quel pays en étant pré­sent dans un autre. En clair, il y a une intense acti­vi­té inter­na­tio­nale autour des enjeux majeurs cités pré­cé­dem­ment : le risque exis­ten­tiel, la ques­tion de la sou­ve­rai­ne­té éco­no­mique et les acteurs malveillants.

L’échelle internationale est-elle la seule pertinente pour encadrer l’intelligence artificielle ?

Non. L’échelle « régio­nale » (à savoir un ensemble cohé­rent de pays), est éga­le­ment très impor­tante. L’Europe a appris à ses dépens qu’en régu­lant l’ensemble des usages numé­riques à l’échelle natio­nale, elle n’était pas assez forte pour faire plier les géants. Quand on pose un cadre euro­péen, ils négo­cient. Mais cela crée d’autres ten­sions, et nous ne vou­lons pas encou­ra­ger un ordre inter­na­tio­nal fon­dé sur des déci­sions d’application extra-ter­ri­to­riales. Donc l’idée que l’international est la bonne taille pour pen­ser le numé­rique s’est ins­tal­lée, et on ne la remet plus trop en question.

En droit pur, nous avons le droit d’interdire le déve­lop­pe­ment de cer­taines IA. Mais nous avons peur que les autres puis­sances conti­nuent, et que l’on devienne faible et dépas­sé. Il s’agit d’être à la fois pro-inno­va­tion et pro-sécu­ri­té pour les citoyens, et c’est ce qui fait que tout le monde aime­rait bien que les déci­sions soient col­lec­tives. Ces tech­no­lo­gies changent très vite, et créent beau­coup de puis­sance, donc on ne veut pas faire de désar­me­ment unilatéral.

Où en est-on de la réflexion et de la concrétisation de cet encadrement ? 

Il y a une réflexion sur le cadre éthique. Des dis­cus­sions ont lieu dans des dizaines d’enceintes au sein des entre­prises, de la socié­té civile, chez les cher­cheurs, à l’ONU, au G7, à l’OCDE ou encore dans le cadre de l’initiative fran­çaise de par­te­na­riat mon­dial pour l’intelligence arti­fi­cielle. Il y a aus­si une diplo­ma­tie qui sort des ambas­sades, des débats à l’Inter­net Gover­nance Forum, au som­met annuel sur les droits de l’Homme, le Rights­Con. Petit à petit, des idées s’installent ou s’imposent. On est encore en train de faire émer­ger les concepts sur les­quels il y aura un accord. Un pre­mier consen­sus émerge autour de cer­tains prin­cipes : ne pas faire d’usage contraires aux droits de l’homme, la tech­no­lo­gie doit être dans l’intérêt des uti­li­sa­teurs, il faut prou­ver que des pré­cau­tions ont été prises pour qu’il n’y ait pas de biais dans l’éducation des modèles, la néces­si­té de la trans­pa­rence pour que les experts puissent audi­ter les modèles. Après, il sera temps de cher­cher des traités.

Il y a éga­le­ment des débats sur un cadre démo­cra­tique. Com­ment s’assure-t-on que ces entre­prises ne sont pas en train de nous mani­pu­ler ? Est-ce qu’on a le droit de savoir avec quelles don­nées les IA ont été édu­quées ? Les notions de sécu­ri­té face au risque exis­ten­tiel ont été beau­coup dis­cu­tées au Royaume-Uni lors du som­met mon­dial de l’année der­nière. Désor­mais, la conver­sa­tion s’engage sur le futur du tra­vail, de la pro­prié­té intel­lec­tuelle, par exemple. La France accueille­ra en 2025 un grand som­met inter­na­tio­nal sur l’IA qui per­met­tra de faire avan­cer ces questions.

La réflexion va-t-elle aussi vite que la technologie ?

Beau­coup de per­sonnes pensent que non. Je pense pour ma part qu’un bon texte est prin­ci­piel. La Décla­ra­tion des droits de l’homme est tou­jours valable, pour­tant, les tech­no­lo­gies ont chan­gé. La loi Infor­ma­tique et liber­tés de 1978 est deve­nue le RGPD, mais le prin­cipe du consen­te­ment de l’utilisateur pour que les don­nées cir­culent n’a pas pris une ride. Si on arrive à trou­ver des prin­cipes robustes, on peut faire des textes qui passent les siècles. Je pense qu’on pour­rait régu­ler l’IA avec le RGPD, la res­pon­sa­bi­li­té des médias et des édi­teurs de conte­nu, et deux ou trois autres textes qui existent déjà. Il n’est pas sûr qu’il y ait besoin d’un cadre entiè­re­ment nouveau.

Sirine Azououai

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don