ai robot sentenced in court in orange jumpsuit, chained and seated in a prison setting. The background includes guards, highlighting themes of artificial intelligence, control, and dystopian scenarios
π Numérique π Société
Comment réguler l’intelligence artificielle ?

Intelligence artificielle générale : comment va-t-on la réguler ?

avec Jean Langlois-Berthelot, docteur en mathématiques appliquées et Christophe Gaie, chef de division ingénierie et innovation numérique au sein des services du Premier ministre
Le 2 octobre 2024 |
6 min. de lecture
Jean LANGLOIS-BERTHELOT
Jean Langlois-Berthelot
docteur en mathématiques appliquées
Christophe Gaie
Christophe Gaie
chef de division ingénierie et innovation numérique au sein des services du Premier ministre
En bref
  • L'intelligence artificielle (IA) actuelle excelle dans des tâches spécifiques, mais reste différente de l'intelligence artificielle générale (IAG), qui vise une intelligence comparable à celle de l'humain.
  • Les modèles d'IA actuels, bien que sophistiqués, ne sont pas autonomes et présentent des limites importantes qui les différencient de l'IAG.
  • Les craintes liées à l'IAG sont grandissantes ; certains experts sont soucieux qu'elle puisse supplanter l'humanité, tandis que d'autres jugent cette perspective encore éloignée.
  • Pour une régulation rationnelle de l'IAG, il faut une analyse éclairée des enjeux et un équilibre entre prévention des risques et promotion des bénéfices.
  • Des propositions pour une régulation efficace de l'IAG incluent des licences nationales, des tests de sécurité rigoureux et une coopération internationale renforcée.

L’In­tel­li­gence Arti­fi­cielle (IA) est actuel­le­ment en pleine expan­sion et trans­forme de nom­breux aspects de notre quo­ti­dien. Elle opti­mise le fonc­tion­ne­ment des moteurs de recherche et per­met de mieux ana­ly­ser les requêtes pour pro­po­ser les résul­tats les plus per­ti­nents1. Elle amé­liore les sys­tèmes de sur­veillance qui l’utilisent désor­mais pour détec­ter des com­por­te­ments sus­pects2. Elle offre une aide pré­cieuse dans le domaine de la san­té pour ana­ly­ser des images médi­cales, déve­lop­per de nou­veaux médi­ca­ments et per­son­na­li­ser les trai­te­ments3.

Pour autant, il existe une dis­tinc­tion fon­da­men­tale entre l’IA que nous connais­sons aujourd’­hui, sou­vent qua­li­fiée de « clas­sique », et un concept plus ambi­tieux : l’In­tel­li­gence Arti­fi­cielle Géné­rale (IAG).

L’IA clas­sique est conçue pour excel­ler dans des tâches spé­ci­fiques et peut dépas­ser les meilleurs experts ou algo­rithmes spé­cia­li­sés. L’IAG, quant à elle, aspire à une intel­li­gence com­pa­rable à celle d’un être humain. Elle vise­rait à com­prendre le monde dans toute sa com­plexi­té, à apprendre de manière auto­nome et à s’a­dap­ter à des situa­tions nou­velles. En d’autres termes, l’IAG serait capable de résoudre une grande varié­té de pro­blèmes, de rai­son­ner, de créer et d’a­voir une conscience de soi4.

Décou­vrez notre numé­ro spé­cial sur l’IA. Télé­char­gez-le ici

Un alarmisme grandissant au sujet de l’IAG

Les aver­tis­se­ments concer­nant l’es­sor de l’IA géné­ra­liste se mul­ti­plient, dres­sant un ave­nir sombre pour notre civi­li­sa­tion. Plu­sieurs per­son­na­li­tés émi­nentes du monde de la tech­no­lo­gie ont aler­té sur les effets néfastes de cette tech­no­lo­gie. Ste­phen Haw­king a for­mu­lé des craintes sur la pos­si­bi­li­té que l’IA sup­plante l’homme, entraî­nant une nou­velle ère où les machines pour­raient domi­ner5.

D’éminents pro­fes­seurs amé­ri­cains, tels Stuart Rus­sell pro­fes­seur à l’Université de Ber­ke­ley, ont par ailleurs sou­li­gné la bas­cule vers un uni­vers où l’intelligence arti­fi­cielle joue­ra un rôle incon­nu à ce stade, avec de nou­veaux risques à prendre en compte et anti­ci­per6.

Par ailleurs, Jerome Glenn du Mil­len­nium Pro­ject a décla­ré7 que « gou­ver­ner l’IAG pour­rait être le pro­blème de ges­tion le plus com­plexe que l’hu­ma­ni­té ait jamais ren­con­tré » et que « la moindre erreur pour­rait nous effa­cer de la sur­face de la Terre ». Ces asser­tions sug­gèrent une pers­pec­tive extrê­me­ment pes­si­miste, voire catas­tro­phiste, sur le déve­lop­pe­ment de l’IAG.

L’IAG est-elle réellement imminente ?

Une cri­tique fon­da­men­tale de l’im­mi­nence de l’IAG repose sur le « pro­blème de la com­plexi­té des valeurs » qui est un concept clef abor­dé notam­ment par Nick Bos­trom dans Super­in­tel­li­gence : che­mins, dan­gers, stra­té­gies8. Le pro­ces­sus d’évolution de la vie humaine ain­si que de la civi­li­sa­tion cor­res­pond à des mil­liards d’an­nées avec le déve­lop­pe­ment de nom­breux sys­tèmes com­plexes de sen­ti­ments, mais éga­le­ment de contrôles et de valeurs grâce aux inter­ac­tions nom­breuses et variées avec un envi­ron­ne­ment qui est à la fois phy­sique, bio­lo­gique, mais éga­le­ment social. En par­tant de cette pers­pec­tive, il est pos­tu­lé qu’une IAG auto­nome avec un niveau éle­vé de sophis­ti­ca­tion ne sau­rait être atteinte en quelques décennies. 

L’Australien Rod­ney Brooks, un des sym­boles et des pion­niers de la robo­tique ain­si que des théo­ries dites de la « cog­ni­tion incar­née », sou­tient, quant-à-lui, que ce qui va déter­mi­ner qu’une intel­li­gence est véri­ta­ble­ment auto­nome et sophis­ti­quée, c’est son inté­gra­tion au sein d’un corps et les inter­ac­tions conti­nues avec un envi­ron­ne­ment com­plexe sur une période suf­fi­sam­ment longue9. Ces élé­ments ren­forcent la thèse qui per­met d’envisager que l’IAG telle que décrite dans les scé­na­rios alar­mistes, est encore loin de deve­nir une réalité.

En quoi les IA actuelles ne sont pas encore des IA générales

On a pu consta­ter ces der­nières années la mon­tée en puis­sance des grands modèles de lan­gage (LLM pour Large Lan­guage Model) comme ChatGPT, Gemi­ni, Copi­lot, etc. Ceux-ci ont démon­tré une impres­sion­nante capa­ci­té à assi­mi­ler de nom­breuses valeurs humaines impli­cites en s’appuyant sur une ana­lyse mas­sive de docu­ments écrits. Par son archi­tec­ture et son fonc­tion­ne­ment, ChatGPT pré­sente de nom­breuses limites10. Il ne per­met pas le rai­son­ne­ment logique, ses réponses sont par­fois peu fiables, sa base de connais­sances n’est pas adap­tée en temps réel et il est sen­sible aux attaques de type par injec­tion de conte­nu (« prompt injec­tion »).

Si ces modèles pos­sèdent des sys­tèmes de valeurs sophis­ti­qués, ils n’apparaissent pour­tant pas comme auto­nomes. Ils ne semblent pas, en effet, viser l’au­to­no­mie ou l’au­to-pré­ser­va­tion au sein d’un envi­ron­ne­ment à la fois com­plexe et variable. À ce titre, il est impor­tant de rap­pe­ler qu’une part très impor­tante de la com­mu­ni­ca­tion est liée à l’intonation et au lan­gage cor­po­rel11, élé­ments qui ne sont pas du tout appré­hen­dés dans les inter­ac­tions avec les IA génératives.

Rap­pe­ler sim­ple­ment cette dis­tinc­tion (pro­fonde) appa­raît cru­ciale afin de mieux com­prendre dans quelles mesures l’inquiétude face à une super­in­tel­li­gence mal­veillante est infon­dée et exces­sive. Aujourd’hui les LLM ne peuvent être consi­dé­rés que comme des per­ro­quets appor­tant des réponses pro­ba­bi­listes (« sto­chas­tic par­rots » selon Emi­ly Ben­der12). Bien sûr, ils consti­tuent une rup­ture et il paraît néces­saire de régu­ler leur uti­li­sa­tion dès maintenant.

Quels arguments pour une superintelligence omnibénévolente ?

L’in­tel­li­gence future ne sau­rait, nous semble-t-il, être « arti­fi­cielle » au sens strict, c’est-à-dire conçue de toutes pièces. Mais elle serait émi­nem­ment col­lec­tive, émer­geant des connais­sances (voire de la sagesse) accu­mu­lées par l’humanité.

Il est réa­liste de consi­dé­rer que les IA actuelles, en tant que telles sont lar­ge­ment des outils et les incar­na­tions des sché­mas de pen­sées col­lec­tives, tendent vers la bien­veillance plu­tôt que le contrôle ou la domi­na­tion. Cette intel­li­gence col­lec­tive n’est rien de moins, ici, qu’une pro­fonde mémoire qui se nour­rit des valeurs civi­li­sées qui prônent notam­ment l’aide aux per­sonnes dans le besoin, le res­pect de l’en­vi­ron­ne­ment et le res­pect des autres.

Nous devons donc pro­té­ger ce patri­moine imma­té­riel et nous assu­rer qu’il vise à appor­ter un sou­tien et une aide aux humains plu­tôt qu’à leur trans­mettre des infor­ma­tions erro­nées ou les inci­ter à com­mettre des actions répré­hen­sibles. Au risque de faire preuve de mani­chéisme, sou­li­gnons que les LLM peuvent être uti­li­sés pour faire le bien13, mais éga­le­ment le mal14

Quelles réfutations pour les scénarios d’une IAG de la domination et du contrôle ? 

Dans une démarche logique, les scé­na­rios alar­mistes dans les­quels des acteurs mal­veillants seraient ame­nés, à court terme, à pro­gram­mer des objec­tifs mani­fes­te­ment néfastes au cœur des IA appa­raissent a prio­ri comme exa­gé­rés. L’ar­gu­ment de la com­plexi­té des valeurs sug­gère que ces valeurs néga­tives se trou­ve­raient mal inté­grées au sein de la masse des valeurs posi­tives apprises. Par ailleurs, il semble pro­bable que les pro­gram­meurs bien inten­tion­nés (white hats) créent des IA qui pour­ront contrer les stra­té­gies des­truc­trices des IA mal­veillantes (black hats). Ce qui pour­rait ame­ner, assez natu­rel­le­ment, à une « course aux arme­ments » classique.

Un autre contre-argu­ment à une prise de contrôle mal­veillante des IA est leur poten­tiel éco­no­mique. En effet, actuel­le­ment, les IA grand public sont por­tées par des acteurs impor­tants du sec­teur éco­no­mique (Ope­nAI, Google, Micro­soft…) avec pour cer­tains d’entre eux au moins, une logique de ren­ta­bi­li­té. Celle-ci requiert la confiance de l’utilisateur dans l’usage de l’IA mise à dis­po­si­tion, mais éga­le­ment la pré­ser­va­tion des don­nées et des algo­rithmes consti­tuant l’IA en tant qu’actif imma­té­riel au cœur de l’activité éco­no­mique. Ain­si, les moyens de pro­tec­tion et de cyber­dé­fense enga­gés seront très importants.

Propositions pour une meilleure gouvernance de l’IAG

Des ini­tia­tives ont déjà été prises afin de régu­ler l’IA spé­cia­li­sée. Pour autant, la régu­la­tion de l’In­tel­li­gence arti­fi­cielle géné­rale va néces­si­ter des mesures spé­ci­fiques. Au sein de ces ini­tia­tives, nous pou­vons citer l’AI Act en cours de consti­tu­tion au sein de l’Union Euro­péenne15. Les auteurs apportent par ailleurs les pro­po­si­tions sup­plé­men­taires suivantes :

  • La mise en place d’un sys­tème de licences natio­nales qui per­met­tra de garan­tir que toute nou­velle IAG res­pecte les normes de sécu­ri­té nécessaires,
  • Des sys­tèmes de véri­fi­ca­tion de la sécu­ri­té des IA dans des envi­ron­ne­ments contrô­lés avant leur auto­ri­sa­tion et leurs déploiements, 
  • Le déve­lop­pe­ment d’une coopé­ra­tion inter­na­tio­nale plus avan­cée qui pour­rait don­ner lieu à des réso­lu­tions de l’Assemblée Géné­rale de l’ONU et à la mise en place de conven­tions sur l’IA.

Pour une régu­la­tion ration­nelle de l’IAG il faut une ana­lyse éclai­rée des enjeux et un équi­libre entre pré­ven­tion des risques et pro­mo­tion des béné­fices. Les ins­ti­tu­tions inter­na­tio­nales et les experts tech­niques vont jouer un rôle impor­tant pour la coor­di­na­tion des efforts néces­saires au déve­lop­pe­ment sûr et éthique de l’IAG. Une bonne gou­ver­nance et une régu­la­tion effi­cace de l’IAG néces­si­te­ront une approche dépassionnée.

1Vijaya, P., Raju, G. & Ray, S.K. Arti­fi­cial neu­ral net­work-based mer­ging score for Meta search engine. J. Cent. South Univ. 23, 2604–2615 (2016). https://doi.org/10.1007/s11771-016‑3322‑7
2Li, Jh. Cyber secu­ri­ty meets arti­fi­cial intel­li­gence : a sur­vey. Fron­tiers Inf Tech­nol Elec­tro­nic Eng 19, 1462–1474 (2018). https://​doi​.org/​1​0​.​1​6​3​1​/​F​I​T​E​E​.​1​8​00573
3Jiang F, Jiang Y, Zhi H, et alAr­ti­fi­cial intel­li­gence in heal­th­care : past, present and futu­reS­troke and Vas­cu­lar Neu­ro­lo­gy 2017;2 : https://doi.org/10.1136/svn-2017–000101
4Ng, Gee Wah, and Wang Chi Leung. “Strong Arti­fi­cial Intel­li­gence and Conscious­ness.” Jour­nal of Arti­fi­cial Intel­li­gence and Conscious­ness 07, no. 01 (March 1, 2020): 63–72. https://​doi​.org/​1​0​.​1​1​4​2​/​s​2​7​0​5​0​7​8​5​2​0​3​00042.
5Khar­pal, Arjun. “Ste­phen Haw­king says A.I. could be ‘worst event in the his­to­ry of our civi­li­za­tion.’” CNBC, Novem­ber 6, 2017. https://​www​.cnbc​.com/​2​0​1​7​/​1​1​/​0​6​/​s​t​e​p​h​e​n​-​h​a​w​k​i​n​g​-​a​i​-​c​o​u​l​d​-​b​e​-​w​o​r​s​t​-​e​v​e​n​t​-​i​n​-​c​i​v​i​l​i​z​a​t​i​o​n​.html.
6Chia Jes­si­ca, Cian­cio­lo Betha­ny, “Opi­nion : We’ve rea­ched a tur­ning point with AI, expert says” Sep­tem­ber 5, 2023, https://​edi​tion​.cnn​.com/​2​0​2​3​/​0​5​/​3​1​/​o​p​i​n​i​o​n​s​/​a​r​t​i​f​i​c​i​a​l​-​i​n​t​e​l​l​i​g​e​n​c​e​-​s​t​u​a​r​t​-​r​u​s​s​e​l​l​/​i​n​d​e​x​.html
7Jerome C. Glenn, Februa­ry 2023, “Arti­fi­cial Gene­ral Intel­li­gence Issues and Oppor­tu­ni­ties”, The Mil­le­nium Pro­ject, Fore­sight for the 2nd Stra­te­gic Plan of Hori­zon Europe (2025–27) https://​www​.mil​len​nium​-pro​ject​.org/​w​p​-​c​o​n​t​e​n​t​/​u​p​l​o​a​d​s​/​2​0​2​3​/​0​5​/​E​C​-​A​G​I​-​p​a​p​e​r.pdf
8Nick Bos­trom. 2014. Super­in­tel­li­gence : Paths, Dan­gers, Stra­te­gies, 1st edi­tion. Oxford Uni­ver­si­ty Press, Inc., USA.
9Brooks, R. A. (1991). Intel­li­gence Without Repre­sen­ta­tion. Arti­fi­cial Intel­li­gence, 47(1–3), 139–159.
10Zhou, J., Ke, P., Qiu, X. et al. ChatGPT : poten­tial, pros­pects, and limi­ta­tions. Front Inform Tech­nol Elec­tron Eng 25, 6–11 (2024). https://​doi​.org/​1​0​.​1​6​3​1​/​F​I​T​E​E​.​2​3​00089
11Quinn, Jayme, and Jayme Quinn. “How Much of Com­mu­ni­ca­tion Is Non­ver­bal ? | UT Per­mian Basin Online.” The Uni­ver­si­ty of Texas Per­mian Basin | UTPB, May 15, 2023. https://​online​.utpb​.edu/​a​b​o​u​t​-​u​s​/​a​r​t​i​c​l​e​s​/​c​o​m​m​u​n​i​c​a​t​i​o​n​/​h​o​w​-​m​u​c​h​-​o​f​-​c​o​m​m​u​n​i​c​a​t​i​o​n​-​i​s​-​n​o​n​v​e​rbal/.
12Emi­ly M. Ben­der, Tim­nit Gebru, Ange­li­na McMil­lan-Major, and Shmar­ga­ret Shmit­chell. 2021. On the Dan­gers of Sto­chas­tic Par­rots : Can Lan­guage Models Be Too Big ? In Pro­cee­dings of the 2021 ACM Confe­rence on Fair­ness, Accoun­ta­bi­li­ty, and Trans­pa­ren­cy (FAccT ’21). Asso­cia­tion for Com­pu­ting Machi­ne­ry, New York, NY, USA, 610–623. https://​doi​.org/​1​0​.​1​1​4​5​/​3​4​4​2​1​8​8​.​3​4​45922
13Javaid, Mohd, Abid Haleem, and Ravi Pra­tap Singh. « ChatGPT for heal­th­care ser­vices : An emer­ging stage for an inno­va­tive pers­pec­tive. » Ben­ch­Coun­cil Tran­sac­tions on Bench­marks, Stan­dards and Eva­lua­tions 3, no. 1 (2023): 100105. https://​doi​.org/​1​0​.​1​0​1​6​/​j​.​t​b​e​n​c​h​.​2​0​2​3​.​1​00105
14Loh­mann, S. (2024). ChatGPT, Arti­fi­cial Intel­li­gence, and the Ter­ro­rist Tool­box. An Ame­ri­can Pers­pec­tive, 23. https://​media​.defense​.gov/​2​0​2​4​/​A​p​r​/​1​8​/​2​0​0​3​4​4​4​2​2​8​/​-​1​/​-​1​/​0​/​2​0​2​4​0​5​0​6​_​S​i​m​-​H​a​r​t​u​n​i​a​n​-​M​i​l​a​s​_​E​m​e​r​g​i​n​g​T​e​c​h​_​F​i​n​a​l​.​P​D​F​#​p​a​ge=41
15“Laying Down Har­mo­ni­sed Rules On Arti­fi­cial Intel­li­gence (Arti­fi­cial Intel­li­gence Act) And Amen­ding Cer­tain Union Legis­la­tive Acts,” https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206.

👋 Nous avons besoin de votre avis ! Prenez quelques minutes pour répondre à notre enquête de lectorat

Je participe à l'enquête