ai robot sentenced in court in orange jumpsuit, chained and seated in a prison setting. The background includes guards, highlighting themes of artificial intelligence, control, and dystopian scenarios
π Numérique π Société
Comment réguler l’intelligence artificielle ?

Intelligence artificielle générale : comment va-t-on la réguler ?

avec Jean Langlois-Berthelot, docteur en mathématiques appliquées et chef de division au sein de l'armée de Terre et Christophe Gaie, chef de division ingénierie et innovation numérique au sein des services du Premier ministre
Le 2 octobre 2024 |
6 min. de lecture
Jean LANGLOIS-BERTHELOT
Jean Langlois-Berthelot
docteur en mathématiques appliquées et chef de division au sein de l'armée de Terre
Christophe Gaie
Christophe Gaie
chef de division ingénierie et innovation numérique au sein des services du Premier ministre
En bref
  • L'intelligence artificielle (IA) actuelle excelle dans des tâches spécifiques, mais reste différente de l'intelligence artificielle générale (IAG), qui vise une intelligence comparable à celle de l'humain.
  • Les modèles d'IA actuels, bien que sophistiqués, ne sont pas autonomes et présentent des limites importantes qui les différencient de l'IAG.
  • Les craintes liées à l'IAG sont grandissantes ; certains experts sont soucieux qu'elle puisse supplanter l'humanité, tandis que d'autres jugent cette perspective encore éloignée.
  • Pour une régulation rationnelle de l'IAG, il faut une analyse éclairée des enjeux et un équilibre entre prévention des risques et promotion des bénéfices.
  • Des propositions pour une régulation efficace de l'IAG incluent des licences nationales, des tests de sécurité rigoureux et une coopération internationale renforcée.

L’In­tel­li­gence Arti­fi­cielle (IA) est actuel­le­ment en pleine expan­sion et trans­forme de nom­breux aspects de notre quo­ti­dien. Elle opti­mise le fonc­tion­ne­ment des moteurs de recherche et per­met de mieux ana­ly­ser les requêtes pour pro­po­ser les résul­tats les plus per­ti­nents1. Elle amé­liore les sys­tèmes de sur­veillance qui l’utilisent désor­mais pour détec­ter des com­por­te­ments sus­pects2. Elle offre une aide pré­cieuse dans le domaine de la san­té pour ana­ly­ser des images médi­cales, déve­lop­per de nou­veaux médi­ca­ments et per­son­na­li­ser les trai­te­ments3.

Pour autant, il existe une dis­tinc­tion fon­da­men­tale entre l’IA que nous connais­sons aujourd’­hui, sou­vent qua­li­fiée de « clas­sique », et un concept plus ambi­tieux : l’In­tel­li­gence Arti­fi­cielle Géné­rale (IAG).

L’IA clas­sique est conçue pour excel­ler dans des tâches spé­ci­fiques et peut dépas­ser les meilleurs experts ou algo­rithmes spé­cia­li­sés. L’IAG, quant à elle, aspire à une intel­li­gence com­pa­rable à celle d’un être humain. Elle vise­rait à com­prendre le monde dans toute sa com­plexi­té, à apprendre de manière auto­nome et à s’a­dap­ter à des situa­tions nou­velles. En d’autres termes, l’IAG serait capable de résoudre une grande varié­té de pro­blèmes, de rai­son­ner, de créer et d’a­voir une conscience de soi4.

Décou­vrez notre numé­ro spé­cial sur l’IA. Télé­char­gez-le ici

Un alarmisme grandissant au sujet de l’IAG

Les aver­tis­se­ments concer­nant l’es­sor de l’IA géné­ra­liste se mul­ti­plient, dres­sant un ave­nir sombre pour notre civi­li­sa­tion. Plu­sieurs per­son­na­li­tés émi­nentes du monde de la tech­no­lo­gie ont aler­té sur les effets néfastes de cette tech­no­lo­gie. Ste­phen Haw­king a for­mu­lé des craintes sur la pos­si­bi­li­té que l’IA sup­plante l’homme, entraî­nant une nou­velle ère où les machines pour­raient domi­ner5.

D’éminents pro­fes­seurs amé­ri­cains, tels Stuart Rus­sell pro­fes­seur à l’Université de Ber­ke­ley, ont par ailleurs sou­li­gné la bas­cule vers un uni­vers où l’intelligence arti­fi­cielle joue­ra un rôle incon­nu à ce stade, avec de nou­veaux risques à prendre en compte et anti­ci­per6.

Par ailleurs, Jerome Glenn du Mil­len­nium Pro­ject a décla­ré7 que « gou­ver­ner l’IAG pour­rait être le pro­blème de ges­tion le plus com­plexe que l’hu­ma­ni­té ait jamais ren­con­tré » et que « la moindre erreur pour­rait nous effa­cer de la sur­face de la Terre ». Ces asser­tions sug­gèrent une pers­pec­tive extrê­me­ment pes­si­miste, voire catas­tro­phiste, sur le déve­lop­pe­ment de l’IAG.

L’IAG est-elle réellement imminente ?

Une cri­tique fon­da­men­tale de l’im­mi­nence de l’IAG repose sur le « pro­blème de la com­plexi­té des valeurs » qui est un concept clef abor­dé notam­ment par Nick Bos­trom dans Super­in­tel­li­gence : che­mins, dan­gers, stra­té­gies8. Le pro­ces­sus d’évolution de la vie humaine ain­si que de la civi­li­sa­tion cor­res­pond à des mil­liards d’an­nées avec le déve­lop­pe­ment de nom­breux sys­tèmes com­plexes de sen­ti­ments, mais éga­le­ment de contrôles et de valeurs grâce aux inter­ac­tions nom­breuses et variées avec un envi­ron­ne­ment qui est à la fois phy­sique, bio­lo­gique, mais éga­le­ment social. En par­tant de cette pers­pec­tive, il est pos­tu­lé qu’une IAG auto­nome avec un niveau éle­vé de sophis­ti­ca­tion ne sau­rait être atteinte en quelques décennies. 

L’Australien Rod­ney Brooks, un des sym­boles et des pion­niers de la robo­tique ain­si que des théo­ries dites de la « cog­ni­tion incar­née », sou­tient, quant-à-lui, que ce qui va déter­mi­ner qu’une intel­li­gence est véri­ta­ble­ment auto­nome et sophis­ti­quée, c’est son inté­gra­tion au sein d’un corps et les inter­ac­tions conti­nues avec un envi­ron­ne­ment com­plexe sur une période suf­fi­sam­ment longue9. Ces élé­ments ren­forcent la thèse qui per­met d’envisager que l’IAG telle que décrite dans les scé­na­rios alar­mistes, est encore loin de deve­nir une réalité.

En quoi les IA actuelles ne sont pas encore des IA générales

On a pu consta­ter ces der­nières années la mon­tée en puis­sance des grands modèles de lan­gage (LLM pour Large Lan­guage Model) comme ChatGPT, Gemi­ni, Copi­lot, etc. Ceux-ci ont démon­tré une impres­sion­nante capa­ci­té à assi­mi­ler de nom­breuses valeurs humaines impli­cites en s’appuyant sur une ana­lyse mas­sive de docu­ments écrits. Par son archi­tec­ture et son fonc­tion­ne­ment, ChatGPT pré­sente de nom­breuses limites10. Il ne per­met pas le rai­son­ne­ment logique, ses réponses sont par­fois peu fiables, sa base de connais­sances n’est pas adap­tée en temps réel et il est sen­sible aux attaques de type par injec­tion de conte­nu (« prompt injec­tion »).

Si ces modèles pos­sèdent des sys­tèmes de valeurs sophis­ti­qués, ils n’apparaissent pour­tant pas comme auto­nomes. Ils ne semblent pas, en effet, viser l’au­to­no­mie ou l’au­to-pré­ser­va­tion au sein d’un envi­ron­ne­ment à la fois com­plexe et variable. À ce titre, il est impor­tant de rap­pe­ler qu’une part très impor­tante de la com­mu­ni­ca­tion est liée à l’intonation et au lan­gage cor­po­rel11, élé­ments qui ne sont pas du tout appré­hen­dés dans les inter­ac­tions avec les IA génératives.

Rap­pe­ler sim­ple­ment cette dis­tinc­tion (pro­fonde) appa­raît cru­ciale afin de mieux com­prendre dans quelles mesures l’inquiétude face à une super­in­tel­li­gence mal­veillante est infon­dée et exces­sive. Aujourd’hui les LLM ne peuvent être consi­dé­rés que comme des per­ro­quets appor­tant des réponses pro­ba­bi­listes (« sto­chas­tic par­rots » selon Emi­ly Ben­der12). Bien sûr, ils consti­tuent une rup­ture et il paraît néces­saire de régu­ler leur uti­li­sa­tion dès maintenant.

Quels arguments pour une superintelligence omnibénévolente ?

L’in­tel­li­gence future ne sau­rait, nous semble-t-il, être « arti­fi­cielle » au sens strict, c’est-à-dire conçue de toutes pièces. Mais elle serait émi­nem­ment col­lec­tive, émer­geant des connais­sances (voire de la sagesse) accu­mu­lées par l’humanité.

Il est réa­liste de consi­dé­rer que les IA actuelles, en tant que telles sont lar­ge­ment des outils et les incar­na­tions des sché­mas de pen­sées col­lec­tives, tendent vers la bien­veillance plu­tôt que le contrôle ou la domi­na­tion. Cette intel­li­gence col­lec­tive n’est rien de moins, ici, qu’une pro­fonde mémoire qui se nour­rit des valeurs civi­li­sées qui prônent notam­ment l’aide aux per­sonnes dans le besoin, le res­pect de l’en­vi­ron­ne­ment et le res­pect des autres.

Nous devons donc pro­té­ger ce patri­moine imma­té­riel et nous assu­rer qu’il vise à appor­ter un sou­tien et une aide aux humains plu­tôt qu’à leur trans­mettre des infor­ma­tions erro­nées ou les inci­ter à com­mettre des actions répré­hen­sibles. Au risque de faire preuve de mani­chéisme, sou­li­gnons que les LLM peuvent être uti­li­sés pour faire le bien13, mais éga­le­ment le mal14

Quelles réfutations pour les scénarios d’une IAG de la domination et du contrôle ? 

Dans une démarche logique, les scé­na­rios alar­mistes dans les­quels des acteurs mal­veillants seraient ame­nés, à court terme, à pro­gram­mer des objec­tifs mani­fes­te­ment néfastes au cœur des IA appa­raissent a prio­ri comme exa­gé­rés. L’ar­gu­ment de la com­plexi­té des valeurs sug­gère que ces valeurs néga­tives se trou­ve­raient mal inté­grées au sein de la masse des valeurs posi­tives apprises. Par ailleurs, il semble pro­bable que les pro­gram­meurs bien inten­tion­nés (white hats) créent des IA qui pour­ront contrer les stra­té­gies des­truc­trices des IA mal­veillantes (black hats). Ce qui pour­rait ame­ner, assez natu­rel­le­ment, à une « course aux arme­ments » classique.

Un autre contre-argu­ment à une prise de contrôle mal­veillante des IA est leur poten­tiel éco­no­mique. En effet, actuel­le­ment, les IA grand public sont por­tées par des acteurs impor­tants du sec­teur éco­no­mique (Ope­nAI, Google, Micro­soft…) avec pour cer­tains d’entre eux au moins, une logique de ren­ta­bi­li­té. Celle-ci requiert la confiance de l’utilisateur dans l’usage de l’IA mise à dis­po­si­tion, mais éga­le­ment la pré­ser­va­tion des don­nées et des algo­rithmes consti­tuant l’IA en tant qu’actif imma­té­riel au cœur de l’activité éco­no­mique. Ain­si, les moyens de pro­tec­tion et de cyber­dé­fense enga­gés seront très importants.

Propositions pour une meilleure gouvernance de l’IAG

Des ini­tia­tives ont déjà été prises afin de régu­ler l’IA spé­cia­li­sée. Pour autant, la régu­la­tion de l’In­tel­li­gence arti­fi­cielle géné­rale va néces­si­ter des mesures spé­ci­fiques. Au sein de ces ini­tia­tives, nous pou­vons citer l’AI Act en cours de consti­tu­tion au sein de l’Union Euro­péenne15. Les auteurs apportent par ailleurs les pro­po­si­tions sup­plé­men­taires suivantes :

  • La mise en place d’un sys­tème de licences natio­nales qui per­met­tra de garan­tir que toute nou­velle IAG res­pecte les normes de sécu­ri­té nécessaires,
  • Des sys­tèmes de véri­fi­ca­tion de la sécu­ri­té des IA dans des envi­ron­ne­ments contrô­lés avant leur auto­ri­sa­tion et leurs déploiements, 
  • Le déve­lop­pe­ment d’une coopé­ra­tion inter­na­tio­nale plus avan­cée qui pour­rait don­ner lieu à des réso­lu­tions de l’Assemblée Géné­rale de l’ONU et à la mise en place de conven­tions sur l’IA.

Pour une régu­la­tion ration­nelle de l’IAG il faut une ana­lyse éclai­rée des enjeux et un équi­libre entre pré­ven­tion des risques et pro­mo­tion des béné­fices. Les ins­ti­tu­tions inter­na­tio­nales et les experts tech­niques vont jouer un rôle impor­tant pour la coor­di­na­tion des efforts néces­saires au déve­lop­pe­ment sûr et éthique de l’IAG. Une bonne gou­ver­nance et une régu­la­tion effi­cace de l’IAG néces­si­te­ront une approche dépassionnée.

1Vijaya, P., Raju, G. & Ray, S.K. Arti­fi­cial neu­ral net­work-based mer­ging score for Meta search engine. J. Cent. South Univ. 23, 2604–2615 (2016). https://doi.org/10.1007/s11771-016‑3322‑7
2Li, Jh. Cyber secu­ri­ty meets arti­fi­cial intel­li­gence : a sur­vey. Fron­tiers Inf Tech­nol Elec­tro­nic Eng 19, 1462–1474 (2018). https://​doi​.org/​1​0​.​1​6​3​1​/​F​I​T​E​E​.​1​8​00573
3Jiang F, Jiang Y, Zhi H, et alAr­ti­fi­cial intel­li­gence in heal­th­care : past, present and futu­reS­troke and Vas­cu­lar Neu­ro­lo­gy 2017;2 : https://doi.org/10.1136/svn-2017–000101
4Ng, Gee Wah, and Wang Chi Leung. “Strong Arti­fi­cial Intel­li­gence and Conscious­ness.” Jour­nal of Arti­fi­cial Intel­li­gence and Conscious­ness 07, no. 01 (March 1, 2020): 63–72. https://​doi​.org/​1​0​.​1​1​4​2​/​s​2​7​0​5​0​7​8​5​2​0​3​00042.
5Khar­pal, Arjun. “Ste­phen Haw­king says A.I. could be ‘worst event in the his­to­ry of our civi­li­za­tion.’” CNBC, Novem­ber 6, 2017. https://​www​.cnbc​.com/​2​0​1​7​/​1​1​/​0​6​/​s​t​e​p​h​e​n​-​h​a​w​k​i​n​g​-​a​i​-​c​o​u​l​d​-​b​e​-​w​o​r​s​t​-​e​v​e​n​t​-​i​n​-​c​i​v​i​l​i​z​a​t​i​o​n​.html.
6Chia Jes­si­ca, Cian­cio­lo Betha­ny, “Opi­nion : We’ve rea­ched a tur­ning point with AI, expert says” Sep­tem­ber 5, 2023, https://​edi​tion​.cnn​.com/​2​0​2​3​/​0​5​/​3​1​/​o​p​i​n​i​o​n​s​/​a​r​t​i​f​i​c​i​a​l​-​i​n​t​e​l​l​i​g​e​n​c​e​-​s​t​u​a​r​t​-​r​u​s​s​e​l​l​/​i​n​d​e​x​.html
7Jerome C. Glenn, Februa­ry 2023, “Arti­fi­cial Gene­ral Intel­li­gence Issues and Oppor­tu­ni­ties”, The Mil­le­nium Pro­ject, Fore­sight for the 2nd Stra­te­gic Plan of Hori­zon Europe (2025–27) https://​www​.mil​len​nium​-pro​ject​.org/​w​p​-​c​o​n​t​e​n​t​/​u​p​l​o​a​d​s​/​2​0​2​3​/​0​5​/​E​C​-​A​G​I​-​p​a​p​e​r.pdf
8Nick Bos­trom. 2014. Super­in­tel­li­gence : Paths, Dan­gers, Stra­te­gies, 1st edi­tion. Oxford Uni­ver­si­ty Press, Inc., USA.
9Brooks, R. A. (1991). Intel­li­gence Without Repre­sen­ta­tion. Arti­fi­cial Intel­li­gence, 47(1–3), 139–159.
10Zhou, J., Ke, P., Qiu, X. et al. ChatGPT : poten­tial, pros­pects, and limi­ta­tions. Front Inform Tech­nol Elec­tron Eng 25, 6–11 (2024). https://​doi​.org/​1​0​.​1​6​3​1​/​F​I​T​E​E​.​2​3​00089
11Quinn, Jayme, and Jayme Quinn. “How Much of Com­mu­ni­ca­tion Is Non­ver­bal ? | UT Per­mian Basin Online.” The Uni­ver­si­ty of Texas Per­mian Basin | UTPB, May 15, 2023. https://​online​.utpb​.edu/​a​b​o​u​t​-​u​s​/​a​r​t​i​c​l​e​s​/​c​o​m​m​u​n​i​c​a​t​i​o​n​/​h​o​w​-​m​u​c​h​-​o​f​-​c​o​m​m​u​n​i​c​a​t​i​o​n​-​i​s​-​n​o​n​v​e​rbal/.
12Emi­ly M. Ben­der, Tim­nit Gebru, Ange­li­na McMil­lan-Major, and Shmar­ga­ret Shmit­chell. 2021. On the Dan­gers of Sto­chas­tic Par­rots : Can Lan­guage Models Be Too Big ? In Pro­cee­dings of the 2021 ACM Confe­rence on Fair­ness, Accoun­ta­bi­li­ty, and Trans­pa­ren­cy (FAccT ’21). Asso­cia­tion for Com­pu­ting Machi­ne­ry, New York, NY, USA, 610–623. https://​doi​.org/​1​0​.​1​1​4​5​/​3​4​4​2​1​8​8​.​3​4​45922
13Javaid, Mohd, Abid Haleem, and Ravi Pra­tap Singh. « ChatGPT for heal­th­care ser­vices : An emer­ging stage for an inno­va­tive pers­pec­tive. » Ben­ch­Coun­cil Tran­sac­tions on Bench­marks, Stan­dards and Eva­lua­tions 3, no. 1 (2023): 100105. https://​doi​.org/​1​0​.​1​0​1​6​/​j​.​t​b​e​n​c​h​.​2​0​2​3​.​1​00105
14Loh­mann, S. (2024). ChatGPT, Arti­fi­cial Intel­li­gence, and the Ter­ro­rist Tool­box. An Ame­ri­can Pers­pec­tive, 23. https://​media​.defense​.gov/​2​0​2​4​/​A​p​r​/​1​8​/​2​0​0​3​4​4​4​2​2​8​/​-​1​/​-​1​/​0​/​2​0​2​4​0​5​0​6​_​S​i​m​-​H​a​r​t​u​n​i​a​n​-​M​i​l​a​s​_​E​m​e​r​g​i​n​g​T​e​c​h​_​F​i​n​a​l​.​P​D​F​#​p​a​ge=41
15“Laying Down Har­mo­ni­sed Rules On Arti­fi­cial Intel­li­gence (Arti­fi­cial Intel­li­gence Act) And Amen­ding Cer­tain Union Legis­la­tive Acts,” https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206.

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don