ai robot sentenced in court in orange jumpsuit, chained and seated in a prison setting. The background includes guards, highlighting themes of artificial intelligence, control, and dystopian scenarios
π Numérique π Société
Comment réguler l’intelligence artificielle ?

Intelligence artificielle générale : comment va-t-on la réguler ?

avec Jean Langlois-Berthelot, spécialiste de l’innovation et des risques complexes et Christophe Gaie, chef de division ingénierie et innovation numérique au sein des services du Premier ministre
Le 2 octobre 2024 |
6 min. de lecture
Jean LANGLOIS-BERTHELOT
Jean Langlois-Berthelot
spécialiste de l’innovation et des risques complexes
Christophe Gaie
Christophe Gaie
chef de division ingénierie et innovation numérique au sein des services du Premier ministre
En bref
  • L'intelligence artificielle (IA) actuelle excelle dans des tâches spécifiques, mais reste différente de l'intelligence artificielle générale (IAG), qui vise une intelligence comparable à celle de l'humain.
  • Les modèles d'IA actuels, bien que sophistiqués, ne sont pas autonomes et présentent des limites importantes qui les différencient de l'IAG.
  • Les craintes liées à l'IAG sont grandissantes ; certains experts sont soucieux qu'elle puisse supplanter l'humanité, tandis que d'autres jugent cette perspective encore éloignée.
  • Pour une régulation rationnelle de l'IAG, il faut une analyse éclairée des enjeux et un équilibre entre prévention des risques et promotion des bénéfices.
  • Des propositions pour une régulation efficace de l'IAG incluent des licences nationales, des tests de sécurité rigoureux et une coopération internationale renforcée.

L’In­tel­li­gence Arti­fi­cielle (IA) est actuelle­ment en pleine expan­sion et trans­forme de nom­breux aspects de notre quo­ti­di­en. Elle opti­mise le fonc­tion­nement des moteurs de recherche et per­met de mieux analyser les requêtes pour pro­pos­er les résul­tats les plus per­ti­nents1. Elle améliore les sys­tèmes de sur­veil­lance qui l’utilisent désor­mais pour détecter des com­porte­ments sus­pects2. Elle offre une aide pré­cieuse dans le domaine de la san­té pour analyser des images médi­cales, dévelop­per de nou­veaux médica­ments et per­son­nalis­er les traite­ments3.

Pour autant, il existe une dis­tinc­tion fon­da­men­tale entre l’IA que nous con­nais­sons aujour­d’hui, sou­vent qual­i­fiée de « clas­sique », et un con­cept plus ambitieux : l’In­tel­li­gence Arti­fi­cielle Générale (IAG).

L’IA clas­sique est conçue pour exceller dans des tâch­es spé­ci­fiques et peut dépass­er les meilleurs experts ou algo­rithmes spé­cial­isés. L’IAG, quant à elle, aspire à une intel­li­gence com­pa­ra­ble à celle d’un être humain. Elle vis­erait à com­pren­dre le monde dans toute sa com­plex­ité, à appren­dre de manière autonome et à s’adapter à des sit­u­a­tions nou­velles. En d’autres ter­mes, l’I­AG serait capa­ble de résoudre une grande var­iété de prob­lèmes, de raison­ner, de créer et d’avoir une con­science de soi4.

Décou­vrez notre numéro spé­cial sur l’IA. Téléchargez-le ici

Un alarmisme grandissant au sujet de l’IAG

Les aver­tisse­ments con­cer­nant l’es­sor de l’IA général­iste se mul­ti­plient, dres­sant un avenir som­bre pour notre civil­i­sa­tion. Plusieurs per­son­nal­ités émi­nentes du monde de la tech­nolo­gie ont alerté sur les effets néfastes de cette tech­nolo­gie. Stephen Hawk­ing a for­mulé des craintes sur la pos­si­bil­ité que l’IA sup­plante l’homme, entraî­nant une nou­velle ère où les machines pour­raient domin­er5.

D’éminents pro­fesseurs améri­cains, tels Stu­art Rus­sell pro­fesseur à l’Université de Berke­ley, ont par ailleurs souligné la bas­cule vers un univers où l’intelligence arti­fi­cielle jouera un rôle incon­nu à ce stade, avec de nou­veaux risques à pren­dre en compte et anticiper6.

Par ailleurs, Jerome Glenn du Mil­len­ni­um Project a déclaré7 que « gou­vern­er l’I­AG pour­rait être le prob­lème de ges­tion le plus com­plexe que l’hu­man­ité ait jamais ren­con­tré » et que « la moin­dre erreur pour­rait nous effac­er de la sur­face de la Terre ». Ces asser­tions sug­gèrent une per­spec­tive extrême­ment pes­simiste, voire cat­a­strophiste, sur le développe­ment de l’IAG.

L’IAG est-elle réellement imminente ?

Une cri­tique fon­da­men­tale de l’im­mi­nence de l’I­AG repose sur le « prob­lème de la com­plex­ité des valeurs » qui est un con­cept clef abor­dé notam­ment par Nick Bostrom dans Super­in­tel­li­gence : chemins, dan­gers, straté­gies8. Le proces­sus d’évolution de la vie humaine ain­si que de la civil­i­sa­tion cor­re­spond à des mil­liards d’an­nées avec le développe­ment de nom­breux sys­tèmes com­plex­es de sen­ti­ments, mais égale­ment de con­trôles et de valeurs grâce aux inter­ac­tions nom­breuses et var­iées avec un envi­ron­nement qui est à la fois physique, biologique, mais égale­ment social. En par­tant de cette per­spec­tive, il est pos­tulé qu’une IAG autonome avec un niveau élevé de sophis­ti­ca­tion ne saurait être atteinte en quelques décennies. 

L’Australien Rod­ney Brooks, un des sym­bol­es et des pio­nniers de la robo­t­ique ain­si que des théories dites de la « cog­ni­tion incar­née », sou­tient, quant-à-lui, que ce qui va déter­min­er qu’une intel­li­gence est véri­ta­ble­ment autonome et sophis­tiquée, c’est son inté­gra­tion au sein d’un corps et les inter­ac­tions con­tin­ues avec un envi­ron­nement com­plexe sur une péri­ode suff­isam­ment longue9. Ces élé­ments ren­for­cent la thèse qui per­met d’envisager que l’IAG telle que décrite dans les scé­nar­ios alarmistes, est encore loin de devenir une réalité.

En quoi les IA actuelles ne sont pas encore des IA générales

On a pu con­stater ces dernières années la mon­tée en puis­sance des grands mod­èles de lan­gage (LLM pour Large Lan­guage Mod­el) comme Chat­G­PT, Gem­i­ni, Copi­lot, etc. Ceux-ci ont démon­tré une impres­sion­nante capac­ité à assim­i­l­er de nom­breuses valeurs humaines implicites en s’appuyant sur une analyse mas­sive de doc­u­ments écrits. Par son archi­tec­ture et son fonc­tion­nement, Chat­G­PT présente de nom­breuses lim­ites10. Il ne per­met pas le raison­nement logique, ses répons­es sont par­fois peu fiables, sa base de con­nais­sances n’est pas adap­tée en temps réel et il est sen­si­ble aux attaques de type par injec­tion de con­tenu (« prompt injec­tion »).

Si ces mod­èles pos­sè­dent des sys­tèmes de valeurs sophis­tiqués, ils n’apparaissent pour­tant pas comme autonomes. Ils ne sem­blent pas, en effet, vis­er l’au­tonomie ou l’au­to-préser­va­tion au sein d’un envi­ron­nement à la fois com­plexe et vari­able. À ce titre, il est impor­tant de rap­pel­er qu’une part très impor­tante de la com­mu­ni­ca­tion est liée à l’intonation et au lan­gage cor­porel11, élé­ments qui ne sont pas du tout appréhendés dans les inter­ac­tions avec les IA génératives.

Rap­pel­er sim­ple­ment cette dis­tinc­tion (pro­fonde) appa­raît cru­ciale afin de mieux com­pren­dre dans quelles mesures l’inquiétude face à une super­in­tel­li­gence malveil­lante est infondée et exces­sive. Aujourd’hui les LLM ne peu­vent être con­sid­érés que comme des per­ro­quets appor­tant des répons­es prob­a­bilistes (« sto­chas­tic par­rots » selon Emi­ly Ben­der12). Bien sûr, ils con­stituent une rup­ture et il paraît néces­saire de réguler leur util­i­sa­tion dès maintenant.

Quels arguments pour une superintelligence omnibénévolente ?

L’in­tel­li­gence future ne saurait, nous sem­ble-t-il, être « arti­fi­cielle » au sens strict, c’est-à-dire conçue de toutes pièces. Mais elle serait éminem­ment col­lec­tive, émergeant des con­nais­sances (voire de la sagesse) accu­mulées par l’humanité.

Il est réal­iste de con­sid­ér­er que les IA actuelles, en tant que telles sont large­ment des out­ils et les incar­na­tions des sché­mas de pen­sées col­lec­tives, ten­dent vers la bien­veil­lance plutôt que le con­trôle ou la dom­i­na­tion. Cette intel­li­gence col­lec­tive n’est rien de moins, ici, qu’une pro­fonde mémoire qui se nour­rit des valeurs civil­isées qui prô­nent notam­ment l’aide aux per­son­nes dans le besoin, le respect de l’en­vi­ron­nement et le respect des autres.

Nous devons donc pro­téger ce pat­ri­moine immatériel et nous assur­er qu’il vise à apporter un sou­tien et une aide aux humains plutôt qu’à leur trans­met­tre des infor­ma­tions erronées ou les inciter à com­met­tre des actions répréhen­si­bles. Au risque de faire preuve de manichéisme, soulignons que les LLM peu­vent être util­isés pour faire le bien13, mais égale­ment le mal14

Quelles réfutations pour les scénarios d’une IAG de la domination et du contrôle ? 

Dans une démarche logique, les scé­nar­ios alarmistes dans lesquels des acteurs malveil­lants seraient amenés, à court terme, à pro­gram­mer des objec­tifs man­i­feste­ment néfastes au cœur des IA appa­rais­sent a pri­ori comme exagérés. L’ar­gu­ment de la com­plex­ité des valeurs sug­gère que ces valeurs néga­tives se trou­veraient mal inté­grées au sein de la masse des valeurs pos­i­tives appris­es. Par ailleurs, il sem­ble prob­a­ble que les pro­gram­meurs bien inten­tion­nés (white hats) créent des IA qui pour­ront con­tr­er les straté­gies destruc­tri­ces des IA malveil­lantes (black hats). Ce qui pour­rait amen­er, assez naturelle­ment, à une « course aux arme­ments » classique.

Un autre con­tre-argu­ment à une prise de con­trôle malveil­lante des IA est leur poten­tiel économique. En effet, actuelle­ment, les IA grand pub­lic sont portées par des acteurs impor­tants du secteur économique (Ope­nAI, Google, Microsoft…) avec pour cer­tains d’entre eux au moins, une logique de rentabil­ité. Celle-ci requiert la con­fi­ance de l’utilisateur dans l’usage de l’IA mise à dis­po­si­tion, mais égale­ment la préser­va­tion des don­nées et des algo­rithmes con­sti­tu­ant l’IA en tant qu’actif immatériel au cœur de l’activité économique. Ain­si, les moyens de pro­tec­tion et de cyberdéfense engagés seront très importants.

Propositions pour une meilleure gouvernance de l’IAG

Des ini­tia­tives ont déjà été pris­es afin de réguler l’IA spé­cial­isée. Pour autant, la régu­la­tion de l’In­tel­li­gence arti­fi­cielle générale va néces­siter des mesures spé­ci­fiques. Au sein de ces ini­tia­tives, nous pou­vons citer l’AI Act en cours de con­sti­tu­tion au sein de l’Union Européenne15. Les auteurs appor­tent par ailleurs les propo­si­tions sup­plé­men­taires suivantes :

  • La mise en place d’un sys­tème de licences nationales qui per­me­t­tra de garan­tir que toute nou­velle IAG respecte les normes de sécu­rité nécessaires,
  • Des sys­tèmes de véri­fi­ca­tion de la sécu­rité des IA dans des envi­ron­nements con­trôlés avant leur autori­sa­tion et leurs déploiements, 
  • Le développe­ment d’une coopéra­tion inter­na­tionale plus avancée qui pour­rait don­ner lieu à des réso­lu­tions de l’Assemblée Générale de l’ONU et à la mise en place de con­ven­tions sur l’IA.

Pour une régu­la­tion rationnelle de l’I­AG il faut une analyse éclairée des enjeux et un équili­bre entre préven­tion des risques et pro­mo­tion des béné­fices. Les insti­tu­tions inter­na­tionales et les experts tech­niques vont jouer un rôle impor­tant pour la coor­di­na­tion des efforts néces­saires au développe­ment sûr et éthique de l’I­AG. Une bonne gou­ver­nance et une régu­la­tion effi­cace de l’IAG néces­siteront une approche dépassionnée.

1Vijaya, P., Raju, G. & Ray, S.K. Arti­fi­cial neur­al net­work-based merg­ing score for Meta search engine. J. Cent. South Univ. 23, 2604–2615 (2016). https://doi.org/10.1007/s11771-016‑3322‑7
2Li, Jh. Cyber secu­ri­ty meets arti­fi­cial intel­li­gence: a sur­vey. Fron­tiers Inf Tech­nol Elec­tron­ic Eng 19, 1462–1474 (2018). https://​doi​.org/​1​0​.​1​6​3​1​/​F​I​T​E​E​.​1​8​00573
3Jiang F, Jiang Y, Zhi H, et alAr­ti­fi­cial intel­li­gence in health­care: past, present and future­Stroke and Vas­cu­lar Neu­rol­o­gy 2017;2: https://doi.org/10.1136/svn-2017–000101
4Ng, Gee Wah, and Wang Chi Leung. “Strong Arti­fi­cial Intel­li­gence and Con­scious­ness.” Jour­nal of Arti­fi­cial Intel­li­gence and Con­scious­ness 07, no. 01 (March 1, 2020): 63–72. https://​doi​.org/​1​0​.​1​1​4​2​/​s​2​7​0​5​0​7​8​5​2​0​3​00042.
5Kharpal, Arjun. “Stephen Hawk­ing says A.I. could be ‘worst event in the his­to­ry of our civ­i­liza­tion.’” CNBC, Novem­ber 6, 2017. https://​www​.cnbc​.com/​2​0​1​7​/​1​1​/​0​6​/​s​t​e​p​h​e​n​-​h​a​w​k​i​n​g​-​a​i​-​c​o​u​l​d​-​b​e​-​w​o​r​s​t​-​e​v​e​n​t​-​i​n​-​c​i​v​i​l​i​z​a​t​i​o​n​.html.
6Chia Jes­si­ca, Cian­ci­o­lo Bethany, “Opin­ion: We’ve reached a turn­ing point with AI, expert says” Sep­tem­ber 5, 2023, https://​edi​tion​.cnn​.com/​2​0​2​3​/​0​5​/​3​1​/​o​p​i​n​i​o​n​s​/​a​r​t​i​f​i​c​i​a​l​-​i​n​t​e​l​l​i​g​e​n​c​e​-​s​t​u​a​r​t​-​r​u​s​s​e​l​l​/​i​n​d​e​x​.html
7Jerome C. Glenn, Feb­ru­ary 2023, “Arti­fi­cial Gen­er­al Intel­li­gence Issues and Oppor­tu­ni­ties”, The Mil­le­ni­um Project, Fore­sight for the 2nd Strate­gic Plan of Hori­zon Europe (2025–27) https://​www​.mil​len​ni​um​-project​.org/​w​p​-​c​o​n​t​e​n​t​/​u​p​l​o​a​d​s​/​2​0​2​3​/​0​5​/​E​C​-​A​G​I​-​p​a​p​e​r.pdf
8Nick Bostrom. 2014. Super­in­tel­li­gence: Paths, Dan­gers, Strate­gies, 1st edi­tion. Oxford Uni­ver­si­ty Press, Inc., USA.
9Brooks, R. A. (1991). Intel­li­gence With­out Rep­re­sen­ta­tion. Arti­fi­cial Intel­li­gence, 47(1–3), 139–159.
10Zhou, J., Ke, P., Qiu, X. et al. Chat­G­PT: poten­tial, prospects, and lim­i­ta­tions. Front Inform Tech­nol Elec­tron Eng 25, 6–11 (2024). https://​doi​.org/​1​0​.​1​6​3​1​/​F​I​T​E​E​.​2​3​00089
11Quinn, Jayme, and Jayme Quinn. “How Much of Com­mu­ni­ca­tion Is Non­ver­bal? | UT Per­mi­an Basin Online.” The Uni­ver­si­ty of Texas Per­mi­an Basin | UTPB, May 15, 2023. https://​online​.utpb​.edu/​a​b​o​u​t​-​u​s​/​a​r​t​i​c​l​e​s​/​c​o​m​m​u​n​i​c​a​t​i​o​n​/​h​o​w​-​m​u​c​h​-​o​f​-​c​o​m​m​u​n​i​c​a​t​i​o​n​-​i​s​-​n​o​n​v​e​rbal/.
12Emi­ly M. Ben­der, Timnit Gebru, Angeli­na McMil­lan-Major, and Shmar­garet Shmitchell. 2021. On the Dan­gers of Sto­chas­tic Par­rots: Can Lan­guage Mod­els Be Too Big? In Pro­ceed­ings of the 2021 ACM Con­fer­ence on Fair­ness, Account­abil­i­ty, and Trans­paren­cy (FAc­cT ’21). Asso­ci­a­tion for Com­put­ing Machin­ery, New York, NY, USA, 610–623. https://​doi​.org/​1​0​.​1​1​4​5​/​3​4​4​2​1​8​8​.​3​4​45922
13Javaid, Mohd, Abid Haleem, and Ravi Prat­ap Singh. « Chat­G­PT for health­care ser­vices: An emerg­ing stage for an inno­v­a­tive per­spec­tive. » Bench­Coun­cil Trans­ac­tions on Bench­marks, Stan­dards and Eval­u­a­tions 3, no. 1 (2023): 100105. https://​doi​.org/​1​0​.​1​0​1​6​/​j​.​t​b​e​n​c​h​.​2​0​2​3​.​1​00105
14Lohmann, S. (2024). Chat­G­PT, Arti­fi­cial Intel­li­gence, and the Ter­ror­ist Tool­box. An Amer­i­can Per­spec­tive, 23. https://​media​.defense​.gov/​2​0​2​4​/​A​p​r​/​1​8​/​2​0​0​3​4​4​4​2​2​8​/​-​1​/​-​1​/​0​/​2​0​2​4​0​5​0​6​_​S​i​m​-​H​a​r​t​u​n​i​a​n​-​M​i​l​a​s​_​E​m​e​r​g​i​n​g​T​e​c​h​_​F​i​n​a​l​.​P​D​F​#​p​a​ge=41
15“Lay­ing Down Har­monised Rules On Arti­fi­cial Intel­li­gence (Arti­fi­cial Intel­li­gence Act) And Amend­ing Cer­tain Union Leg­isla­tive Acts,” https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206.

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir notre newsletter