The impact of AI and robotics on unemployment
π Science et technologies π Numérique
IA générative : menace ou opportunité ?

Les 4 mythes sur l’IA générative

Thierry Rayna, chercheur au laboratoire CNRS i³-CRG* et professeur de l’École polytechnique (IP Paris) et Erwan Le Pennec, professeur au département de mathématiques appliquées de l'École polytechnique (IP Paris)
Le 3 avril 2024 |
6 min. de lecture
Thierry Rayna
Thierry Rayna
chercheur au laboratoire CNRS i³-CRG* et professeur de l’École polytechnique (IP Paris)
Erwan le pennec
Erwan Le Pennec
professeur au département de mathématiques appliquées de l'École polytechnique (IP Paris)
En bref
  • De nombreux mythes et fabulations planent autour des IA, notamment depuis l’essor des IA génératives comme DALL-E.
  • En réalité, ces IA ne représentent pas de révolution technologique, au sens de l’innovation, puisque leur existence précède l’avènement de ChatGPT.
  • Nous assistons surtout à une rupture d'usage, grâce aux start-up ayant « ouvert » l’accès aux IA au grand public.
  • En réalité, les protocoles d’entraînement de ces IA sont gardés secrets par les entreprises, mais des interfaces de programmation donnent l’illusion à l’usager de maîtriser l’algorithme.
  • Malgré les inquiétudes, cette utilisation large et ouverte de l’IA rendra l'expertise humaine plus que jamais nécessaire.

IA rem­plaçant un avo­cat, IA rédi­geant des dis­ser­ta­tions si bonnes qu’elles leur­rent les pro­fesseurs, IA met­tant les artistes au chô­mage car n’im­porte qui peut génér­er la cou­ver­ture d’un mag­a­zine ou com­pos­er la musique d’un film… Ces exem­ples font la une ces derniers mois, notam­ment, l’annonce de l’obsolescence immi­nente des pro­fes­sions intel­lectuelles et des cadres. Or, l’IA n’est pas une inno­va­tion dans le sens où elle existe depuis bien longtemps. Dès le milieu des années 1950, des vagues d’inquiétude et de fab­u­la­tion se suc­cè­dent, avec, à chaque fois, la même prophétie : les humains défini­tive­ment rem­placés par des machines. Et pour­tant, à chaque fois, ces pré­dic­tions ne se sont pas matéri­al­isées. Mais cette fois, alors qu’on con­state la mul­ti­pli­ca­tion de l’usage de ces nou­velles IA, peut-on légitime­ment penser que c’est différent ?

#1 On assiste à une révolution technologique

Nom­bre de com­men­taires ou de dépêch­es lais­sent penser qu’une avancée tech­nologique majeure vient de se pro­duire. Or, ça n’est tout sim­ple­ment pas le cas. Les algo­rithmes util­isés par Chat­G­PT ou DALL‑E ressem­blent à ceux con­nus et util­isés depuis déjà quelques années. Si l’innovation ne réside pas dans les algo­rithmes, alors peut-être qu’un pro­grès tech­nologique majeur per­met de traiter une large quan­tité de don­nées, de manière plus « intel­li­gente » ? Non plus ! Les avancées con­statées sont le fruit d’une pro­gres­sion rel­a­tive­ment con­tin­ue et prévis­i­ble. Même l’IA généra­tive dont on par­le tant, c’est-à-dire l’u­til­i­sa­tion d’al­go­rithmes entraînés non pas pour prédire la bonne réponse absolue, mais pour génér­er une var­iété de répons­es pos­si­bles (d’où l’impression de « créa­tiv­ité »), n’est pas nou­velle non plus – même si l’amélioration des résul­tats la rend de plus en plus utilisable.

Le para­doxe est que Google ne peut pas être aus­si « bon » qu’Ope­nAI, parce que Google ne peut pas être aus­si « mau­vais » qu’OpenAI. 

Ce qui s’est passé ces derniers mois n’est pas une rup­ture tech­nologique, mais une rup­ture d’usage. Jusqu’à présent, les géants de l’IA (typ­ique­ment les GAFAM) gar­daient ces tech­nolo­gies pour eux ou n’en dif­fu­saient que des ver­sions bridées, décré­tant et lim­i­tant ain­si l’usage fait par le grand pub­lic. Les nou­veaux arrivants (Ope­nAI, Sta​ble​.AI ou Mid­jour­ney) ont, au con­traire, décidé de laiss­er les gens faire (presque) tout ce qu’ils voulaient de leurs algo­rithmes. Doré­na­vant, cha­cun peut s’approprier ces « IA », et les utilis­er à des fins aus­si divers­es qu’imprévisibles. C’est de cette ouver­ture que découle la « vraie » créa­tiv­ité de cette nou­velle vague de l’IA.

#2 Les GAFAM (et autres « Big Tech ») sont dépassées technologiquement

Comme expliqué ci-dessus, les grandes entre­pris­es telles que Google, Apple et Face­book ont restreint l’accès à ces tech­nolo­gies, qu’ils maîtrisent tout aus­si bien. Les GAFAM gar­dent un con­trôle très étroit sur leur IA, prin­ci­pale­ment pour deux raisons. Pre­mière­ment, leur image : si Chat­G­PT ou DALL‑E génère un con­tenu raciste, dis­crim­i­nant ou insul­tant, l’écart sera excusé par leur sit­u­a­tion de start-up, encore en plein appren­tis­sage. Ce « droit à l’erreur » ne s’appliquerait pas à Google, qui ver­rait sa répu­ta­tion se ternir grave­ment (sans compter les soucis de jus­tice poten­tiels). Le para­doxe est que Google (ou autre GAFAM) ne peut pas être aus­si « bon » qu’Ope­nAI, parce que Google ne peut pas être aus­si « mau­vais » qu’OpenAI.

Chat­G­PT : l’ar­bre qui cache la forêt

En par­al­lèle du « buzz » généré par Chat­G­PT, DALL‑E, Open​.AI, une évo­lu­tion bien plus rad­i­cale, et bien moins vis­i­ble, est en cours : la disponi­bil­ité et la dif­fu­sion large de mod­ules d’IA pré-entraînées auprès du grand pub­lic. Con­traire­ment à GPT, ces derniers ne dépen­dent pas d’une plate­forme cen­tral­isée. Ils sont autonomes, peu­vent être téléchargés, entraînés à divers­es fins (légales ou non). Ils peu­vent même être inté­grés dans un logi­ciel, une « app », ou d’autres ser­vices, et redis­tribués à d’autres util­isa­teurs qui s’ap­puieront sur cet appren­tis­sage sup­plé­men­taire pour entraîn­er eux-mêmes à leur tour ces mod­ules à d’autres fins. Chaque fois qu’un mod­ule pré-entraîné est dupliqué, entraîné et redis­tribué, un nou­veau vari­ant est créé. Au bout du compte, des mil­liers, voire des mil­lions de vari­ants d’un mod­ule ini­tial se répan­dront dans un nom­bre faramineux de logi­ciels et d’ap­pli­ca­tions. Et ces mod­ules d’IA sont entière­ment « boîte noire ». Ils ne sont pas con­sti­tués de lignes de code infor­ma­tique explicites, mais de matri­ces (sou­vent de très grandes tailles), intrin­sèque­ment inin­ter­préta­bles, même par les experts du domaine. Résul­tat, il est presqu’impossible, en pra­tique, de prédire avec pré­ci­sion le com­porte­ment de ces IA sans les tester de manière extensive.

La deux­ième rai­son est d’ordre stratégique. L’entraînement et l’apprentissage des algo­rithmes d’IA sont incroy­able­ment coû­teux (on par­le en mil­lions de dol­lars). Ce coût faramineux est avan­tageux aux GAFAM, déjà bien étab­lis. Ouvrir l’accès à leurs IA, sig­ni­fie renon­cer à cet avan­tage con­cur­ren­tiel. Pour­tant, cette sit­u­a­tion est para­doxale, puisque ces mêmes entre­pris­es se sont dévelop­pées en libérant l’u­til­i­sa­tion de tech­nolo­gies (moteurs de recherche, plate­formes web, com­merce élec­tron­ique et SDK d’ap­pli­ca­tions), pen­dant que d’autres acteurs étab­lis de l’époque gar­daient jalouse­ment sous un con­trôle étroit. Notons qu’au-delà de la démon­stra­tion sci­en­tifique, l’une des raisons pour laque­lle Face­book a mis à dis­po­si­tion son mod­èle Lla­ma est juste­ment de faire pres­sion sur les plus gros acteurs. Main­tenant que ce marché est inves­tigué par de nou­veaux acteurs, les GAFAM font la course pour offrir au marché leur « Chat­G­PT » (d’où la nou­velle ver­sion de Microsoft Bing avec Copi­lot, et Google Gemini).

#3 OpenAI, c’est de l’IA ouverte

Un autre mythe qu’il est impor­tant de dis­siper, est l’ouverture de l’IA des nou­velles entre­pris­es. L’utilisation de leur tech­nolo­gie est, effec­tive­ment, assez large­ment ouverte. Par exem­ple, l’interface de pro­gram­ma­tion de Chat­G­PT « API GPT » per­met à tout un cha­cun (moyen­nant paiement) d’inclure des requêtes aux algo­rithmes. D’autres met­tent à dis­po­si­tions les mod­èles eux-même per­me­t­tant ain­si de les mod­i­fi­er à la marge. Mais, mal­gré cette disponi­bil­ité, les IA, restent fer­mées : pas ques­tion ici d’apprentissage ouvert ou col­lec­tif. Les mis­es à jour ou les nou­veaux appren­tis­sages sont exclu­sive­ment réal­isés par Ope­nAI et les entre­pris­es qui les ont créés. Ces actu­al­i­sa­tions et ces pro­to­coles gardés très majori­taire­ment secrets par les start-up.

Si l’entraînement de GPT (et de ses sem­blables) était ouvert et col­lec­tif, on assis­terait sans nul doute à des batailles (au moyen de « bots », par exem­ple) pour influ­encer l’ap­pren­tis­sage de l’al­go­rithme. De la même manière, sur Wikipé­dia, l’encyclopédie col­lab­o­ra­tive, on con­state, depuis des années, des ten­ta­tives d’influencer ce qui est présen­té comme la « vérité col­lec­tive ». Se pose égale­ment la ques­tion du droit à utilis­er les données.

La fer­me­ture des IA sem­ble pleine de bon sens. Mais en réal­ité, cela pose la ques­tion fon­da­men­tale de la vérac­ité des con­tenus. La qual­ité de l’information est incer­taine. Éventuelle­ment par­tial ou biaisé, un mau­vais entraîne­ment des IA con­duirait à des « com­porte­ments » dan­gereux. Le grand pub­lic n’étant pas en mesure d’évaluer ces paramètres, le suc­cès des IA repose sur la con­fi­ance qu’ils pla­cent dans les entre­pris­es – comme c’est déjà le cas avec les moteurs de recherche et autres algo­rithmes des « big tech ».

Cette IA « ouverte » redéfinit com­plète­ment les ques­tions d’éthique, de respon­s­abil­ité et de régle­men­ta­tion. Ces mod­ules pré-entraînés sont faciles à partager et, con­traire­ment aux plate­formes d’IA cen­tral­isées comme le GPT d’Ope­nAI, sont presqu’impossible à régle­menter. Typ­ique­ment, en cas d’erreur, serait-on capa­ble de déter­min­er quelle par­tie exacte de l’apprentissage en est la cause ? Est-ce l’apprentissage ini­tial ou l’une des cen­taines ses­sions d’apprentissages ultérieurs qui est en cause ? Est-ce le fait que l’entraînement de la machine ait été réal­isé par dif­férentes personnes ?

#4 Beaucoup de gens perdront leur travail

Un autre mythe autour de ces « nou­velles IA » con­cerne leur impact sur l’emploi. L’IA généra­tive, de même que les IA plus anci­ennes sont dis­crim­i­nantes. Aus­si bonne qu’elle puisse paraître, cette IA ne rem­place en fait qu’un bon débu­tant (sauf que cet appren­ti n’ap­prend pas !), mais pas l’ex­pert ou le spé­cial­iste. Mais l’IA, aus­si per­for­mante puisse-t-elle paraître, elle ne rem­plac­era pas l’expert. Chat­G­PT ou DALL‑E peu­vent pro­duire de très bons « brouil­lons », mais ceux-ci doivent tou­jours être véri­fiés, sélec­tion­nés et affinés par l’humain.

Avec Chat­G­PT, ce qui impres­sionne c’est l’assurance avec laque­lle il répond. En réal­ité, la qual­ité intrin­sèque des résul­tats est dis­cutable. L’explosion d’in­for­ma­tions, de con­tenus et d’ac­tiv­ités qu’en­traîn­era cette util­i­sa­tion large et ouverte de l’IA ren­dra l’ex­per­tise humaine plus que jamais néces­saire. Cela a d’ailleurs été la règle avec les « révo­lu­tions numériques » : plus on numérise, plus l’ex­per­tise humaine devient néces­saire. Cepen­dant, l’incertitude plane quant à la per­tur­ba­tion que pour­rait génér­er cette deux­ième vague d’IA pour les entreprises.

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter