The impact of AI and robotics on unemployment
π Science et technologies π Numérique
IA générative : menace ou opportunité ?

Les 4 mythes sur l’IA générative

avec Thierry Rayna, chercheur au laboratoire CNRS i³-CRG* et professeur à l’École polytechnique (IP Paris) et Erwan Le Pennec, professeur au département de mathématiques appliquées de l'École polytechnique (IP Paris)
Le 3 avril 2024 |
6 min. de lecture
Thierry Rayna
Thierry Rayna
chercheur au laboratoire CNRS i³-CRG* et professeur à l’École polytechnique (IP Paris)
Erwan le pennec
Erwan Le Pennec
professeur au département de mathématiques appliquées de l'École polytechnique (IP Paris)
En bref
  • De nombreux mythes et fabulations planent autour des IA, notamment depuis l’essor des IA génératives comme DALL-E.
  • En réalité, ces IA ne représentent pas de révolution technologique, au sens de l’innovation, puisque leur existence précède l’avènement de ChatGPT.
  • Nous assistons surtout à une rupture d'usage, grâce aux start-up ayant « ouvert » l’accès aux IA au grand public.
  • En réalité, les protocoles d’entraînement de ces IA sont gardés secrets par les entreprises, mais des interfaces de programmation donnent l’illusion à l’usager de maîtriser l’algorithme.
  • Malgré les inquiétudes, cette utilisation large et ouverte de l’IA rendra l'expertise humaine plus que jamais nécessaire.

Cet article a été publié dans notre maga­zine Le 3,14 sur l’IA. Télé­char­gez-le ici.

IA rem­pla­çant un avo­cat, IA rédi­geant des dis­ser­ta­tions si bonnes qu’elles leurrent les pro­fes­seurs, IA met­tant les artistes au chô­mage car n’im­porte qui peut géné­rer la cou­ver­ture d’un maga­zine ou com­po­ser la musique d’un film… Ces exemples font la une ces der­niers mois, notam­ment, l’annonce de l’obsolescence immi­nente des pro­fes­sions intel­lec­tuelles et des cadres. Or, l’IA n’est pas une inno­va­tion dans le sens où elle existe depuis bien long­temps. Dès le milieu des années 1950, des vagues d’inquiétude et de fabu­la­tion se suc­cèdent, avec, à chaque fois, la même pro­phé­tie : les humains défi­ni­ti­ve­ment rem­pla­cés par des machines. Et pour­tant, à chaque fois, ces pré­dic­tions ne se sont pas maté­ria­li­sées. Mais cette fois, alors qu’on constate la mul­ti­pli­ca­tion de l’usage de ces nou­velles IA, peut-on légi­ti­me­ment pen­ser que c’est différent ?

#1 On assiste à une révolution technologique

Nombre de com­men­taires ou de dépêches laissent pen­ser qu’une avan­cée tech­no­lo­gique majeure vient de se pro­duire. Or, ça n’est tout sim­ple­ment pas le cas. Les algo­rithmes uti­li­sés par ChatGPT ou DALL‑E res­semblent à ceux connus et uti­li­sés depuis déjà quelques années. Si l’innovation ne réside pas dans les algo­rithmes, alors peut-être qu’un pro­grès tech­no­lo­gique majeur per­met de trai­ter une large quan­ti­té de don­nées, de manière plus « intel­li­gente » ? Non plus ! Les avan­cées consta­tées sont le fruit d’une pro­gres­sion rela­ti­ve­ment conti­nue et pré­vi­sible. Même l’IA géné­ra­tive dont on parle tant, c’est-à-dire l’u­ti­li­sa­tion d’al­go­rithmes entraî­nés non pas pour pré­dire la bonne réponse abso­lue, mais pour géné­rer une varié­té de réponses pos­sibles (d’où l’impression de « créa­ti­vi­té »), n’est pas nou­velle non plus – même si l’amélioration des résul­tats la rend de plus en plus utilisable.

Le para­doxe est que Google ne peut pas être aus­si « bon » qu’O­pe­nAI, parce que Google ne peut pas être aus­si « mau­vais » qu’OpenAI. 

Ce qui s’est pas­sé ces der­niers mois n’est pas une rup­ture tech­no­lo­gique, mais une rup­ture d’u­sage. Jusqu’à pré­sent, les géants de l’IA (typi­que­ment les GAFAM) gar­daient ces tech­no­lo­gies pour eux ou n’en dif­fu­saient que des ver­sions bri­dées, décré­tant et limi­tant ain­si l’usage fait par le grand public. Les nou­veaux arri­vants (Ope­nAI, Stable​.AI ou Mid­jour­ney) ont, au contraire, déci­dé de lais­ser les gens faire (presque) tout ce qu’ils vou­laient de leurs algo­rithmes. Doré­na­vant, cha­cun peut s’approprier ces « IA », et les uti­li­ser à des fins aus­si diverses qu’imprévisibles. C’est de cette ouver­ture que découle la « vraie » créa­ti­vi­té de cette nou­velle vague de l’IA.

#2 Les GAFAM (et autres « Big Tech ») sont dépassées technologiquement

Comme expli­qué ci-des­sus, les grandes entre­prises telles que Google, Apple et Face­book ont res­treint l’accès à ces tech­no­lo­gies, qu’ils maî­trisent tout aus­si bien. Les GAFAM gardent un contrôle très étroit sur leur IA, prin­ci­pa­le­ment pour deux rai­sons. Pre­miè­re­ment, leur image : si ChatGPT ou DALL‑E génère un conte­nu raciste, dis­cri­mi­nant ou insul­tant, l’écart sera excu­sé par leur situa­tion de start-up, encore en plein appren­tis­sage. Ce « droit à l’erreur » ne s’appliquerait pas à Google, qui ver­rait sa répu­ta­tion se ter­nir gra­ve­ment (sans comp­ter les sou­cis de jus­tice poten­tiels). Le para­doxe est que Google (ou autre GAFAM) ne peut pas être aus­si « bon » qu’O­pe­nAI, parce que Google ne peut pas être aus­si « mau­vais » qu’OpenAI.

ChatGPT : l’arbre qui cache la forêt

En paral­lèle du « buzz » géné­ré par ChatGPT, DALL‑E, Open​.AI, une évo­lu­tion bien plus radi­cale, et bien moins visible, est en cours : la dis­po­ni­bi­li­té et la dif­fu­sion large de modules d’IA pré-entraî­nées auprès du grand public. Contrai­re­ment à GPT, ces der­niers ne dépendent pas d’une pla­te­forme cen­tra­li­sée. Ils sont auto­nomes, peuvent être télé­char­gés, entraî­nés à diverses fins (légales ou non). Ils peuvent même être inté­grés dans un logi­ciel, une « app », ou d’autres ser­vices, et redis­tri­bués à d’autres uti­li­sa­teurs qui s’ap­puie­ront sur cet appren­tis­sage sup­plé­men­taire pour entraî­ner eux-mêmes à leur tour ces modules à d’autres fins. Chaque fois qu’un module pré-entraî­né est dupli­qué, entraî­né et redis­tri­bué, un nou­veau variant est créé. Au bout du compte, des mil­liers, voire des mil­lions de variants d’un module ini­tial se répan­dront dans un nombre fara­mi­neux de logi­ciels et d’ap­pli­ca­tions. Et ces modules d’IA sont entiè­re­ment « boîte noire ». Ils ne sont pas consti­tués de lignes de code infor­ma­tique expli­cites, mais de matrices (sou­vent de très grandes tailles), intrin­sè­que­ment inin­ter­pré­tables, même par les experts du domaine. Résul­tat, il est presqu’impossible, en pra­tique, de pré­dire avec pré­ci­sion le com­por­te­ment de ces IA sans les tes­ter de manière extensive.

La deuxième rai­son est d’ordre stra­té­gique. L’entraînement et l’apprentissage des algo­rithmes d’IA sont incroya­ble­ment coû­teux (on parle en mil­lions de dol­lars). Ce coût fara­mi­neux est avan­ta­geux aux GAFAM, déjà bien éta­blis. Ouvrir l’accès à leurs IA, signi­fie renon­cer à cet avan­tage concur­ren­tiel. Pour­tant, cette situa­tion est para­doxale, puisque ces mêmes entre­prises se sont déve­lop­pées en libé­rant l’u­ti­li­sa­tion de tech­no­lo­gies (moteurs de recherche, pla­te­formes web, com­merce élec­tro­nique et SDK d’ap­pli­ca­tions), pen­dant que d’autres acteurs éta­blis de l’époque gar­daient jalou­se­ment sous un contrôle étroit. Notons qu’au-delà de la démons­tra­tion scien­ti­fique, l’une des rai­sons pour laquelle Face­book a mis à dis­po­si­tion son modèle Lla­ma est jus­te­ment de faire pres­sion sur les plus gros acteurs. Main­te­nant que ce mar­ché est inves­ti­gué par de nou­veaux acteurs, les GAFAM font la course pour offrir au mar­ché leur « ChatGPT » (d’où la nou­velle ver­sion de Micro­soft Bing avec Copi­lot, et Google Gemini).

#3 OpenAI, c’est de l’IA ouverte

Un autre mythe qu’il est impor­tant de dis­si­per, est l’ouverture de l’IA des nou­velles entre­prises. L’utilisation de leur tech­no­lo­gie est, effec­ti­ve­ment, assez lar­ge­ment ouverte. Par exemple, l’interface de pro­gram­ma­tion de ChatGPT « API GPT » per­met à tout un cha­cun (moyen­nant paie­ment) d’inclure des requêtes aux algo­rithmes. D’autres mettent à dis­po­si­tions les modèles eux-même per­met­tant ain­si de les modi­fier à la marge. Mais, mal­gré cette dis­po­ni­bi­li­té, les IA, res­tent fer­mées : pas ques­tion ici d’apprentissage ouvert ou col­lec­tif. Les mises à jour ou les nou­veaux appren­tis­sages sont exclu­si­ve­ment réa­li­sés par Ope­nAI et les entre­prises qui les ont créés. Ces actua­li­sa­tions et ces pro­to­coles gar­dés très majo­ri­tai­re­ment secrets par les start-up.

Si l’entraînement de GPT (et de ses sem­blables) était ouvert et col­lec­tif, on assis­te­rait sans nul doute à des batailles (au moyen de « bots », par exemple) pour influen­cer l’ap­pren­tis­sage de l’al­go­rithme. De la même manière, sur Wiki­pé­dia, l’encyclopédie col­la­bo­ra­tive, on constate, depuis des années, des ten­ta­tives d’influencer ce qui est pré­sen­té comme la « véri­té col­lec­tive ». Se pose éga­le­ment la ques­tion du droit à uti­li­ser les données.

La fer­me­ture des IA semble pleine de bon sens. Mais en réa­li­té, cela pose la ques­tion fon­da­men­tale de la véra­ci­té des conte­nus. La qua­li­té de l’information est incer­taine. Éven­tuel­le­ment par­tial ou biai­sé, un mau­vais entraî­ne­ment des IA condui­rait à des « com­por­te­ments » dan­ge­reux. Le grand public n’étant pas en mesure d’évaluer ces para­mètres, le suc­cès des IA repose sur la confiance qu’ils placent dans les entre­prises – comme c’est déjà le cas avec les moteurs de recherche et autres algo­rithmes des « big tech ».

Cette IA « ouverte » redé­fi­nit com­plè­te­ment les ques­tions d’é­thique, de res­pon­sa­bi­li­té et de régle­men­ta­tion. Ces modules pré-entraî­nés sont faciles à par­ta­ger et, contrai­re­ment aux pla­te­formes d’IA cen­tra­li­sées comme le GPT d’O­pe­nAI, sont presqu’impossible à régle­men­ter. Typi­que­ment, en cas d’erreur, serait-on capable de déter­mi­ner quelle par­tie exacte de l’apprentissage en est la cause ? Est-ce l’apprentissage ini­tial ou l’une des cen­taines ses­sions d’apprentissages ulté­rieurs qui est en cause ? Est-ce le fait que l’entraînement de la machine ait été réa­li­sé par dif­fé­rentes personnes ?

#4 Beaucoup de gens perdront leur travail

Un autre mythe autour de ces « nou­velles IA » concerne leur impact sur l’emploi. L’IA géné­ra­tive, de même que les IA plus anciennes sont dis­cri­mi­nantes. Aus­si bonne qu’elle puisse paraître, cette IA ne rem­place en fait qu’un bon débu­tant (sauf que cet appren­ti n’ap­prend pas !), mais pas l’ex­pert ou le spé­cia­liste. Mais l’IA, aus­si per­for­mante puisse-t-elle paraître, elle ne rem­pla­ce­ra pas l’expert. ChatGPT ou DALL‑E peuvent pro­duire de très bons « brouillons », mais ceux-ci doivent tou­jours être véri­fiés, sélec­tion­nés et affi­nés par l’humain.

Avec ChatGPT, ce qui impres­sionne c’est l’assurance avec laquelle il répond. En réa­li­té, la qua­li­té intrin­sèque des résul­tats est dis­cu­table. L’explosion d’in­for­ma­tions, de conte­nus et d’ac­ti­vi­tés qu’en­traî­ne­ra cette uti­li­sa­tion large et ouverte de l’IA ren­dra l’ex­per­tise humaine plus que jamais néces­saire. Cela a d’ailleurs été la règle avec les « révo­lu­tions numé­riques » : plus on numé­rise, plus l’ex­per­tise humaine devient néces­saire. Cepen­dant, l’incertitude plane quant à la per­tur­ba­tion que pour­rait géné­rer cette deuxième vague d’IA pour les entreprises.

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don