1_Comprendre
π Science et technologies π Numérique
IA générative : menace ou opportunité ?

ChatGPT, Midjourney : tout comprendre sur les IA génératives

Éric Moulines, professeur en apprentissage statistique à l’École polytechnique (IP Paris), Hatim Bourfoune, ingénieur de recherche sur l’IA à l’IDRIS (CNRS) et Pierre Cornette, ingénieur de support sur l’IA à l’IDRIS (CNRS)
Le 21 novembre 2023 |
6 min. de lecture
Eric Moulines
Éric Moulines
professeur en apprentissage statistique à l’École polytechnique (IP Paris)
Hatim Bourfoune
Hatim Bourfoune
ingénieur de recherche sur l’IA à l’IDRIS (CNRS)
Pierre Cornette
Pierre Cornette
ingénieur de support sur l’IA à l’IDRIS (CNRS)
En bref
  • Les IA génératives sont capables de créer du contenu à partir d’une base de données qu’elles auront ingérées et selon les indications qu’on lui donne.
  • Ces technologies, encore récentes, sont en cours de développement et de nombreux points restent à améliorer : notion de fiabilité, biais dans la base de données, etc.
  • ChatGPT ou Bloom ne sont que des modèles d’IA génératives, ce concept peut s’étendre à une multitude d’applications.
  • Ces technologies posent certaines questions, comme leur impact écologique ou le risque de leur utilisation à des fins potentiellement malveillantes.

Ces derniers temps tout le monde ne fait qu’en par­ler, Chat­G­PT arrive dans nos sociétés telle une véri­ta­ble révo­lu­tion. Pas éton­nant qu’au vu des champs d’applications très éten­dus de ces out­ils, leur arrivée nour­risse tant de réflex­ions. Mais savons-nous réelle­ment com­ment cette IA fonctionne ?

Une IA généra­tive peut génér­er du con­tenu écrit, visuel ou audi­ble, en ingérant du con­tenu. En lui don­nant des indi­ca­tions en entrée, l’IA est capa­ble de créer en sor­tie n’importe quel con­tenu qui cor­re­spon­dra aux indi­ca­tions ingérées. « Ici, on cherche à génér­er des con­tenus orig­in­aux, explique Éric Moulines, pro­fesseur en appren­tis­sage sta­tique à l’École poly­tech­nique (IP Paris). Ces con­tenus orig­in­aux seront obtenus en général­isant des formes vues durant l’apprentissage. »

Il existe aujourd’hui deux prin­ci­paux types de mod­èles de cette IA. Les GPT (« Gen­er­a­tive Pre-trained Trans­former »), comme Chat­G­PT et les Dif­fu­sions Mod­els. « En lui don­nant du texte en entrée, l’IA sera capa­ble de com­pren­dre le con­texte au tra­vers d’un mécan­isme appelé d’attention, ajoute Hatim Bour­fone, ingénieur de recherche sur l’IA à l’IDRIS (CNRS). Sa sor­tie sera donc une liste de tous les mots du dic­tio­n­naire qu’il con­naît [appris durant son appren­tis­sage] sur lesquels il aura mis une prob­a­bil­ité. » Dépen­dam­ment de la base de don­nées sur laque­lle il s’est entraîné, l’outil peut être pro­gram­mé pour divers­es fonctions.

Bloom par exem­ple, l’IA dévelop­pée par l’équipe dont Hatim Bour­foune fait par­tie à l’IDRIS, est un out­il aidant la recherche dans sa capac­ité à s’exprimer dans plusieurs langues. « Le but pre­mier du mod­èle Bloom, ajoute Pierre Cor­nette, égale­ment mem­bre de l’équipe de l’IDRIS, est d’apprendre une langue. Pour cela, on leur donne tout un tas de textes à ingér­er en leur deman­dant de prédire le prochain mot du texte don­né et on les cor­rige s’ils ont faux. »   

Une technologie récente, encore immature

« Les pre­miers mod­èles d’IA généra­tives n’ont même pas 10 ans, explique Éric Moulines. La pre­mière révo­lu­tion de ce domaine a été l’arrivée des trans­form­ers — tech­nolo­gie per­fec­tion­nant ce mécan­isme d’attention —, en 2017. Qua­tre années plus tard, nous avons déjà des pro­duits com­mer­ci­aux. Il y a donc eu une accéléra­tion de l’histoire con­sid­érable, beau­coup plus forte que sur tous les autres mod­èles de Deep Learn­ing. » Les mod­èles comme celui de Chat­G­PT sont donc encore très récents, de nom­breuses choses peu­vent, ou doivent, encore être améliorées.

La ques­tion de la fia­bil­ité des répons­es don­nées n’est, encore aujourd’hui, pas cer­taine : « La notion de fia­bil­ité, Chat­G­PT ne la con­naît pas, admet le pro­fesseur. Ce type d’IA est inca­pable d’évaluer la vérac­ité des répons­es qu’il donne. » Cela laisse place à un phénomène facile­ment observ­able que l’on nomme les « hal­lu­ci­na­tions ». « Il est pos­si­ble [pour Chat­G­PT] de génér­er des con­tenus qui sem­blent plau­si­bles, mais qui sont rigoureuse­ment faux, ajoute-t-il. Il raisonne de façon com­plète­ment prob­a­biliste pour génér­er des suites de mots. Dépen­dam­ment du con­texte, il génér­era des suites de mots qui lui sem­blent les plus prob­a­bles. »

Mise à part sa capac­ité à inven­ter des titres de livres, il faudrait garder en tête les autres lim­ites lors de son util­i­sa­tion. En appli­quant les méth­odes du Deep Learn­ing, ces IA passent par une phase d’entraînement durant laque­lle elles ingéreront une quan­tité de textes exis­tants. Ain­si, elles ingéreront dans leur appren­tis­sage les biais de cette base de don­nées. Les ques­tions géopoli­tiques sont un bon exem­ple pour illus­tr­er cela. « Si on lui pose des ques­tions géopoli­tiques, Chat­G­PT reflétera essen­tielle­ment le monde occi­den­tal, atteste Éric Moulines. Si l’on mon­tre les répons­es don­nées à un Chi­nois, il ne sera cer­taine­ment pas d’accord sur ce qui est dit con­cer­nant la sou­veraineté de tel ou tel pays sur un ter­ri­toire don­né. »

Un éventail d’applications

Chaque mod­èle pour­ra donc génér­er du con­tenu selon la base de don­nées sur laque­lle il se sera entraîné. C’est peut-être là que réside la magie de cette tech­nolo­gie car, sachant cela, une myr­i­ade d’applications peut voir le jour. « Une bonne analo­gie avec cette tech­nolo­gie serait celle du moteur, avance Pierre Cor­nette. On pour­rait avoir un moteur très puis­sant, mais sur l’application on peut en faire un tracteur ou une voiture de course. » Par exem­ple, Chat­G­PT est une voiture de course et son moteur est GPT‑4. « L’avantage est que les tech­nolo­gies sont con­cen­trées dans ce qui est le moteur, pour­suit-il, et on n’a pas besoin de com­pren­dre com­ment il marche pour utilis­er la voiture de course. »

Bloom est un exem­ple d’une autre util­i­sa­tion de ce type de mod­èle : «Il y a 1 an, Bloom était l’un des seuls mod­èles à être com­plète­ment ouvert à la recherche, insiste Hatim Bour­foune. C’est-à-dire que n’importe qui pou­vait télécharg­er le mod­èle et l’utiliser pour sa recherche. » Entraîné avec une base de don­nées com­posée de divers arti­cles sci­en­tifiques, et ce dans de nom­breuses langues, ce mod­èle peut être fort utile à la recherche sci­en­tifique. « Il y a, par ailleurs, un autre pro­jet Big­code, porté par les mêmes acteurs qui promeut un mod­èle spé­cial­isé dans le code infor­ma­tique, ajoute Pierre Cor­nette. On lui demande une fonc­tion, en lui décrivant sim­ple­ment son action, et il pour­ra nous l’écrire dans le lan­gage souhaité. »

L’engouement que Chat­G­PT a engen­dré nous mon­tre son impor­tance pour l’utilisation plus grand pub­lic. Bing l’a par ailleurs inté­gré à son moteur de recherche dans l’optique de faire con­cur­rence à Google. Cette inté­gra­tion per­met une util­i­sa­tion qui con­tr­erait une des lim­ites de cette tech­nolo­gie : la fia­bil­ité des répons­es don­nées. En don­nant les sources util­isées pour com­pos­er sa réponse, le moteur de recherche nous per­met de mieux com­pren­dre et de mieux les véri­fi­er. Plus récem­ment encore, c’est Adobe qui a inté­gré un mod­èle d’IA généra­tive à dif­férents logi­ciels de sa suite (comme Pho­to­shop ou encore Illus­tra­tor), dévoilant à nou­veau une appli­ca­tion impres­sion­nante de cette technologie.

« Son avenir est excitant »

Tout cela ne peut qu’offrir un avenir cap­ti­vant à cette inno­va­tion. Pour autant, l’éventail d’applications pose des ques­tions quant à ses pos­si­bles util­i­sa­tions. « Comme pour tous les out­ils, il peut y avoir des util­i­sa­tions malveil­lantes, admet Hatim Bour­foune. C’est pour cela que les entre­pris­es comme Ope­nAI met­tent dif­férentes bar­rières de sécu­rité. » Aujourd’hui, beau­coup de ques­tions posées à Chat­G­PT restent sans réponse, car l’IA estime qu’elles vio­lent son con­tent pol­i­cy

Cette tech­nolo­gie reste tout de même imma­ture. « C’est le principe de la recherche, nous n’en sommes encore qu’au niveau zéro, main­tient Éric Moulines. C’est déjà même éton­nant que cela marche. » Ain­si, de nom­breuses failles doivent encore être comblées, notam­ment du point de vue juridique. Comme expliqué, le con­tenu que ces out­ils vont génér­er sera con­stru­it avec une base de don­nées déjà exis­tante. L’IA va donc « copi­er » des textes, ou des œuvres, déjà exis­tants sans citer l’auteur orig­inel de ceux-ci. « Cela pose un prob­lème impor­tant, pour­suit-il, car les ayants droit des con­tenus qui ont servi à génér­er ces nou­velles images [ou textes] ne sont pas respec­tés. »

Mal­gré ses dif­férentes lim­ites, le poten­tiel reste énorme : « Ce qui m’excite … c’est que les pro­grès à faire sont énormes, ajoute le pro­fesseur. Or, la ten­dance et les dérivés sont énormes. Cela va très vite et il y a une com­péti­tion très exci­tante dans ces sujets. » Par­lant des dérivés, Bloom l’illustre par­faite­ment. Utile à la recherche, c’est aus­si un out­il lin­guis­tique qui pour­rait per­me­t­tre la sauve­g­arde de langues mortes, mais aus­si une tra­duc­tion de textes sci­en­tifiques en des langues peu par­lées pour faciliter la dif­fu­sion de la recherche.

Cepen­dant, son avenir « exci­tant » peut être blo­qué par son impact car­bone tout de même con­sid­érable. « Ces mod­èles deman­dent beau­coup de mémoire, car ils ont besoin d’embarquer énor­mé­ment de don­nées, développe Éric Moulines. Aujourd’hui, on con­sid­ère qu’OpenAI con­somme autant que la grille d’un pays comme la Bel­gique. » Voilà le prob­lème qui sera sûre­ment le plus com­pliqué à résoudre. 

Pablo Andres

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter