1_Comprendre
π Science et technologies π Numérique
IA générative : menace ou opportunité ?

ChatGPT, Midjourney : tout comprendre sur les IA génératives

avec Éric Moulines, professeur en apprentissage statistique à l’École polytechnique (IP Paris), Hatim Bourfoune, ingénieur de recherche sur l’IA à l’IDRIS (CNRS) et Pierre Cornette, ingénieur de support sur l’IA à l’IDRIS (CNRS)
Le 21 novembre 2023 |
6 min. de lecture
Eric Moulines
Éric Moulines
professeur en apprentissage statistique à l’École polytechnique (IP Paris)
Hatim Bourfoune
Hatim Bourfoune
ingénieur de recherche sur l’IA à l’IDRIS (CNRS)
Pierre Cornette
Pierre Cornette
ingénieur de support sur l’IA à l’IDRIS (CNRS)
En bref
  • Les IA génératives sont capables de créer du contenu à partir d’une base de données qu’elles auront ingérées et selon les indications qu’on lui donne.
  • Ces technologies, encore récentes, sont en cours de développement et de nombreux points restent à améliorer : notion de fiabilité, biais dans la base de données, etc.
  • ChatGPT ou Bloom ne sont que des modèles d’IA génératives, ce concept peut s’étendre à une multitude d’applications.
  • Ces technologies posent certaines questions, comme leur impact écologique ou le risque de leur utilisation à des fins potentiellement malveillantes.

Ces der­niers temps tout le monde ne fait qu’en par­ler, ChatGPT arrive dans nos socié­tés telle une véri­table révo­lu­tion. Pas éton­nant qu’au vu des champs d’applications très éten­dus de ces outils, leur arri­vée nour­risse tant de réflexions. Mais savons-nous réel­le­ment com­ment cette IA fonctionne ?

Une IA géné­ra­tive peut géné­rer du conte­nu écrit, visuel ou audible, en ingé­rant du conte­nu. En lui don­nant des indi­ca­tions en entrée, l’IA est capable de créer en sor­tie n’importe quel conte­nu qui cor­res­pon­dra aux indi­ca­tions ingé­rées. « Ici, on cherche à géné­rer des conte­nus ori­gi­naux, explique Éric Mou­lines, pro­fes­seur en appren­tis­sage sta­tique à l’École poly­tech­nique (IP Paris). Ces conte­nus ori­gi­naux seront obte­nus en géné­ra­li­sant des formes vues durant l’apprentissage. »

Il existe aujourd’hui deux prin­ci­paux types de modèles de cette IA. Les GPT (« Gene­ra­tive Pre-trai­ned Trans­for­mer »), comme ChatGPT et les Dif­fu­sions Models. « En lui don­nant du texte en entrée, l’IA sera capable de com­prendre le contexte au tra­vers d’un méca­nisme appe­lé d’attention, ajoute Hatim Bour­fone, ingé­nieur de recherche sur l’IA à l’IDRIS (CNRS). Sa sor­tie sera donc une liste de tous les mots du dic­tion­naire qu’il connaît [appris durant son appren­tis­sage] sur les­quels il aura mis une pro­ba­bi­li­té. » Dépen­dam­ment de la base de don­nées sur laquelle il s’est entraî­né, l’outil peut être pro­gram­mé pour diverses fonctions.

Bloom par exemple, l’IA déve­lop­pée par l’équipe dont Hatim Bour­foune fait par­tie à l’IDRIS, est un outil aidant la recherche dans sa capa­ci­té à s’exprimer dans plu­sieurs langues. « Le but pre­mier du modèle Bloom, ajoute Pierre Cor­nette, éga­le­ment membre de l’équipe de l’IDRIS, est d’apprendre une langue. Pour cela, on leur donne tout un tas de textes à ingé­rer en leur deman­dant de pré­dire le pro­chain mot du texte don­né et on les cor­rige s’ils ont faux. »   

Une technologie récente, encore immature

« Les pre­miers modèles d’IA géné­ra­tives n’ont même pas 10 ans, explique Éric Mou­lines. La pre­mière révo­lu­tion de ce domaine a été l’arrivée des trans­for­mers — tech­no­lo­gie per­fec­tion­nant ce méca­nisme d’attention —, en 2017. Quatre années plus tard, nous avons déjà des pro­duits com­mer­ciaux. Il y a donc eu une accé­lé­ra­tion de l’histoire consi­dé­rable, beau­coup plus forte que sur tous les autres modèles de Deep Lear­ning. » Les modèles comme celui de ChatGPT sont donc encore très récents, de nom­breuses choses peuvent, ou doivent, encore être améliorées.

La ques­tion de la fia­bi­li­té des réponses don­nées n’est, encore aujourd’hui, pas cer­taine : « La notion de fia­bi­li­té, ChatGPT ne la connaît pas, admet le pro­fes­seur. Ce type d’IA est inca­pable d’évaluer la véra­ci­té des réponses qu’il donne. » Cela laisse place à un phé­no­mène faci­le­ment obser­vable que l’on nomme les « hal­lu­ci­na­tions ». « Il est pos­sible [pour ChatGPT] de géné­rer des conte­nus qui semblent plau­sibles, mais qui sont rigou­reu­se­ment faux, ajoute-t-il. Il rai­sonne de façon com­plè­te­ment pro­ba­bi­liste pour géné­rer des suites de mots. Dépen­dam­ment du contexte, il géné­re­ra des suites de mots qui lui semblent les plus pro­bables. »

Mise à part sa capa­ci­té à inven­ter des titres de livres, il fau­drait gar­der en tête les autres limites lors de son uti­li­sa­tion. En appli­quant les méthodes du Deep Lear­ning, ces IA passent par une phase d’entraînement durant laquelle elles ingé­re­ront une quan­ti­té de textes exis­tants. Ain­si, elles ingé­re­ront dans leur appren­tis­sage les biais de cette base de don­nées. Les ques­tions géo­po­li­tiques sont un bon exemple pour illus­trer cela. « Si on lui pose des ques­tions géo­po­li­tiques, ChatGPT reflé­te­ra essen­tiel­le­ment le monde occi­den­tal, atteste Éric Mou­lines. Si l’on montre les réponses don­nées à un Chi­nois, il ne sera cer­tai­ne­ment pas d’accord sur ce qui est dit concer­nant la sou­ve­rai­ne­té de tel ou tel pays sur un ter­ri­toire don­né. »

Un éventail d’applications

Chaque modèle pour­ra donc géné­rer du conte­nu selon la base de don­nées sur laquelle il se sera entraî­né. C’est peut-être là que réside la magie de cette tech­no­lo­gie car, sachant cela, une myriade d’applications peut voir le jour. « Une bonne ana­lo­gie avec cette tech­no­lo­gie serait celle du moteur, avance Pierre Cor­nette. On pour­rait avoir un moteur très puis­sant, mais sur l’application on peut en faire un trac­teur ou une voi­ture de course. » Par exemple, ChatGPT est une voi­ture de course et son moteur est GPT‑4. « L’avantage est que les tech­no­lo­gies sont concen­trées dans ce qui est le moteur, pour­suit-il, et on n’a pas besoin de com­prendre com­ment il marche pour uti­li­ser la voi­ture de course. »

Bloom est un exemple d’une autre uti­li­sa­tion de ce type de modèle : « Il y a 1 an, Bloom était l’un des seuls modèles à être com­plè­te­ment ouvert à la recherche, insiste Hatim Bour­foune. C’est-à-dire que n’importe qui pou­vait télé­char­ger le modèle et l’utiliser pour sa recherche. » Entraî­né avec une base de don­nées com­po­sée de divers articles scien­ti­fiques, et ce dans de nom­breuses langues, ce modèle peut être fort utile à la recherche scien­ti­fique. « Il y a, par ailleurs, un autre pro­jet Big­code, por­té par les mêmes acteurs qui pro­meut un modèle spé­cia­li­sé dans le code infor­ma­tique, ajoute Pierre Cor­nette. On lui demande une fonc­tion, en lui décri­vant sim­ple­ment son action, et il pour­ra nous l’écrire dans le lan­gage sou­hai­té. »

L’engouement que ChatGPT a engen­dré nous montre son impor­tance pour l’utilisation plus grand public. Bing l’a par ailleurs inté­gré à son moteur de recherche dans l’optique de faire concur­rence à Google. Cette inté­gra­tion per­met une uti­li­sa­tion qui contre­rait une des limites de cette tech­no­lo­gie : la fia­bi­li­té des réponses don­nées. En don­nant les sources uti­li­sées pour com­po­ser sa réponse, le moteur de recherche nous per­met de mieux com­prendre et de mieux les véri­fier. Plus récem­ment encore, c’est Adobe qui a inté­gré un modèle d’IA géné­ra­tive à dif­fé­rents logi­ciels de sa suite (comme Pho­to­shop ou encore Illus­tra­tor), dévoi­lant à nou­veau une appli­ca­tion impres­sion­nante de cette technologie.

« Son avenir est excitant »

Tout cela ne peut qu’offrir un ave­nir cap­ti­vant à cette inno­va­tion. Pour autant, l’éventail d’applications pose des ques­tions quant à ses pos­sibles uti­li­sa­tions. « Comme pour tous les outils, il peut y avoir des uti­li­sa­tions mal­veillantes, admet Hatim Bour­foune. C’est pour cela que les entre­prises comme Ope­nAI mettent dif­fé­rentes bar­rières de sécu­ri­té. » Aujourd’hui, beau­coup de ques­tions posées à ChatGPT res­tent sans réponse, car l’IA estime qu’elles violent son content poli­cy

Cette tech­no­lo­gie reste tout de même imma­ture. « C’est le prin­cipe de la recherche, nous n’en sommes encore qu’au niveau zéro, main­tient Éric Mou­lines. C’est déjà même éton­nant que cela marche. » Ain­si, de nom­breuses failles doivent encore être com­blées, notam­ment du point de vue juri­dique. Comme expli­qué, le conte­nu que ces outils vont géné­rer sera construit avec une base de don­nées déjà exis­tante. L’IA va donc « copier » des textes, ou des œuvres, déjà exis­tants sans citer l’auteur ori­gi­nel de ceux-ci. « Cela pose un pro­blème impor­tant, pour­suit-il, car les ayants droit des conte­nus qui ont ser­vi à géné­rer ces nou­velles images [ou textes] ne sont pas res­pec­tés. »

Mal­gré ses dif­fé­rentes limites, le poten­tiel reste énorme : « Ce qui m’excite … c’est que les pro­grès à faire sont énormes, ajoute le pro­fes­seur. Or, la ten­dance et les déri­vés sont énormes. Cela va très vite et il y a une com­pé­ti­tion très exci­tante dans ces sujets. » Par­lant des déri­vés, Bloom l’illustre par­fai­te­ment. Utile à la recherche, c’est aus­si un outil lin­guis­tique qui pour­rait per­mettre la sau­ve­garde de langues mortes, mais aus­si une tra­duc­tion de textes scien­ti­fiques en des langues peu par­lées pour faci­li­ter la dif­fu­sion de la recherche.

Cepen­dant, son ave­nir « exci­tant » peut être blo­qué par son impact car­bone tout de même consi­dé­rable. « Ces modèles demandent beau­coup de mémoire, car ils ont besoin d’embarquer énor­mé­ment de don­nées, déve­loppe Éric Mou­lines. Aujourd’hui, on consi­dère qu’OpenAI consomme autant que la grille d’un pays comme la Bel­gique. » Voi­là le pro­blème qui sera sûre­ment le plus com­pli­qué à résoudre. 

Pablo Andres

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don à Polytechnique Insights