Accueil / Chroniques / IA : comment intégrer et évaluer l’éthique, la souveraineté et l’éco-responsabilité ?
Généré par l'IA / Generated using AI
π Numérique

IA : comment intégrer et évaluer l’éthique, la souveraineté et l’éco-responsabilité ?

Jérôme Béranger_VF
Jérôme Béranger
chercheur associé à l’INSERM de l’Université de Toulouse 3 et expert « IA & Ethique » pour l’Institut EuropIA
Fatima AIT THAMI_VF
Fatima Ait Thami
consultante éthique du numérique chez GoodAlgo
En bref
  • Avec l’émergence des nouvelles technologies, apparaissent de nos jours des approches éthiques de l’IA.
  • L’IA éthique vise à intégrer dans le code de l’IA des recommandations éthiques, quand l’IA digne de confiance cherche plutôt à encadrer les décisions automatiques.
  • L’Ethics by Design cherche à garantir la transparence et la clarté des systèmes d’IA ainsi que de leurs finalités ; elle doit être prolongée par l’Ethics by Evolution.
  • L’Ethics by Evolution consiste à adapter continuellement les critères et indicateurs éthiques au long de la période d’apprentissage du système d’IA.
  • Un objectif de l’Ethics by Evolution est d’accompagner les professionnels de la Tech vers le développement d’une technologie axée sur les humains.

Depuis tou­jours, les grandes avan­cées tech­no­lo­giques sus­citent à la fois espoir et inquié­tude, car leurs dérives reflètent avant tout celles des socié­tés qui les pro­duisent. La révo­lu­tion numé­rique et l’essor de l’intelligence arti­fi­cielle (IA) marquent tou­te­fois une rup­ture inédite : pour la pre­mière fois, l’avenir de l’humanité se joue dans les lignes de code et dans des sys­tèmes capables d’agir à grande échelle dans toutes les sphères de la socié­té, à la fois dans la vie pro­fes­sion­nelle et personnelle.

Le rythme ful­gu­rant de ces inno­va­tions dépasse notre capa­ci­té col­lec­tive d’anticipation et de régu­la­tion, tou­chant même l’aspect cog­ni­tif de l’être humain. Dans ce contexte d’incertitude civi­li­sa­tion­nelle pro­fonde, il devient essen­tiel de struc­tu­rer et d’évaluer l’éthique des sys­tèmes d’IA, afin d’orienter ces tech­no­lo­gies au ser­vice de l’intérêt humain.

L’Ethics by Design et l’Ethics by Evolution

La socié­té ne dis­pose pas encore de règles uni­ver­selles réel­le­ment éta­blies pour inté­grer les valeurs humaines au cœur des sys­tèmes d’IA. Bien que des ini­tia­tives se mul­ti­plient, comme le règle­ment euro­péen AI Act ren­tré en vigueur le 1er août 2024, visant une IA digne de confiance, l’essor rapide du numé­rique rend urgente la défi­ni­tion d’un socle éthique et sou­ve­rain com­mun. L’objectif est de garan­tir le sens, la sécu­ri­té, la trans­pa­rence, l’éco-responsabilité, et la sou­ve­rai­ne­té des sys­tèmes intel­li­gents afin de ren­for­cer la confiance dans leurs usages.

Dès lors, les concep­teurs d’applications d’IA doivent, dès l’origine, inté­grer les risques, les limites et les impacts socié­taux de leurs sys­tèmes. Deux approches com­plé­men­taires peuvent être dis­tin­guées : l’« IA éthique », qui consiste à inté­grer direc­te­ment des prin­cipes, des méca­nismes de rai­son­ne­ment moral, et des recom­man­da­tions éthiques dans le code afin de rendre la machine capable de déci­sions éthi­que­ment fon­dées ; et l’« IA digne de confiance », qui vise sur­tout à enca­drer et contrô­ler les déci­sions auto­ma­tiques pour en assu­rer la confor­mi­té avec les valeurs collectives.

La pre­mière approche appa­rait plus struc­tu­rante et évo­lu­tive, car elle per­met d’inscrire l’éthique au cœur même de la concep­tion et de l’évolution des sys­tèmes, dans une logique d’Ethics by Desi­gn1 puis d’Ethics by Evo­lu­tion2.

Les notions de « valeurs » et de « prin­cipes » moraux sont com­plexes et dif­fi­ciles à tra­duire direc­te­ment en struc­tures de cal­cul. En revanche, il est plus opé­ra­tion­nel de les décli­ner en normes et règles expli­cites, c’est-à-dire en ins­truc­tions et pré­co­ni­sa­tions concrètes appli­cables dans des contextes défi­nis : c’est ce que l’on peut appe­ler le pro­ces­sus de déco­dage puis d’encodage éthique de l’IA. Dans cette pers­pec­tive, l’éthique doit être inté­grée dès la concep­tion des sys­tèmes, en anti­ci­pant les dilemmes poten­tiels et en tra­dui­sant des prin­cipes par­ta­gés en règles incor­po­rées au code. Compte tenu de l’autonomie déci­sion­nelle et des capa­ci­tés d’apprentissage des IA, cette inté­gra­tion est essen­tielle pour garan­tir la trans­pa­rence, la sécu­ri­té et la res­pon­sa­bi­li­té des tech­no­lo­gies numériques.

L’enjeu consiste à déve­lop­per des algo­rithmes capables d’agir dans des contextes com­por­tant des impli­ca­tions éthiques. Cette ambi­tion fait émer­ger deux grandes caté­go­ries de risques : ceux liés aux défauts de concep­tion et ceux qui découlent des méca­nismes d’apprentissage. Don­ner du sens à l’IA sup­pose alors d’articuler trois dimen­sions com­plé­men­taires : l’orientation et la fina­li­té, qui défi­nissent la stra­té­gie et la gou­ver­nance des sys­tèmes ; la signi­fi­ca­tion, qui rap­pelle que l’IA doit res­ter un outil au ser­vice de la socié­té – favo­ri­sant la com­plé­men­ta­ri­té humain-machine – de l’explicabilité et de l’inclusion ; et enfin l’explication, qui engage une réflexion col­lec­tive sur les fina­li­tés pour­sui­vies et leur légi­ti­mi­té. La mise en œuvre d’un tel cadre éthique demeure tou­te­fois com­plexe et sou­lève des inter­ro­ga­tions incontournables.

Tout l’intérêt d’un mana­ge­ment éthique réside dans le fait d’apporter du sens et des fina­li­tés à l’organisation mise en place (voir tableau 1).

Tableau 1. Déploie­ment stra­té­gique d’une IA au sein d’une structure

Ain­si, il appa­rait déter­mi­nant d’avoir une approche inclu­sive asso­ciant l’ensemble des par­ties pre­nantes dès la phase de concep­tion des sys­tèmes d’IA, afin de garan­tir trans­pa­rence, expli­ca­bi­li­té et clar­té quant à leurs fina­li­tés : c’est le prin­cipe d’Ethics by Desi­gn. Cette démarche doit ensuite se pro­lon­ger tout au long du cycle de vie de l’IA – déploie­ment, usage et évo­lu­tion – en adap­tant conti­nuel­le­ment les cri­tères et indi­ca­teurs éthiques au rythme de l’apprentissage du sys­tème : c’est l’Ethics by Evo­lu­tion.

L’éthique algorithmique

L’éthique appli­quée au numé­rique réside dans l’intention tour­née vers la fina­li­té et le sens d’un sys­tème algo­rith­mique. Elle peut se décli­ner en trois natures d’éthique (voir tableau 2)3 :

  • Éthique des­crip­tive : elle s’applique à la valeur intrin­sèque (de concep­tion). Elle consti­tue une éthique d’application et d’affectation sous forme de la pra­tique avec des moyens, dis­po­si­tifs, voies et pro­cé­dures mis en œuvre ;
  • Éthique nor­ma­tive : elle concerne la valeur de ges­tion (de mise en place). Elle forme une éthique de régu­la­tion d’aspect déon­to­lo­gique via des normes, des codes et des règles mises en place ;
  • Éthique réflexive : elle s’applique à la valeur d’exploitation (d’usage). Elle repré­sente une éthique de légi­ti­ma­tion basée sur le ques­tion­ne­ment des fon­de­ments et des fina­li­tés via des prin­cipes et des valeurs humaines. L’articulation et l’agencement de ces trois familles d’éthique s’appliquent à l’ensemble du cycle de vie d’un sys­tème algo­rith­mique (concep­tion – mise en place – usage) pour ali­men­ter notre Ethics by Evo­lu­tion.
Tableau 2. Struc­tu­ra­tion de l’éthique algorithmique

Une démarche d’inclusion éthique proac­tive, fon­dée sur l’implication des uti­li­sa­teurs et l’interaction conti­nue avec les sys­tèmes d’IA, per­met de ren­for­cer pro­gres­si­ve­ment la confiance, la fia­bi­li­té et la trans­pa­rence des algo­rithmes. Si ces der­niers sont sou­vent accu­sés de dis­cri­mi­na­tion ou de biais, il convient tou­te­fois d’interroger la res­pon­sa­bi­li­té humaine : un algo­rithme reste un outil, façon­né par les don­nées qu’on lui four­nit, les choix de concep­tion et les usages que nous en fai­sons. Les véri­tables risques résident notam­ment dans les biais – cog­ni­tifs, sta­tis­tiques ou éco­no­miques – qui peuvent s’inscrire, impli­ci­te­ment ou expli­ci­te­ment, dans les modèles et les rendre injustes ou mal­veillants. Cette réa­li­té nous oblige à prendre du recul sur nos pra­tiques et à ques­tion­ner le sens de notre tra­jec­toire : construi­sons-nous réel­le­ment une « huma­ni­té digi­tale » à la hau­teur de nos valeurs morales et sociétales ?

Dans ces condi­tions, il devient fon­da­men­tal d’apporter des pré­co­ni­sa­tions spé­ci­fiques rela­tives à l’éthique, l’éco-responsabilité, et la sou­ve­rai­ne­té des sys­tèmes d’IA. On peut don­ner quelques exemples de mesures à mettre en place, comme dans le tableau 3 ci-dessous.

Tableau 3. Recom­man­da­tions asso­ciées à l’éthique, l’éco-responsabilité et la sou­ve­rai­ne­té des sys­tèmes d’IA

Enfin, il appa­rait indis­pen­sable d’accompagner les pro­fes­sion­nels de la Tech vers une démarche de déve­lop­pe­ment res­pon­sable, inté­grant une forme d’intelligence émo­tion­nelle et une conscience accrue des impacts humains de leurs tra­vaux. C’est pré­ci­sé­ment l’ambition d’une approche Ethics by Evo­lu­tion, conçue pour repla­cer l’humain au cœur de la tech­no­lo­gie en éva­luant chaque étape du cycle de vie d’un algo­rithme et en mesu­rant son niveau d’engagement éthique.

Cette approche s’articule en plu­sieurs phases. La pre­mière porte sur l’éthique du contexte : elle inter­roge les fina­li­tés du sys­tème, les condi­tions de sa concep­tion, la nature et la repré­sen­ta­ti­vi­té des don­nées uti­li­sées, ain­si que la sen­si­bi­li­sa­tion des équipes aux risques de biais et aux enjeux socié­taux. La deuxième phase consiste en une éva­lua­tion expé­ri­men­tale du sys­tème, à tra­vers l’analyse des don­nées d’entrée et de sor­tie et la mesure d’indicateurs tels que la fia­bi­li­té, l’interprétabilité, la robus­tesse ou encore l’absence de dis­cri­mi­na­tion. Enfin, une éthique des résul­tats assure un sui­vi conti­nu de l’algorithme dans son usage réel, afin d’anticiper et d’ajuster son comportement.

En défi­ni­tive, si l’IA porte des pro­messes majeures, elle com­porte aus­si des risques qu’il convient d’encadrer pour garan­tir sa confor­mi­té au droit, aux valeurs morales et au bien com­mun. Inté­grer des cri­tères éthiques dès aujourd’hui, mal­gré la com­plexi­té sup­plé­men­taire qu’ils impliquent, est une condi­tion essen­tielle pour ins­tau­rer une véri­table culture de l’éthique numé­rique et assu­rer sécu­ri­té, sens et confiance dans le trai­te­ment des don­nées au sein des orga­ni­sa­tions et des territoires.

1Approche qui intègre des exi­gences et des pré­co­ni­sa­tions éthiques dès la concep­tion des NTIC.
2Approche qui incor­pore des recom­man­da­tions et des règles éthiques, de manière évo­lu­tive dans le temps, tout le long du cycle de vie des NTIC, c’est-à-dire pen­dant sa mise en place, son uti­li­sa­tion évo­lu­tive.
3J. Béran­ger. (2021). La res­pon­sa­bi­li­té socié­tale de l’intelligence arti­fi­cielle. ISTE Edi­tions.

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don à Polytechnique Insights