Accueil / Chroniques / Quelle éthique pour l’IA dans le médical
Enhancing medical cybersecurity with generative ai for data safety in healthcare and life insurance
π Santé et biotech π Science et technologies

Quelle éthique pour l’IA dans le médical

Damien Lacroux
Damien Lacroux
philosophe des sciences et chercheur à la chaire UNESCO sur l’éthique du vivant et de l’artificiel
En bref
  • L’intelligence artificielle s’intègre progressivement à la médecine prédictive et personnalisée ou dans l’aide à la décision thérapeutique par le corps médical.
  • Le projet MIRACLE a pour objectif d’identifier les risques de récidives des patients touchés par un cancer du poumon, grâce à un algorithme d’aide à la décision médicale.
  • Pour cela, l’algorithme est alimenté avec les multiples données de patients ; plus les données sont nombreuses, plus les marges d’erreur de l’algorithme diminuent.
  • Mais plus l’IA est performante, plus son fonctionnement s’opacifie pour les praticiens, qui n’ont pas les moyens de comprendre quelles données ont mené à la probabilité de récidive proposée par l’IA.
  • L’IA pose donc des questionnements éthiques de transparence à la médecine, où la crainte principale des patients reste que la machine impose un diagnostic sans intervention humaine.

L’intelligence arti­fi­cielle pour détec­ter le can­cer du sein1 ou de la pros­tate2, des algo­rithmes cal­cu­lant notre âge phy­sio­lo­gique pour pré­dire le vieillis­se­ment3 ou encore des agents conver­sa­tion­nels au che­vet de notre san­té men­tale4… Les outils d’intelligence arti­fi­cielle s’installent pro­gres­si­ve­ment dans la pra­tique médi­cale. En ligne de mire, la méde­cine pré­dic­tive et per­son­na­li­sée, mais aus­si l’aide à la déci­sion thé­ra­peu­tique par le corps médi­cal. Mais com­ment cette rela­tion entre méde­cins et IA est-elle per­çue par les patients ? Com­ment les pra­ti­ciens inter­agissent-ils vrai­ment avec la technologie ?

C’est la ques­tion que s’est posée Damien Lacroux, phi­lo­sophe des sciences et cher­cheur à la chaire UNESCO sur l’éthique du vivant et de l’artificiel. « Lors de mes entre­tiens, j’ai remar­qué que les patients fan­tasment une rela­tion du méde­cin et de l’IA par­ti­cu­lière », explique le cher­cheur, spé­cia­li­sé dans l’intégration des algo­rithmes en can­cé­ro­lo­gie. « On a ten­dance à ima­gi­ner que les onco­logues déli­bèrent sur notre cas entre spé­cia­listes humains avant de prendre une déci­sion, et que la tech­no­lo­gie inter­vient dans un second temps pour vali­der la déli­bé­ra­tion », détaille-t-il. Mais s’agit-il de la réalité ?

L’IA pour prévenir des risques de récidive du cancer du poumon

Pour le savoir, Damien Lacroux a échan­gé avec les scien­ti­fiques du pro­jet MIRACLE5. Cette étude euro­péenne au nom ambi­tieux a été lan­cée en 2021 et regroupe des labo­ra­toires ita­liens, espa­gnols, alle­mands et fran­çais. L’objectif : iden­ti­fier les risques de réci­dives des patients tou­chés par un can­cer du pou­mon, grâce à un algo­rithme d’aide à la déci­sion médi­cale. Les cher­cheurs entraînent pour cela une IA (machine lear­ning) de manière super­vi­sée. L’algorithme est « nour­ri » avec les don­nées d’une cohorte de patients dont l’existence ou non de réci­dives est connue. Les datas ingur­gi­tées sont de trois types : les don­nées cli­ni­co-patho­lo­giques (comme le sexe du patient, l’histoire de sa mala­die ou les trai­te­ments qu’il a pu suivre) ; les don­nées d’imagerie médi­cale, et enfin des don­nées omiques, c’est-à-dire une masse d’informations rele­vant de la bio­lo­gie molé­cu­laire (étude des ADN et ARN tumoraux).

À par­tir d’une cohorte de 220 patients, les scien­ti­fiques ali­mentent l’al­go­rithme avec l’en­semble des don­nées col­lec­tées, ain­si qu’avec des infor­ma­tions sur la sur­ve­nue ou non d’une réci­dive et le délai avant celle-ci. « Ensuite, on laisse l’algorithme mou­li­ner ! Cela repré­sente une quan­ti­té de don­nées inima­gi­nable, impos­sible à trai­ter par l’humain seul », explique Damien Lacroux.  « Aujourd’hui le pro­jet a pris du retard et on finit à peine de récol­ter les don­nées de la pre­mière cohorte. Il reste donc à com­men­cer à entraî­ner l’algorithme avec ces don­nées, puis à recru­ter une seconde cohorte pour vali­der son entraî­ne­ment. » Il fau­dra donc attendre encore un peu avant de voir le pro­jet MIRACLE en action.

L’IA : une boîte noire pour la décision médicale

Mais ce fonc­tion­ne­ment pose d’emblée une ques­tion éthique, rele­vée par les cher­cheurs inter­ro­gés par Damien Lacroux. « Les bio-infor­ma­ti­ciens par­viennent, au début de l’entraînement, à décou­per les jeux de don­nées et à asso­cier les résul­tats de l’IA à tel ou tel fac­teur d’entrée. Mais pro­gres­si­ve­ment, les datas aug­mentent et cela devient une boîte noire ! » En effet, ce volume crois­sant de don­nées com­plexi­fie les modèles uti­li­sés pour affi­ner les pré­dic­tions. Et là naît le para­doxe : plus la quan­ti­té de don­nées croît, plus les marges d’erreurs de l’algorithme dimi­nuent. L’IA est alors plus per­for­mante, mais son fonc­tion­ne­ment s’opacifie pour les pra­ti­ciens. Com­ment peuvent-ils alors expli­quer aux patients les déci­sions issues de l’IA ou en garan­tir l’absence de biais, si eux-mêmes ne maî­trisent pas ses rouages internes ?

Dans le domaine de l’oncologie, des arbres de déci­sion sont sou­vent uti­li­sés pour aider les méde­cins à jus­ti­fier leur rai­son­ne­ment cli­nique. Cepen­dant, l’intégration de scores algo­rith­miques dans ces pro­ces­sus peut entrer en conflit avec le besoin de trans­pa­rence des méde­cins, qui peinent par­fois à com­prendre quelles don­nées d’entrée ont conduit l’IA à esti­mer la pro­ba­bi­li­té de récidive.

« Même si l’on par­ve­nait à décryp­ter chaque cal­cul interne de l’al­go­rithme, le résul­tat serait mathé­ma­ti­que­ment si com­plexe que les méde­cins ne pour­raient pas l’interpréter ni l’exploiter dans leur pra­tique cli­nique », détaille un bio-infor­ma­ti­cien alle­mand du pro­jet MIRACLE, inter­ro­gé6 par Damien Lacroux dans son étude à paraître.

Cela joue éga­le­ment sur la notion de consen­te­ment éclai­ré du patient. « Le méde­cin est tenu de four­nir suf­fi­sam­ment d’élé­ments pour que le malade puisse accep­ter ou non un trai­te­ment. Seule­ment, si le pra­ti­cien lui-même n’est pas véri­ta­ble­ment éclai­ré, cela pose un pro­blème éthique », ajoute le phi­lo­sophe. Pour­tant, Damien Lacroux le rap­pelle dans son étude : « La prise en compte des mil­liers de don­nées omiques des patients a été iden­ti­fiée par la bio­lo­gie molé­cu­laire comme un moyen indis­pen­sable pour pro­gres­ser en onco­lo­gie. » L’IA per­met­trait donc une meilleure prise en charge de l’évolution poten­tielle de la mala­die en affi­nant notam­ment les trai­te­ments pro­po­sées… aux dépens de la confiance entre méde­cins et patients.

L’importance de l’humain aux commandes

Que l’IA soit inté­grée à la déli­bé­ra­tion médi­cale (ce que Damien Lacroux nomme dans son article la « déli­bé­ra­tion ana­ly­tique ») ou qu’elle soit tota­le­ment exté­rieure à la déci­sion et n’intervienne que comme une consul­ta­tion finale (« déli­bé­ra­tion syn­thé­tique »), sa place doit être entiè­re­ment trans­pa­rente auprès des soi­gnés. La crainte prin­ci­pale rele­vée par le cher­cheur lors d’entretiens de groupe avec des patients7 reste que « la machine » impose un diag­nos­tic sans inter­ven­tion humaine. « Or, aujourd’hui, ce n’est pas du tout le cas », ras­sure Damien Lacroux.

Ces scores algo­rith­miques, qui pro­posent une pro­ba­bi­li­té de réci­dive d’un can­cer selon les don­nées du patient, mettent éga­le­ment sur la table d’autres ques­tions propres à la méde­cine pré­dic­tive : à par­tir de quand sommes-nous réel­le­ment gué­ris ?  Peut-on réel­le­ment se libé­rer de la mala­die lorsque l’incertitude per­siste et que l’on vit dans l’anticipation constante d’une éven­tuelle réci­dive ? Ces ques­tions, comme tant d’autres, res­tent encore à élucider.

Sophie Podevin

1Article de l’Institut Curie de décembre 2022 (https://​curie​.fr/​a​c​t​u​a​l​i​t​e​/​p​u​b​l​i​c​a​t​i​o​n​/​d​i​a​g​n​o​s​t​i​c​-​d​u​-​c​a​n​c​e​r​-​d​u​-​s​e​i​n​-​l​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​d​i​b​e​x​-​b​i​e​n​t​o​t​-​r​e​alite)
2Article de l’Institut Curie de novembre 2024 (https://​curie​.fr/​a​c​t​u​a​l​i​t​e​/​r​e​c​h​e​r​c​h​e​/​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​l​i​n​s​t​i​t​u​t​-​c​u​r​i​e​-​i​m​p​l​e​m​e​n​t​e​-​l​e​s​-​o​u​t​i​l​s​-​d​i​b​e​x​-​m​e​dical )
3Com­mu­ni­quer de presse Inserm de juin 2023 (https://​presse​.inserm​.fr/​u​n​e​-​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​p​o​u​r​-​p​r​e​d​i​r​e​-​l​e​-​v​i​e​i​l​l​i​s​s​e​m​e​n​t​/​6​7138/)
4Article de décembre 2024 sur Info.gouv pre­nant comme exemple l’application Kano­pee (https://​www​.info​.gouv​.fr/​a​c​t​u​a​l​i​t​e​/​l​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​a​u​-​s​e​r​v​i​c​e​-​d​e​-​l​a​-​s​a​n​t​e​-​m​e​ntale )
5Le code du pro­jet  ERP-2021–23680708 – ERP-2021-ERAPERMED2021-MIRACLE.
6Entre­tien de février 2024 : bio-infor­ma­ti­ciens du pro­jet MIRACLE, Cen­ter for Sca­lable Data Ana­ly­tics and Arti­fi­cial Intel­li­gence (ScaDS. AI), Alle­magne, Leip­zig.
7Ces entre­tiens ont été menés avec des asso­cia­tions de patients, exté­rieures au pro­jet MIRACLE

👋 Nous avons besoin de votre avis ! Prenez quelques minutes pour répondre à notre enquête de lectorat

Je participe à l'enquête