Accueil / Chroniques / Quelle éthique pour l’IA dans le médical
Enhancing medical cybersecurity with generative ai for data safety in healthcare and life insurance
π Santé et biotech π Science et technologies

Quelle éthique pour l’IA dans le médical

Damien Lacroux
Damien Lacroux
philosophe des sciences et chercheur à la chaire UNESCO sur l’éthique du vivant et de l’artificiel
En bref
  • L’intelligence artificielle s’intègre progressivement à la médecine prédictive et personnalisée ou dans l’aide à la décision thérapeutique par le corps médical.
  • Le projet MIRACLE a pour objectif d’identifier les risques de récidives des patients touchés par un cancer du poumon, grâce à un algorithme d’aide à la décision médicale.
  • Pour cela, l’algorithme est alimenté avec les multiples données de patients ; plus les données sont nombreuses, plus les marges d’erreur de l’algorithme diminuent.
  • Mais plus l’IA est performante, plus son fonctionnement s’opacifie pour les praticiens, qui n’ont pas les moyens de comprendre quelles données ont mené à la probabilité de récidive proposée par l’IA.
  • L’IA pose donc des questionnements éthiques de transparence à la médecine, où la crainte principale des patients reste que la machine impose un diagnostic sans intervention humaine.

L’intelligence arti­fi­cielle pour détecter le can­cer du sein1 ou de la prostate2, des algo­rithmes cal­cu­lant notre âge phys­i­ologique pour prédire le vieil­lisse­ment3 ou encore des agents con­ver­sa­tion­nels au chevet de notre san­té men­tale4… Les out­ils d’intelligence arti­fi­cielle s’installent pro­gres­sive­ment dans la pra­tique médi­cale. En ligne de mire, la médecine pré­dic­tive et per­son­nal­isée, mais aus­si l’aide à la déci­sion thérapeu­tique par le corps médi­cal. Mais com­ment cette rela­tion entre médecins et IA est-elle perçue par les patients ? Com­ment les prati­ciens inter­agis­sent-ils vrai­ment avec la technologie ?

C’est la ques­tion que s’est posée Damien Lacroux, philosophe des sci­ences et chercheur à la chaire UNESCO sur l’éthique du vivant et de l’artificiel. « Lors de mes entre­tiens, j’ai remar­qué que les patients fan­tas­ment une rela­tion du médecin et de l’IA par­ti­c­ulière », explique le chercheur, spé­cial­isé dans l’intégration des algo­rithmes en can­cérolo­gie. « On a ten­dance à imag­in­er que les onco­logues délibèrent sur notre cas entre spé­cial­istes humains avant de pren­dre une déci­sion, et que la tech­nolo­gie inter­vient dans un sec­ond temps pour valid­er la délibéra­tion », détaille-t-il. Mais s’agit-il de la réalité ?

L’IA pour prévenir des risques de récidive du cancer du poumon

Pour le savoir, Damien Lacroux a échangé avec les sci­en­tifiques du pro­jet MIRACLE5. Cette étude européenne au nom ambitieux a été lancée en 2021 et regroupe des lab­o­ra­toires ital­iens, espag­nols, alle­mands et français. L’objectif : iden­ti­fi­er les risques de récidives des patients touchés par un can­cer du poumon, grâce à un algo­rithme d’aide à la déci­sion médi­cale. Les chercheurs entraî­nent pour cela une IA (machine learn­ing) de manière super­visée. L’algorithme est « nour­ri » avec les don­nées d’une cohorte de patients dont l’existence ou non de récidives est con­nue. Les datas ingur­gitées sont de trois types : les don­nées clin­i­co-pathologiques (comme le sexe du patient, l’histoire de sa mal­adie ou les traite­ments qu’il a pu suiv­re) ; les don­nées d’imagerie médi­cale, et enfin des don­nées omiques, c’est-à-dire une masse d’informations rel­e­vant de la biolo­gie molécu­laire (étude des ADN et ARN tumoraux).

À par­tir d’une cohorte de 220 patients, les sci­en­tifiques ali­mentent l’al­go­rithme avec l’ensem­ble des don­nées col­lec­tées, ain­si qu’avec des infor­ma­tions sur la sur­v­enue ou non d’une récidive et le délai avant celle-ci. « Ensuite, on laisse l’algorithme moulin­er ! Cela représente une quan­tité de don­nées inimag­in­able, impos­si­ble à traiter par l’humain seul », explique Damien Lacroux.  « Aujourd’hui le pro­jet a pris du retard et on finit à peine de récolter les don­nées de la pre­mière cohorte. Il reste donc à com­mencer à entraîn­er l’algorithme avec ces don­nées, puis à recruter une sec­onde cohorte pour valid­er son entraîne­ment. » Il fau­dra donc atten­dre encore un peu avant de voir le pro­jet MIRACLE en action.

L’IA : une boîte noire pour la décision médicale

Mais ce fonc­tion­nement pose d’emblée une ques­tion éthique, relevée par les chercheurs inter­rogés par Damien Lacroux. « Les bio-infor­mati­ciens parvi­en­nent, au début de l’entraînement, à découper les jeux de don­nées et à associ­er les résul­tats de l’IA à tel ou tel fac­teur d’entrée. Mais pro­gres­sive­ment, les datas aug­mentent et cela devient une boîte noire ! » En effet, ce vol­ume crois­sant de don­nées com­plex­i­fie les mod­èles util­isés pour affin­er les pré­dic­tions. Et là naît le para­doxe : plus la quan­tité de don­nées croît, plus les marges d’erreurs de l’algorithme dimin­u­ent. L’IA est alors plus per­for­mante, mais son fonc­tion­nement s’opacifie pour les prati­ciens. Com­ment peu­vent-ils alors expli­quer aux patients les déci­sions issues de l’IA ou en garan­tir l’absence de biais, si eux-mêmes ne maîtrisent pas ses rouages internes ?

Dans le domaine de l’oncologie, des arbres de déci­sion sont sou­vent util­isés pour aider les médecins à jus­ti­fi­er leur raison­nement clin­ique. Cepen­dant, l’intégration de scores algo­rith­miques dans ces proces­sus peut entr­er en con­flit avec le besoin de trans­parence des médecins, qui peinent par­fois à com­pren­dre quelles don­nées d’entrée ont con­duit l’IA à estimer la prob­a­bil­ité de récidive.

« Même si l’on par­ve­nait à décrypter chaque cal­cul interne de l’al­go­rithme, le résul­tat serait math­é­ma­tique­ment si com­plexe que les médecins ne pour­raient pas l’interpréter ni l’exploiter dans leur pra­tique clin­ique », détaille un bio-infor­mati­cien alle­mand du pro­jet MIRACLE, inter­rogé6 par Damien Lacroux dans son étude à paraître.

Cela joue égale­ment sur la notion de con­sen­te­ment éclairé du patient. « Le médecin est tenu de fournir suff­isam­ment d’élé­ments pour que le malade puisse accepter ou non un traite­ment. Seule­ment, si le prati­cien lui-même n’est pas véri­ta­ble­ment éclairé, cela pose un prob­lème éthique », ajoute le philosophe. Pour­tant, Damien Lacroux le rap­pelle dans son étude : « La prise en compte des mil­liers de don­nées omiques des patients a été iden­ti­fiée par la biolo­gie molécu­laire comme un moyen indis­pens­able pour pro­gress­er en oncolo­gie. » L’IA per­me­t­trait donc une meilleure prise en charge de l’évolution poten­tielle de la mal­adie en affi­nant notam­ment les traite­ments pro­posées… aux dépens de la con­fi­ance entre médecins et patients.

L’importance de l’humain aux commandes

Que l’IA soit inté­grée à la délibéra­tion médi­cale (ce que Damien Lacroux nomme dans son arti­cle la « délibéra­tion ana­ly­tique ») ou qu’elle soit totale­ment extérieure à la déci­sion et n’intervienne que comme une con­sul­ta­tion finale (« délibéra­tion syn­thé­tique »), sa place doit être entière­ment trans­par­ente auprès des soignés. La crainte prin­ci­pale relevée par le chercheur lors d’entretiens de groupe avec des patients7 reste que « la machine » impose un diag­nos­tic sans inter­ven­tion humaine. « Or, aujourd’hui, ce n’est pas du tout le cas », ras­sure Damien Lacroux.

Ces scores algo­rith­miques, qui pro­posent une prob­a­bil­ité de récidive d’un can­cer selon les don­nées du patient, met­tent égale­ment sur la table d’autres ques­tions pro­pres à la médecine pré­dic­tive : à par­tir de quand sommes-nous réelle­ment guéris ?  Peut-on réelle­ment se libér­er de la mal­adie lorsque l’incertitude per­siste et que l’on vit dans l’anticipation con­stante d’une éventuelle récidive ? Ces ques­tions, comme tant d’autres, restent encore à élucider.

Sophie Podevin

1Arti­cle de l’Institut Curie de décem­bre 2022 (https://​curie​.fr/​a​c​t​u​a​l​i​t​e​/​p​u​b​l​i​c​a​t​i​o​n​/​d​i​a​g​n​o​s​t​i​c​-​d​u​-​c​a​n​c​e​r​-​d​u​-​s​e​i​n​-​l​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​d​i​b​e​x​-​b​i​e​n​t​o​t​-​r​e​alite)
2Arti­cle de l’Institut Curie de novem­bre 2024 (https://​curie​.fr/​a​c​t​u​a​l​i​t​e​/​r​e​c​h​e​r​c​h​e​/​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​l​i​n​s​t​i​t​u​t​-​c​u​r​i​e​-​i​m​p​l​e​m​e​n​t​e​-​l​e​s​-​o​u​t​i​l​s​-​d​i​b​e​x​-​m​e​dical )
3Com­mu­ni­quer de presse Inserm de juin 2023 (https://​presse​.inserm​.fr/​u​n​e​-​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​p​o​u​r​-​p​r​e​d​i​r​e​-​l​e​-​v​i​e​i​l​l​i​s​s​e​m​e​n​t​/​6​7138/)
4Arti­cle de décem­bre 2024 sur Info.gouv prenant comme exem­ple l’application Kanopee (https://​www​.info​.gouv​.fr/​a​c​t​u​a​l​i​t​e​/​l​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​a​u​-​s​e​r​v​i​c​e​-​d​e​-​l​a​-​s​a​n​t​e​-​m​e​ntale )
5Le code du pro­jet  ERP-2021–23680708 – ERP-2021-ERAPERMED2021-MIRACLE.
6Entre­tien de févri­er 2024 : bio-infor­mati­ciens du pro­jet MIRACLE, Cen­ter for Scal­able Data Ana­lyt­ics and Arti­fi­cial Intel­li­gence (ScaDS. AI), Alle­magne, Leipzig.
7Ces entre­tiens ont été menés avec des asso­ci­a­tions de patients, extérieures au pro­jet MIRACLE

Pour aller plus loin

1_inspirationVivante
π Santé et biotech π Science et technologies π Société π Planète

S’inspirer du vivant, une méthode autant qu’une philosophie

Avec Kalina Raskin, 

ingénieure physico-chimiste, docteur en neurosciences de Sorbonne Université et directrice générale de Ceebios (Centre d’études et d’expertises en biomimétisme)

nursing home
π Santé et biotech π Société

Covid-19 : une mortalité plus élevée qu’il n’y paraît

Par Nicolas Chopin, 

professeur de data science et machine learning ENSAE au Centre de recherche en économie et statistique*

Toxic plastic waste floating underwater in the ocean
π Santé et biotech π Planète

« La pollution de la mer par les microplastiques aggrave la résistance aux antibiotiques »

Par Maria Belen Sathicq, 

chercheuse à l'Institut de recherche sur l'eau du Conseil national italien de la recherche (CNR) financé par AXA Research Fund

#
π Santé et biotech π Numérique

La baisse de vue détectée par des algorithmes

Avec Maëlle Vilbert, 

doctorante en physique au LOB* (IP Paris) et au Centre Hospitalier National d’Opthalmologie des Quinze-Vingts

Digital Euphoria: AI in a Virtual Dreamscape
π Santé et biotech π Neurosciences

Comment le LSD et la MDMA soignent-ils les troubles psychiatriques ?

Avec Daniele Zullino, 

chef du service d’addictologie du département de santé mentale et psychiatrie des Hôpitaux Universitaires de Genève

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir notre newsletter