- Accueil ›
- Thérapeutique ›
- Médicaments ›
- Recherche et innovation ›
- Intelligence artificielle : les craintes qu’elle suscite en médecine
Intelligence artificielle : les craintes qu’elle suscite en médecine
L’émergence de l’intelligence artificielle (IA) dans la recherche médicale et son utilisation dans de nombreux dispositifs médicaux soulèvent un certain nombre de questions et de craintes sur le plan de la bioéthique. Pour éviter les risques et les dérives, un cadre de régulation est en train de se mettre en place.
Le premier risque identifié dans les avis 129 du Comité consultatif national d’éthique (CCNE) et 141 du CCNE et du Comité national pilote d’éthique du numérique (CNPEN) serait de ne pas s’ouvrir à cette nouvelle technologie. « L’intelligence artificielle (IA) va générer des gains considérables en matière de diagnostic, d’interprétation d’images, de compréhension des données de santé, de mise en place de nouveaux outils de thérapie génique… S’y opposer induirait des pertes de chance pour les patients », rappelle David Gruson, cofondateur d’Ethik-IA, qui travaille depuis 2017 sur la régulation positive de cet ensemble de technologies et concepts. Pour Valérie Layet, spécialiste en génétique médicale à l’hôpital du Havre (Seine-Maritime), il n’y aura d’ailleurs pas de retour en arrière : « En génétique, l’IA est aujourd’hui utilisée pour caractériser tous les variants génétiques, avec une capacité à accumuler les données sur le plan international, et à les corréler à une pathologie, dont nous ne pourrions plus nous passer ».
Un risque de délégation
Les avis 129 et 141 identifient deux grands groupes de risques. « Le premier porte sur la délégation à la machine de la décision du médecin et du consentement du patient, explique David Gruson. Lorsqu’une IA propose à un praticien une solution thérapeutique qui repose sur 500 000 cas, avec un taux de recommandations de 99 %, celui-ci aura-t-il encore le recul nécessaire pour pouvoir prendre une décision lui-même ? De la même manière, le patient pourra-t-il, lui aussi, consentir de manière libre et éclairée à la proposition thérapeutique formulée par son médecin ? » « S’il s’avère que la machine est plus efficace que l’homme, il y aura un risque de voir les médecins se conformer à ses décisions, estime Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de Sorbonne Université et membre du CNPEN. Or, il faut que les professionnels de santé conservent leurs compétences et leur responsabilité et que les algorithmes arrivent à s’insérer à l’intérieur d’un parcours de soins car ils ne seront jamais en capacité de prendre en charge en amont et en aval un patient. »
Evoqué par certains, le scénario où la machine remplacerait les médecins, ne convainc pas David Gruson… « En 2019, Ethik-IA avait réalisé une étude pour l’Institut Montaigne consacrée à l’impact de l’IA sur l’emploi en santé, confie-t-il. Notre modèle montrait qu’il pourrait y avoir entre 40 000 et 80 000 emplois potentiellement automatisables, mais uniquement sur des fonctions support au sein des équipes administratives et techniques. Les professionnels médicaux et soignants ont, eux, vocation à utiliser l’IA comme un adjuvant à leurs pratiques, et à connaître un effet de dépassement de fonction ou de repositionnement. » Ce scénario devrait aussi s’appliquer aux pharmaciens. « De plus en plus de solutions se déploient pour les aider à mieux gérer le risque médicamenteux, la pharmacovigilance ou la iatrogénie. Des éléments de robotisation apparaissent pour les accompagner dans la préparation des médicaments ou l’organisation des flux logistiques, rappelle David Gruson. L’IA constituera donc pour eux aussi une vraie opportunité de transformation de leur métier. »
Une prise en charge à deux vitesses
Le deuxième groupe de risques identifiés dans les avis 129 et 141 porte sur les points de tension possibles entre l’intérêt individuel et collectif. « L’IA repose sur des programmes mathématiques et informatiques construits à partir d’algorithmes et de matrices décisionnelles fondées sur des traitements de données qui vont à l’encontre du colloque singulier entre le professionnel de santé et son patient, rappelle David Gruson. Pour émettre leurs recommandations, ces programmes s’appuient en effet sur la loi du plus grand nombre. Cette approche peut paradoxalement permettre de mieux individualiser certains traitements, mais aussi méconnaître certaines situations individuelles, et parfois minorer l’intérêt du patient. » Comme lorsqu’une IA jugera plus rationnel de ne pas proposer une solution thérapeutique coûteuse à une personne âgée en fin de vie, considérant que le budget serait mieux alloué à l’amélioration de la santé du plus grand nombre…
A ces deux groupes de risques principaux viennent se greffer d’autres craintes, comme celle de l’apparition d’une médecine à deux vitesses. « Les populations précaires et vulnérables auront-elles accès à ces nouvelles technologies ? Quid des Etats qui n’auront pas les moyens de se les procurer ? », s’interroge Valérie Layet. « Les solutions d’IA peuvent aussi induire un risque d’intrusion dans la vie privée, ajoute Jean-Gabriel Ganascia. Pour les personnes atteintes de l’apnée du sommeil à qui l’on a prescrit un respirateur, ces appareils peuvent se révéler très intrusifs car ils permettent aux assurances sociales de savoir à quelle heure se couche ou se réveille la personne… »
La garantie humaine, indispensable
Afin de réguler tous ces risques, l’article 17 de la loi du 2 août 2021 relative à la bioéthique s’appuie sur le principe de garantie humaine. « Cet article impose aux professionnels de santé un devoir d’information des patients dès lors qu’ils utilisent pour un acte de prévention, de diagnostic ou de soin, un dispositif médical d’IA, explique David Gruson. Les professionnels médicaux et soignants doivent, eux aussi, être informés du recours à un traitement de données et pouvoir accéder aux données de leurs patients, ainsi qu’aux résultats obtenus grâce aux algorithmes. Enfin, ce principe s’applique aux éditeurs de solutions d’IA dans la phase de conception et dans l’application en vie réelle. » Cette notion de garantie humaine constituera également le socle du règlement européen sur l’IA qui devrait être prochainement adopté, pour une entrée en vigueur prévue en 2025. Ce texte ne sera pas spécifique à la santé. Il s’appliquera à tous les systèmes d’IA et sera opposable puisqu’il est assorti d’une sanction financière équivalente à celle du RGPD. « Autrement dit, l’absence de garantie humaine se traduirait pour les concepteurs ou les utilisateurs des systèmes d’IA par une amende pouvant aller jusqu’à 4 % du chiffre d’affaires mondial », précise David Gruson.
Pour aider les éditeurs et les utilisateurs à s’emparer de ce sujet, Ethik-IA a lancé, avec le Digital Medical Hub, un label européen de conformité en garantie humaine de l’IA en santé. Un premier pilote européen de déploiement en pharmacie a été présenté en décembre dernier avec la solution PharmaClass de Keenturtle qui est déjà déployée dans sept centres hospitaliers universitaires et une quarantaine d’hôpitaux en France, en Suisse et en Belgique. « Notre logiciel utilise l’IA pour récupérer et croiser les données des flux de médicaments et de prescription, avec les flux biologiques, constantes et diagnostics, ainsi que les éléments d’identité et de mouvements des patients, explique François Versini, fondateur de Keenturtle. En quelques clics, il est capable d’identifier les principaux risques médicamenteux pour l’ensemble des patients de l’hôpital. »
Pour assurer la supervision de la garantie humaine de son programme, Keenturtle a constitué un collège composé de trois pharmaciens hospitaliers utilisateurs, de trois experts non-utilisateurs et d’un représentant de l’Association européenne des pharmaciens hospitaliers (EHAP). Ses membres se réunissent trois fois par an pour analyser l’utilisation du logiciel par les trois hôpitaux qui participent au collège, et vérifier la qualité scientifique et l’efficience des résultats obtenus. Depuis le lancement en novembre dernier, François Versini mesure déjà les bénéfices du dispositif. « Ce principe de garantie humaine nous a aidés à préciser ce qui devait être constitué pour permettre une évaluation fiable et utile du point de vue éthique et scientifique du nombre de complications médicamenteuses évitées, et de vies sauvées », assure le fondateur de Keenturtle. PharmaClass s’apprête d’ailleurs à investir le territoire ville-hôpital. « Keenturtle expérimente sa plateforme en relation avec une agence régionale de santé, un groupement régional d’appui au développement de l’e-santé et un groupement hospitalier de territoire, afin d’étendre la collecte de data, confie François Versini. Le premier cas d’usage porte sur un suivi posthospitalisation. La solution dirige le résultat des algorithmes vers le pharmacien ou le médecin de ville ou d’hôpital, selon les protocoles souhaités par l’écosystème. »
Une phase de normalisation
Pour asseoir son label, Ethik-IA a enfin engagé une démarche auprès de l’Association française de normalisation (Afnor). « Nous sommes en train de finaliser la phase de rédaction de la norme qui fixera les grands principes de la garantie humaine, en s’appuyant sur l’aspect collégial de la supervision souhaité par l’Organisation mondiale de la santé (OMS) et le CCNE, confie Hélène Marin, directrice exécutive d’Ethik-IA, qui pilote ce projet. Grâce à cette norme, les éditeurs et les utilisateurs sauront dans quel cadre ils pourront la déployer, avec une méthodologie qui leur permettra aussi d’améliorer leur solution au fil de l’eau via une démarche ayant pour objectif d’assurer la meilleure prise en charge possible du patient ». Le texte de la norme devait être publié à l’automne. « Nous pourrons ensuite commencer à préparer la prochaine étape : la normalisation à l’échelle européenne », conclut Hélène Marin.
- Analogues du GLP-1 : un document à remplir par le prescripteur
- Eylea 114,3 mg/ml : un nouveau dosage en 5 points clés
- Substitution par un biosimilaire : possible pour tout médicament biologique, sauf exceptions
- Mésusage des antalgiques opioïdes : l’échelle Pomi
- Nomanesit : nouvel antimigraineux en 5 points clés
- Lomatuell Pro, pansement interface gélifiant
- Politique vaccinale : des propositions académiques
- Aides, formation, chômage : ce qui change en 2025
- 290 pharmacies ont fermé en 2024 : les inégalités territoriales se creusent
- Déremboursement des tests antigéniques : les syndicats réclament une prise en charge au moins pour les plus fragiles