EXPERTISE
AUTOUR DU MEDICAMENT
Auteur(s) :
Par Yves Rivoal
Lancé en novembre dernier, l’agent conversationnel ChatGPT n’en finit plus de faire le buzz. Comment fonctionne ce chatbot ? Comment pourrait-il être utilisé par les professionnels de santé ? Remplacera-t-il un jour les médecins et les pharmaciens ? Eléments de réponses.
ChatGPT écrit des poèmes. ChatGPT publie des articles dans la presse. ChatGPT vous concocte des recettes de cuisine… Depuis son lancement, on ne parle que de lui, ou presque. « Ce modèle d’intelligence artificielle (IA), conçu par OpenAI et financé en grande partie par Microsoft, s’appuie sur une architecture de réseaux de neurones appelés generative pre-trained transformer (GPT) pour répondre à toutes les questions ou presque, rappelle Pierre Nectoux, cofondateur de Wefight, une start-up qui a développé VIK, un chatbot1 spécialisé dans le suivi et l’accompagnement des patients chroniques. Pour ce faire, le modèle, couplé à un agent conversationnel, fait appel à des techniques d’apprentissage profond et de traitement du langage naturel (NLP) pour comprendre les questions et générer de manière fluide des réponses parfaites sur le plan grammatical. » Réponses qui sont le fruit d’un entraînement sur des millions de livres et d’articles de presse, ainsi que sur des milliards de pages web et de discussions en ligne.
Pierre Nectoux a testé ChatGPT. « Force est de constater qu’il se trompe assez rarement, reconnaît cet expert en IA. Je lui ai posé un tas de questions en lui demandant de me fournir la liste des symptômes associés à des pathologies ou des explications sur les effets secondaires attendus par rapport à certains traitements. Je n’ai jamais réussi à le mettre en défaut. » Lorsque nous lui avons demandé si l’on pouvait prendre en même temps la carbamazépine et le paclitaxel, le modèle nous a répondu : « La carbamazépine peut réduire les concentrations plasmatiques de paclitaxel, ce qui peut réduire l’efficacité du traitement », et nous a invités à en parler à un médecin ou à un pharmacien avant de les utiliser ensemble.
Dans l’univers de la santé, ChatGPT a par exemple passé avec succès l’examen que les étudiants en médecine doivent réussir pour être autorisés à exercer aux Etats-Unis. Il a cosigné des articles dans des revues scientifiques comme MedRxiv ou Oncoscience. Lorsqu’on lui demande d’évoquer des cas d’usage qui pourraient se développer chez les médecins, Olivier Duris, un psychologue spécialisé dans l’utilisation des écrans et du numérique, avance plusieurs pistes, comme employer ses capacités pour « trouver une information que l’on a l’habitude d’aller chercher dans les livres ou sur Internet, ou, en tant que psychologue, pour me rappeler un concept théorique ou le nom d’un div. » « A l’officine, les pharmaciens pourraient s’en servir afin d’améliorer encore un peu plus leurs process logistiques de commandes et de livraisons, ou pour rendre le passage des patients plus simple et efficace avec des rappels de renouvellement d’ordonnance ou une aide à la prise de rendez-vous », estime David Gruson, directeur du programme santé de Luminess et cofondateur d’Ethik-IA. Fondatrice de la société de conseil La Pharmacie digitale, Hélène Decourteix entrevoit, elle, d’autres perspectives. « ChatGPT sera peut-être sollicité demain pour du coaching nutritionnel ou pour produire le contenu du site internet ou des réseaux sociaux de la pharmacie. Chose que font déjà de nombreuses agences digitales », assure la consultante.
Côté patients, les usages sont déjà identifiés. « Comme ils le font sur Google ou Doctissimo, les patients pourraient aller sur ChatGPT afin d’obtenir des informations sur la maladie qu’on vient de leur diagnostiquer ou le traitement qu’on leur a prescrit. Le risque étant de basculer vers de l’autodiagnostic en se fondant sur des contenus qui peuvent paraître vrais, mais qui n’ont pas été validés sur le plan scientifique », rappelle Olivier Duris en mettant le doigt sur la principale limite de ChatGPT. « Personne ne sait effectivement comment le modèle construit ses réponses, à partir de quelles sources, ni si les informations ont été validées par un professionnel de santé », souligne Thomas Gouritin, cofondateur d’Asispo, une start-up qui édite un assistant de santé intelligent pour le suivi postopératoire. « Par le passé, Tay, l’IA conversationnelle de Microsoft sur Twitter, s’était distinguée en multipliant les propos racistes et sexistes dans ses réponses. ChatGPT dispose toutefois de meilleurs garde-fous à ce type de dérives, mais il a aussi ses limites, ajoute Hélène Decourteix. Comme il fonctionne avec des bases de données arrêtées en 2021, il est incapable d’apporter une réponse lorsque vous lui posez une question sur un sujet d’actualité plus récent. Contrairement à ce que l’on pourrait penser, ChatGPT n’a donc pas réponse à tout… »
David Gruson ne croit donc pas à un grand remplacement des médecins ou des pharmaciens par des agents conversationnels nourris à l’IA. « Nous aurons toujours besoin de professionnels de santé pour interagir en direct avec les patients, établir un diagnostic et délivrer un traitement, avance le cofondateur d’Ethik-IA. L’article 17 de la loi de bioéthique consacre d’ailleurs le principe de garantie humaine qui implique d’établir des points de supervision humaine tout au long de l’évolution d’une IA. Il impose aux professionnels de santé de prévenir les patients lorsqu’ils utilisent un dispositif médical impliquant un traitement de données algorithmiques dans le cadre d’un acte de prévention, de diagnostic ou de soins. Les concepteurs du traitement devant par ailleurs être en capacité d’expliquer le fonctionnement de leur algorithme. » Koko, une start-up américaine, a appris à ses dépens qu’il valait mieux ne pas franchir la ligne rouge après avoir utilisé ChatGPT pour délivrer des conseils sur sa plateforme en ligne spécialisée dans la santé mentale. Comme les patients n’étaient pas informés qu’ils échangeaient en réalité avec un chatbot, l’affaire a provoqué un tollé. Pour Olivier Duris, cette expérimentation constitue une hérésie. « Une IA ne pourra jamais remplacer un psychologue car un robot ne sera jamais capable d’identifier et d’interpréter un sentiment, une émotion, un trait d’humour… Il faut donc prendre ChatGPT pour ce qu’il est : un outil capable de simuler une conversation, rien de plus. »
Pierre Nectoux se montre, lui, moins affirmatif. « Aujourd’hui, ChatGPT n’est pas conçu pour apporter des réponses validées sur le plan scientifique, reconnaît-il. Mais un acteur comme Google, avec son chatbot Bard, aspire à générer des contenus avec un taux de confiance suffisamment élevé, qui pourrait ouvrir la voie à de nouveaux usages. On peut, par exemple, tout à fait imaginer qu’un chatbot sera capable un jour d’établir de manière autonome un diagnostic et de prescrire des médicaments que le patient commandera et se fera livrer à domicile en un clic. Mais avant d’en arriver là, la recherche devra encore beaucoup progresser. Je ne crois pas non plus à un scénario où le diagnostic et la thérapeutique seront gérés à 100 % par l’IA. Cette dernière aura toujours pour objectif d’augmenter le potentiel des pharmaciens et des médecins grâce à ces outils. »
Le jour où l’IA sera capable de poser un diagnostic et de prendre des décisions seule se posera une question cruciale : « Qui sera responsable en cas d’erreur : le concepteur de l’algorithme ou le médecin qui suit le patient ?, s’interroge Thomas Gouritin en relevant un autre risque : le fait que les Gafam2 comme Microsoft, Google ou encore Meta développent ce genre d’outils n’est pas anodin. En essayant d’imposer comme standard leurs modèles “fondation” qui sont avant tout statistiques, plutôt que d’autres techniques d’IA fondées sur des moteurs de lexique, de syntaxe et de règles, se cache une lutte de pouvoir. Faut-il laisser ces géants de la tech concentrer encore plus de pouvoirs qu’ils n’en ont déjà en imposant cette vision du monde ? Je ne pense pas que ce soit souhaitable, et il est important de se poser ces questions. »
Etes-vous tenté de faire appel à un prestataire de livraison de médicaments à domicile ?
1Healthformation propose un catalogue de formations en e-learning sur une quinzaine de thématiques liées à la pratique officinale. Certains modules permettent de valider l'obligation de DPC.
Vous avez des questions ?
Des experts vous répondent !