Dans une récente expérience publiée dans JAMAdes médecins-chercheurs du Beth Israel Deaconess Medical Center (BIDMC) ont testé la capacité d’un chatbot bien connu et accessible au public à établir des diagnostics précis dans des cas médicaux difficiles.
L’équipe a découvert que l’IA générative, Chat-GPT 4, sélectionnait le bon diagnostic comme diagnostic principal près de 40 % du temps et fournissait le bon diagnostic dans sa liste de diagnostics potentiels dans les deux tiers des cas difficiles.
L’IA générative fait référence à un type d’intelligence artificielle qui utilise des modèles et des informations sur lesquels elle a été formée pour créer de nouveaux contenus, plutôt que de simplement traiter et analyser des données existantes. Certains des exemples les plus connus d’IA générative sont les soi-disant chatbots, qui utilisent une branche de l’intelligence artificielle appelée traitement du langage naturel (NLP) qui permet aux ordinateurs de comprendre, d’interpréter et de générer un langage de type humain.
Les chatbots d’IA générative sont des outils puissants prêts à révolutionner les industries créatives, l’éducation, le service client et plus encore. Cependant, on sait peu de choses sur leurs performances potentielles dans le cadre clinique, telles que le raisonnement diagnostique complexe.
Les progrès récents de l’intelligence artificielle ont conduit à des modèles d’IA génératifs capables de fournir des réponses textuelles détaillées qui obtiennent des résultats élevés lors d’examens médicaux standardisés. Nous voulions savoir si un tel modèle génératif pouvait « penser » comme un médecin, nous avons donc demandé à un modèle de résoudre des cas de diagnostic complexes standardisés utilisés à des fins éducatives. Ça a vraiment très bien marché. »
Adam Rodman, MD, MPH, codirecteur de l’initiative Innovations in Media and Education Delivery, BIDMC et instructeur en médecine, Harvard Medical School
Pour évaluer les compétences diagnostiques du chatbot, Rodman et ses collègues ont utilisé des conférences de cas clinicopathologiques (CPC), une série de cas de patients complexes et difficiles comprenant des données cliniques et de laboratoire pertinentes, des études d’imagerie et des résultats histopathologiques publiés dans le Journal de médecine de la Nouvelle-Angleterre à des fins éducatives.
En évaluant 70 cas de CPC, l’intelligence artificielle correspondait exactement au diagnostic final de CPC dans 27 (39%) des cas. Dans 64 % des cas, le diagnostic final de CPC a été inclus dans le différentiel de l’IA – une liste de conditions possibles pouvant expliquer les symptômes, les antécédents médicaux, les résultats cliniques et les résultats de laboratoire ou d’imagerie d’un patient.
« Bien que les chatbots ne puissent pas remplacer l’expertise et les connaissances d’un professionnel de la santé qualifié, l’IA générative est un complément potentiel prometteur à la cognition humaine dans le diagnostic », a déclaré le premier auteur Zahir Kanjee, MD, MPH, hospitaliste au BIDMC et professeur adjoint de médecine à Harvard. École de médecine. « Il a le potentiel d’aider les médecins à donner un sens à des données médicales complexes et à élargir ou affiner notre réflexion diagnostique. Nous avons besoin de plus de recherches sur les utilisations optimales, les avantages et les limites de cette technologie, et de nombreux problèmes de confidentialité doivent être résolus, mais sont des découvertes passionnantes pour l’avenir du diagnostic et des soins aux patients. »
« Notre étude s’ajoute à un corpus croissant de littérature démontrant les capacités prometteuses de la technologie de l’IA », a déclaré le co-auteur Byron Crowe, MD, médecin en médecine interne au BIDMC et instructeur en médecine à la Harvard Medical School. « Une enquête plus approfondie nous aidera à mieux comprendre comment ces nouveaux modèles d’IA pourraient transformer la prestation des soins de santé. »
Ce travail n’a pas reçu de financement ou de parrainage séparé. Kanjee rapporte des redevances pour les livres édités et l’adhésion à un conseil consultatif rémunéré pour les produits d’éducation médicale non liés à l’intelligence artificielle de Wolters Kluwer, ainsi que des honoraires pour CME délivrés par Oakstone Publishing. Crowe signale un emploi chez Solera Health en dehors du travail soumis. Rodman ne signale aucun conflit d’intérêts.















