Dans une étude récente publiée dans Médecine de la communicationles chercheurs ont fourni un aperçu complet du potentiel et des limites des grands modèles de langage (LLM) basés sur l’intelligence artificielle (IA) dans la recherche médicale, l’éducation et la pratique clinique.
Étude: Le futur paysage des grands modèles de langage en médecine. Crédit d’image : a-image/Shutterstock.com
Sommaire
Arrière-plan
Ces outils génèrent du texte (langage) sur un sujet, semblable à des réponses humaines, sur la base d’une invite, telle qu’un ensemble de mots-clés ou de requêtes d’utilisateurs. Les outils LLM peuvent même générer du texte dans des styles spécifiques, comme la poésie.
Ils font preuve d’une capacité exceptionnelle à répondre à des questions diverses et à gérer des concepts complexes. Jusqu’à récemment, des sociétés commerciales comme OpenAI/Microsoft, Meta et Google dirigeaient le développement des LLM.
La sortie de ChatGPT par OpenAI en novembre 2022 a marqué une avancée significative en termes de crédibilité, d’accessibilité et de résultats de type humain basés sur l’apprentissage par renforcement à partir de commentaires humains (RLHF).
Par la suite, Google et Meta ont introduit leurs propres LLM, élargissant les possibilités avec des fonctionnalités telles que la saisie visuelle et les plugins.
Dans ce contexte, GPT-4, développé avec d’autres RLHF de ChatGPT, a dépassé avec succès les exigences de l’examen d’autorisation médicale (USMLE), indiquant son potentiel dans le domaine médical.
Cependant, l’augmentation rapide des candidatures en LLM a suscité des inquiétudes quant à leur potentielle utilisation abusive, en particulier dans le domaine médical.
LLM en médecine
L’étude a exploré trois domaines clés dans lesquels les LLM pourraient trouver des applications en médecine : les soins aux patients, la recherche médicale et l’enseignement médical. Une communication efficace dans le cadre des soins aux patients est cruciale, les professionnels de santé utilisant souvent des textes écrits pour interagir avec les patients, notamment des dossiers médicaux et des résultats de diagnostic.
Les LLM ont le potentiel d’améliorer la communication en simplifiant le langage médical et peuvent être particulièrement utiles pour traiter des conditions socialement stigmatisées, telles que les maladies sexuellement transmissibles.
Les chatbots comme First Derm et Pahola aident déjà les médecins à évaluer et à guider les patients souffrant d’affections cutanées et d’abus d’alcool, bien qu’ils puissent nécessiter de nouvelles améliorations en termes de fonctionnalité et d’acceptation par les professionnels de la santé.
D’autre part, les LLM excellent dans la traduction de la terminologie médicale dans différentes langues, facilitant ainsi la prise de décision clinique, l’observance thérapeutique et la documentation clinique. Ils peuvent fournir des formats structurés pour les notes non structurées, réduisant ainsi potentiellement la charge de travail des cliniciens.
Dans la recherche médicale, les LLM peuvent aider à la production de contenu scientifique, résumer des concepts scientifiques et aider les scientifiques et les cliniciens ayant des compétences techniques limitées à tester des hypothèses et à visualiser de grands ensembles de données. La mise à jour dynamique des modèles scientifiques peut améliorer les performances de la recherche.
Dans l’enseignement médical, où l’accent est mis sur la pensée critique et la résolution de problèmes, les LLM peuvent agir comme des assistants pédagogiques personnalisés, proposant des simulations d’apprentissage interactives, décomposant des concepts complexes et aidant les étudiants à s’entraîner à poser des diagnostics et des stratégies de traitement.
Cependant, leur utilisation dans l’éducation nécessite une gestion prudente pour éviter d’entraver la pensée critique et la créativité.
Les LLM en milieu éducatif devraient être réglementés de manière transparente pour éviter la désinformation et l’externalisation du raisonnement médical, en particulier dans l’enseignement médical, où cela pourrait conduire à des décisions cliniques potentiellement néfastes.
Aborder le problème
Malgré les progrès, la question de la diffusion de fausses informations par les LLM reste une préoccupation, en particulier en milieu clinique. L’établissement d’un cadre juridique pour l’utilisation des LLM dans la pratique clinique est essentiel.
Les projets LLM open source non commerciaux pourraient également constituer une contribution précieuse à cet effort. De plus, les interfaces de programmation d’applications (API) LLM doivent être sécurisées pour protéger les données sensibles, et les chercheurs doivent se concentrer sur la qualité des données d’entrée pour améliorer la sortie LLM.
Conclusions
Les LLM sont prometteurs dans le domaine médical, mais ils comportent des défis qui doivent être relevés.
Les préoccupations concernant la désinformation, les préjugés, la validité, la sécurité et l’éthique doivent être soigneusement examinées avant une adoption généralisée dans la pratique clinique.