Un cadre révolutionnaire comble le fossé entre le potentiel de l'IA et les applications de santé réelles, mettant en lumière son rôle dans la transformation des soins aux patients tout en préservant la sécurité et l'équité.
Étude : Établir des lignes directrices sur l’utilisation responsable de l’IA : une étude de cas complète pour les établissements de santé. Crédit d'image : Collagerie/Shutterstock
Une étude récente publiée dans la revue npj Médecine Numérique a présenté des lignes directrices complètes pour l’intégration responsable de l’intelligence artificielle (IA) dans les soins de santé.
L’intégration de l’IA en médecine a considérablement progressé au fil du temps. Les modèles d’apprentissage profond ont démontré des capacités remarquables dans la détection des lésions mammaires malignes, des nodules pulmonaires et de la rétinopathie diabétique, entre autres. De plus, ces modèles sont prometteurs pour améliorer la prise de décision clinique, faciliter le triage des patients et fournir des recommandations thérapeutiques.
En outre, les grands modèles linguistiques (LLM) ont élargi le potentiel de l'IA dans le domaine de la santé. Cependant, comme d’autres technologies de soins de santé, les LLM nécessitent un examen minutieux, une surveillance de la sécurité et une validation. L’IA présente également de nouveaux défis, tels que la variabilité des performances selon les contextes cliniques, l’évolution des maladies et les changements démographiques. De plus, les problèmes liés à la confidentialité des patients, aux protocoles de formation, à la convivialité et à l’adaptation du flux de travail restent des considérations importantes.
Les LLM font l'objet d'un examen plus minutieux car ils peuvent générer du contenu non pertinent et inexact, omettre des détails cruciaux et fabriquer des informations inexistantes. Les organismes de réglementation ont commencé à s’adapter rapidement en réponse aux développements rapides de l’IA, et plusieurs entités de premier plan ont commencé à établir des lignes directrices de haut niveau. Malgré ces efforts, un « écart tangible » persiste pour garantir leur mise en œuvre cohérente dans divers contextes de soins de santé.
À propos de l'étude
Dans la présente étude, des chercheurs de la Harvard Medical School et du Mass General Brigham AI Governance Committee ont élaboré des lignes directrices complètes pour intégrer l’IA dans les soins de santé de manière efficace et responsable. Ils ont formé une équipe interfonctionnelle de 18 experts issus de divers domaines, notamment l'informatique, la recherche, le droit, l'analyse de données, l'équité, la confidentialité, la sécurité, l'expérience des patients et la qualité. Pour identifier les thèmes critiques, l’équipe a effectué une recherche approfondie dans la littérature grise et évaluée par des pairs sur des sujets tels que la gouvernance et la mise en œuvre de l’IA.
Les chercheurs se sont concentrés sur les neuf principes suivants : équité, robustesse, équité, sécurité, confidentialité, explicabilité, transparence, bénéfice et responsabilité. De plus, trois groupes de discussion ont été créés pour affiner les lignes directrices : 1) robustesse et sécurité, 2) équité et confidentialité, 3) transparence, responsabilité et avantages. Chaque groupe comptait 4 à 7 membres experts.
Ensuite, l’équipe s’est concentrée sur le développement et l’exécution d’un cadre structuré pour faciliter l’application des lignes directrices sur l’IA dans un établissement de soins de santé. Ils ont sélectionné l’IA générative et son application dans les systèmes de documentation ambiante comme étude de cas représentative. Ce choix reflète les défis uniques liés à la surveillance des technologies d’IA générative, tels que garantir la confidentialité des patients et atténuer les hallucinations de l’IA.
Une étude pilote a d'abord été menée auprès de personnes sélectionnées dans différents départements. Les chercheurs se sont concentrés sur la confidentialité et la sécurité, partageant des données strictement anonymisées avec le fournisseur pour permettre des mises à jour et des améliorations continues. Ils ont collaboré avec le fournisseur pour une désidentification stricte, des politiques de conservation des données et une utilisation contrôlée des données uniquement pour améliorer les performances du modèle.
Par la suite, l’équipe a mis en œuvre une phase de déploiement fantôme au cours de laquelle les systèmes d’IA ont fonctionné en parallèle avec les flux de travail existants sans affecter les soins aux patients. Après le déploiement fantôme, les indicateurs de performances clés, tels que l'équité démographique, la convivialité et l'intégration des flux de travail, ont été rigoureusement évalués.
Résultats
Les chercheurs ont identifié plusieurs éléments essentiels à la mise en œuvre responsable de l’IA dans les soins de santé. Des ensembles de données de formation diversifiés et démographiquement représentatifs devraient être obligatoires pour réduire les biais. De plus, les résultats doivent être évalués sous l’angle de l’équité. Les évaluations régulières de l'équité devraient inclure une réingénierie du modèle pour garantir des avantages équitables pour l'ensemble des populations de patients.
La communication transparente du statut de la Food and Drug Administration (FDA) du système d’IA serait tout aussi essentielle. Spécifier si l’approbation de la FDA est requise et détailler l’état actuel du système d’IA pourrait contribuer à garantir la conformité et à renforcer la confiance. Une approche basée sur les risques devrait être adoptée pour surveiller les systèmes d’IA, de sorte que les applications susceptibles d’introduire un risque plus élevé pour les résultats des soins nécessitent une surveillance plus robuste que celles présentant un risque nul ou minime.
La phase préliminaire (étude pilote) a permis des évaluations complètes des fonctionnalités et la collecte de commentaires, qui ont été cruciales pour identifier les problèmes dès le début de la mise en œuvre. Lors du déploiement fantôme, la plupart des utilisateurs (des systèmes d’IA) provenaient des services de médecine d’urgence et de médecine interne.
Les commentaires ont révélé à la fois les points forts et les domaines à améliorer. La plupart des critiques portaient sur la documentation des examens physiques, tandis que le système a été salué pour sa précision lorsqu'il s'agissait de travailler avec des interprètes ou des patients avec un fort accent.
Conclusions
En résumé, l’étude a illustré une méthodologie pour intégrer l’IA dans les soins de santé. Cette approche multidisciplinaire a fourni un modèle aux organisations à but non lucratif, aux instituts de santé et aux organismes gouvernementaux souhaitant mettre en œuvre et surveiller l’IA de manière responsable. L'étude de cas a mis en évidence des défis tels que l'équilibre entre les considérations éthiques et l'utilité clinique et a souligné l'importance d'une collaboration continue avec les fournisseurs pour affiner les systèmes d'IA.
Les travaux futurs se concentreront sur l’expansion des tests pour inclure une plus grande diversité démographique et clinique tout en automatisant le suivi des performances. Ces efforts visent à garantir que les systèmes d’IA restent adaptables et équitables dans divers environnements de soins de santé.
L’étude démontre l’importance de l’évaluation, de la surveillance et de l’adaptation continues des systèmes d’IA pour garantir l’efficacité et la pertinence dans des contextes cliniques difficiles.





















