Alors que l'intelligence artificielle (IA) devient de plus en plus répandue dans les soins de santé, les organisations et les cliniciens doivent prendre des mesures pour garantir sa mise en œuvre et son utilisation en toute sécurité dans des contextes cliniques réels, selon un article co-écrit par Dean Sittig, PhD, professeur à la McWilliams School. d'informatique biomédicale à UTHealth Houston et Hardeep Singh, MD, MPH, professeur au Baylor College of Medicine.
Les lignes directrices ont été publiées aujourd'hui, le 27 novembre 2024, dans le Journal de l'Association médicale américaine.
Nous entendons souvent parler de la nécessité de construire l’IA en toute sécurité, mais pas de la manière de l’utiliser en toute sécurité dans les établissements de soins de santé. C’est un outil qui a le potentiel de révolutionner les soins médicaux, mais sans garanties en place, l’IA pourrait générer des résultats faux ou trompeurs qui pourraient potentiellement nuire aux patients si rien n’est fait. »
Dean Sittig, PhD, professeur à la McWilliams School of Biomedical Informatics, UTHealth Houston
S'appuyant sur l'opinion d'experts, des analyses de la littérature et des expériences en matière d'utilisation des technologies de l'information en matière de santé et d'évaluation de la sécurité, Sittig et Singh ont développé une approche pragmatique permettant aux organisations de soins de santé et aux cliniciens de surveiller et de gérer les systèmes d'IA.
« Les organisations de prestation de soins de santé devront mettre en œuvre des systèmes de gouvernance et des processus de test robustes au niveau local pour garantir une IA sûre et une utilisation sûre de l'IA afin qu'à terme, l'IA puisse être utilisée pour améliorer la sécurité des soins de santé et les résultats pour les patients », a déclaré Singh. « Tous les organismes de prestation de soins de santé devraient consulter ces recommandations et commencer dès maintenant à se préparer de manière proactive à l'IA. »
Certaines des actions recommandées aux organismes de soins de santé sont énumérées ci-dessous :
· Examiner les conseils publiés dans des revues à comité de lecture de haute qualité et effectuer des tests rigoureux dans le monde réel pour confirmer la sécurité et l'efficacité de l'IA.
· Établir des comités dédiés avec des experts multidisciplinaires pour superviser le déploiement du système d'IA et garantir le respect des protocoles de sécurité. Les membres du comité devraient se réunir régulièrement pour examiner les demandes de nouvelles applications d’IA, examiner leur sécurité et leur efficacité avant de les mettre en œuvre et élaborer des processus pour surveiller leurs performances.
· Former formellement les cliniciens sur l'utilisation de l'IA et les risques, mais également faire preuve de transparence envers les patients lorsque l'IA fait partie de leurs décisions en matière de soins. Cette transparence est essentielle pour renforcer la confiance dans le rôle de l’IA dans les soins de santé.
· Maintenir un inventaire détaillé des systèmes d'IA et les évaluer régulièrement pour identifier et atténuer tout risque.
· Développer des procédures pour désactiver les systèmes d'IA en cas de dysfonctionnement, garantissant ainsi des transitions fluides vers des processus manuels.
« La mise en œuvre de l'IA dans les milieux cliniques devrait être une responsabilité partagée entre les prestataires de soins de santé, les développeurs d'IA et les fournisseurs de dossiers de santé électroniques afin de protéger les patients », a déclaré Sittig. « En travaillant ensemble, nous pouvons instaurer la confiance et promouvoir l'adoption sécuritaire de l'IA dans les soins de santé. »
Robert Murphy, MD, professeur agrégé et doyen associé, et Debora Simmons, PhD, RN, professeure adjointe, tous deux du Département d'informatique clinique et de santé de la McWilliams School of Biomedical Informatics, ont également contribué à l'article ; et Trisha Flanagan, infirmière autorisée, MSN.