Les législateurs et les régulateurs de Washington commencent à se demander comment réglementer l’intelligence artificielle dans les soins de santé – et l’industrie de l’IA pense qu’il y a de fortes chances qu’ils gâchent les choses.
« C’est un problème incroyablement intimidant », a déclaré Bob Wachter, directeur du département de médecine de l’Université de Californie à San Francisco. « Il y a un risque que nous arrivions avec force et que nous surréglementions. »
L’impact de l’IA sur les soins de santé est déjà largement répandu. La Food and Drug Administration a approuvé quelque 692 produits d’IA. Les algorithmes aident à planifier les patients, à déterminer les niveaux de personnel dans les salles d’urgence et même à transcrire et résumer les visites cliniques pour faire gagner du temps aux médecins. Ils commencent à aider les radiologues à lire les IRM et les radiographies. Wachter a déclaré qu’il consulte parfois de manière informelle une version de GPT-4, un grand modèle de langage de la société OpenAI, pour des cas complexes.
L’ampleur de l’impact de l’IA – et le potentiel de changements futurs – signifie que le gouvernement est déjà en train de rattraper son retard.
« Les décideurs politiques sont terriblement en retard », a déclaré dans un courriel Michael Yang, associé directeur principal chez OMERS Ventures, une société de capital-risque. Les pairs de Yang ont réalisé d’énormes investissements dans le secteur. Rock Health, une société de capital-risque, affirme que les financiers ont investi près de 28 milliards de dollars dans des sociétés de santé numérique spécialisées dans l’intelligence artificielle.
L’un des problèmes auxquels les régulateurs sont confrontés, a déclaré Wachter, est que, contrairement aux médicaments, qui auront la même composition chimique dans cinq ans qu’aujourd’hui, l’IA évolue avec le temps. Mais la gouvernance se forme, avec la Maison Blanche et plusieurs agences axées sur la santé élaborant des règles pour garantir la transparence et la confidentialité. Le Congrès manifeste également son intérêt. La commission sénatoriale des finances a tenu une audience le 8 février sur l’IA dans les soins de santé.
La réglementation et la législation s’accompagnent d’un lobbying accru. CNBC a comptabilisé une augmentation de 185 % du nombre d’organisations révélant des activités de lobbying en faveur de l’IA en 2023. Le groupe professionnel TechNet a lancé une initiative de 25 millions de dollars, comprenant des achats de publicités télévisées, pour sensibiliser les téléspectateurs aux avantages de l’intelligence artificielle.
« Il est très difficile de savoir comment réguler intelligemment l’IA puisque nous sommes si tôt dans la phase d’invention de la technologie », a déclaré dans un courrier électronique Bob Kocher, associé de la société de capital-risque Venrock qui a précédemment servi dans l’administration Obama.
Kocher a parlé aux sénateurs de la réglementation de l’IA. Il souligne certaines des difficultés auxquelles le système de santé sera confronté lors de l’adoption de ces produits. Les médecins – confrontés à des risques de faute professionnelle – pourraient hésiter à utiliser une technologie qu’ils ne comprennent pas pour prendre des décisions cliniques.
Une analyse des données du Census Bureau de janvier réalisée par le cabinet de conseil Capital Economics a révélé que 6,1 % des entreprises de soins de santé prévoyaient d’utiliser l’IA au cours des six prochains mois, soit à peu près au milieu des 14 secteurs interrogés.
Comme tout produit médical, les systèmes d’IA peuvent présenter des risques pour les patients, parfois de manière inédite. Un exemple : ils peuvent inventer des choses.
Wachter se souvient d’un collègue, à titre de test, assignant au GPT-3 d’OpenAI la tâche d’écrire une lettre d’autorisation préalable à un assureur pour une prescription délibérément « farfelue » : un anticoagulant pour traiter l’insomnie d’un patient.
Mais l’IA « a écrit une belle note », a-t-il déclaré. Le système citait de manière si convaincante la « littérature récente » que la collègue de Wachter s’est brièvement demandé si elle n’avait pas manqué une nouvelle ligne de recherche. Il s’est avéré que le chatbot l’avait inventé.
Il existe un risque de biais amplifiant l’IA déjà présent dans le système de santé. Historiquement, les personnes de couleur ont reçu moins de soins que les patients blancs. Des études montrent, par exemple, que les patients noirs souffrant de fractures sont moins susceptibles de recevoir des analgésiques que les patients blancs. Ce biais pourrait devenir gravé dans le marbre lorsque l’intelligence artificielle est formée sur ces données et agit ensuite.
Les recherches sur l’IA déployée par les grands assureurs ont confirmé que c’est bien le cas. Mais le problème est plus répandu. Wachter a déclaré que l’UCSF avait testé un produit pour prédire les non-présentations aux rendez-vous cliniques. Les patients dont il est peu probable qu’ils se présentent à une visite sont plus susceptibles d’être réservés en double.
Le test a montré que les personnes de couleur étaient plus susceptibles de ne pas se présenter. Que les résultats soient exacts ou non, « la réponse éthique consiste à se demander pourquoi et si vous pouvez faire quelque chose », a déclaré Wachter.
Mis à part le battage médiatique, ces risques continueront probablement d’attirer l’attention au fil du temps. Les experts en IA et les responsables de la FDA ont souligné la nécessité d’algorithmes transparents, surveillés sur le long terme par des êtres humains – régulateurs et chercheurs extérieurs. Les produits d’IA s’adaptent et changent à mesure que de nouvelles données sont incorporées. Et les scientifiques développeront de nouveaux produits.
Les décideurs politiques devront investir dans de nouveaux systèmes pour suivre l’IA au fil du temps, a déclaré Katherine Baicker, doyenne de l’Université de Chicago, qui a témoigné lors de l’audience du comité des finances. « La plus grande avancée est quelque chose à laquelle nous n’avons pas encore pensé », a-t-elle déclaré dans une interview.
Cet article a été réimprimé de khn.org, une salle de rédaction nationale qui produit un journalisme approfondi sur les questions de santé et qui constitue l’un des principaux programmes opérationnels de KFF – la source indépendante de recherche, de sondages et de journalisme sur les politiques de santé. |