À quoi pourraient servir les soins de santé pour quelqu’un qui invente des choses, ne peut pas garder un secret, ne sait vraiment rien et, lorsqu’il parle, remplit simplement le mot suivant en fonction de ce qui précède ? Beaucoup, si cet individu est la plus récente forme d’intelligence artificielle, selon certaines des plus grandes entreprises du marché.
Les entreprises poussant la dernière technologie d’IA – connue sous le nom d' »IA générative » – s’accumulent : Google et Microsoft veulent apporter des types de soi-disant grands modèles de langage aux soins de santé. Les grandes entreprises qui sont familières aux gens en blouse blanche – mais peut-être moins à votre Joe et Jane moyen – sont tout aussi enthousiastes : les géants des dossiers médicaux électroniques Epic et Oracle Cerner ne sont pas loin derrière. L’espace est également rempli de startups.
Les entreprises veulent que leur IA prenne des notes pour les médecins et leur donne un deuxième avis – en supposant qu’elles peuvent empêcher l’intelligence d' »halluciner » ou, d’ailleurs, de divulguer les informations privées des patients.
« Il se prépare quelque chose d’assez excitant », a déclaré Eric Topol, directeur du Scripps Research Translational Institute à San Diego. « Ses capacités auront finalement un impact important. » Topol, comme de nombreux autres observateurs, se demande combien de problèmes cela pourrait causer – comme la fuite de données sur les patients – et à quelle fréquence. « Nous allons le découvrir. »
Le spectre de tels problèmes a inspiré plus de 1 000 leaders technologiques à signer une lettre ouverte en mars demandant aux entreprises de suspendre le développement de systèmes d’IA avancés jusqu’à ce que « nous soyons convaincus que leurs effets seront positifs et que leurs risques seront gérables ». Même ainsi, certains d’entre eux investissent plus d’argent dans les entreprises d’IA.
La technologie sous-jacente repose sur la synthèse d’énormes morceaux de texte ou d’autres données – par exemple, certains modèles médicaux s’appuient sur 2 millions de notes d’unité de soins intensifs du Beth Israel Deaconess Medical Center à Boston – pour prédire le texte qui suivrait une requête donnée. L’idée existe depuis des années, mais la ruée vers l’or et la folie marketing et médiatique qui l’entoure sont plus récentes.
La frénésie a été lancée en décembre 2022 par OpenAI soutenu par Microsoft et son produit phare, ChatGPT, qui répond aux questions avec autorité et style. Il peut expliquer la génétique dans un sonnet, par exemple.
OpenAI, lancée comme une entreprise de recherche lancée par des élites de la Silicon Valley telles que Sam Altman, Elon Musk et Reid Hoffman, a fait monter l’enthousiasme dans les poches des investisseurs. L’entreprise a une structure complexe, hybride à but non lucratif et à but non lucratif. Mais un nouveau cycle de financement de 10 milliards de dollars de Microsoft a poussé la valeur d’OpenAI à 29 milliards de dollars, a rapporté le Wall Street Journal. À l’heure actuelle, la société concède sa technologie sous licence à des sociétés comme Microsoft et vend des abonnements aux consommateurs. D’autres startups envisagent de vendre la transcription de l’IA ou d’autres produits aux systèmes hospitaliers ou directement aux patients.
Les citations hyperboliques sont partout. L’ancien secrétaire au Trésor Larry Summers a tweeté récemment : « Cela va remplacer ce que font les médecins – entendre les symptômes et poser des diagnostics – avant que cela ne change ce que font les infirmières – aider les patients à se lever et à se débrouiller à l’hôpital. »
Mais quelques semaines seulement après qu’OpenAI ait reçu une autre énorme injection de fonds, même Altman, son PDG, se méfie de la fanfare. « Le battage médiatique autour de ces systèmes – même si tout ce que nous espérons est correct à long terme – est totalement incontrôlable à court terme », a-t-il déclaré dans un article publié en mars dans le New York Times.
Peu de professionnels de la santé pensent que cette dernière forme d’IA est sur le point de prendre leur emploi (bien que certaines entreprises expérimentent – de manière controversée – avec des chatbots qui agissent comme des thérapeutes ou des guides de soins). Pourtant, ceux qui sont optimistes sur la technologie pensent que cela facilitera certaines parties de leur travail.
Eric Arzubi, psychiatre à Billings, Montana, gérait des collègues psychiatres pour un système hospitalier. Maintes et maintes fois, il recevait une liste de prestataires qui n’avaient pas encore terminé leurs notes – leurs résumés de l’état d’un patient et un plan de traitement.
La rédaction de ces notes est l’un des principaux facteurs de stress dans le système de santé : dans l’ensemble, c’est un fardeau administratif. Mais il faut développer un dossier pour les futurs prestataires et, bien sûr, les assureurs.
« Quand les gens sont très en retard dans la documentation, cela crée des problèmes », a déclaré Arzubi. « Que se passe-t-il si le patient arrive à l’hôpital et qu’il y a une note qui n’a pas été remplie et que nous ne savons pas ce qui se passe? »
La nouvelle technologie pourrait aider à alléger ces charges. Arzubi teste un service, appelé Nabla Copilot, qui s’occupe de sa part des visites virtuelles de patients, puis les résume automatiquement, organisant dans un format de note standard la plainte, l’historique de la maladie et un plan de traitement.
Les résultats sont solides après environ 50 patients, a-t-il déclaré : « C’est 90% du chemin. » Copilot produit des résumés utilisables qu’Arzubi édite généralement. Les résumés ne captent pas nécessairement des indices ou des pensées non verbaux qu’Arzubi pourrait ne pas vouloir vocaliser. Pourtant, dit-il, les gains sont importants : il n’a pas à se soucier de prendre des notes et peut plutôt se concentrer sur la conversation avec les patients. Et il gagne du temps.
« Si j’ai une journée patient complète, où je pourrais voir 15 patients, je dirais que cela me fait gagner une bonne heure à la fin de la journée », a-t-il déclaré. (Si la technologie est largement adoptée, il espère que les hôpitaux ne profiteront pas du temps gagné en programmant simplement plus de patients. « Ce n’est pas juste », a-t-il déclaré.)
Nabla Copilot n’est pas le seul service de ce type ; Microsoft expérimente le même concept. Lors de la conférence d’avril de la Healthcare Information and Management Systems Society – une conférence de l’industrie où les techniciens de la santé échangent des idées, font des annonces et vendent leurs produits – les analystes en investissement d’Evercore ont souligné que la réduction du fardeau administratif était une possibilité majeure pour les nouvelles technologies.
Mais globalement ? Ils ont entendu des critiques mitigées. Et ce point de vue est courant : de nombreux technologues et médecins sont ambivalents.
Par exemple, si vous êtes perplexe au sujet d’un diagnostic, l’introduction de données sur les patients dans l’un de ces programmes « peut fournir une deuxième opinion, sans aucun doute », a déclaré Topol. « Je suis sûr que les cliniciens le font. » Cependant, cela se heurte aux limites actuelles de la technologie.
Joshua Tamayo-Sarver, clinicien et cadre de la startup Inflect Health, a intégré des scénarios de patients fictifs basés sur sa propre pratique dans un service d’urgence dans un seul système pour voir comment il fonctionnerait. Il a manqué des conditions potentiellement mortelles, a-t-il dit. « Cela semble problématique. »
La technologie a également tendance à « halluciner », c’est-à-dire à inventer des informations qui semblent convaincantes. Des études formelles ont trouvé un large éventail de performances. Un document de recherche préliminaire examinant les produits ChatGPT et Google à l’aide de questions ouvertes d’examen du jury de neurochirurgie a révélé un taux d’hallucinations de 2%. Une étude menée par des chercheurs de Stanford, examinant la qualité des réponses de l’IA à 64 scénarios cliniques, a trouvé des citations fabriquées ou hallucinées 6% du temps, a déclaré le co-auteur Nigam Shah à KFF Health News. Un autre article préliminaire trouvé, dans des cas de cardiologie complexes, ChatGPT était d’accord avec l’opinion d’experts la moitié du temps.
La confidentialité est une autre préoccupation. Il n’est pas clair si les informations introduites dans ce type de système basé sur l’IA resteront à l’intérieur. Les utilisateurs entreprenants de ChatGPT, par exemple, ont réussi à obtenir la technologie pour leur dire la recette du napalm, qui peut être utilisé pour fabriquer des bombes chimiques.
En théorie, le système dispose de garde-fous empêchant les informations privées de s’échapper. Par exemple, lorsque KFF Health News a demandé à ChatGPT son adresse e-mail, le système a refusé de divulguer ces informations privées. Mais lorsqu’on lui a dit de jouer un rôle en tant que personnage et qu’on lui a demandé l’adresse e-mail de l’auteur de cet article, il a volontiers donné l’information. (C’était en effet l’adresse e-mail correcte de l’auteur en 2021, lorsque l’archive de ChatGPT se termine.)
« Je ne mettrais pas de données sur les patients », a déclaré Shah, scientifique en chef des données chez Stanford Health Care. « Nous ne comprenons pas ce qui se passe avec ces données une fois qu’elles ont atteint les serveurs OpenAI. »
Tina Sui, porte-parole d’OpenAI, a déclaré à KFF Health News qu’il « ne faut jamais utiliser nos modèles pour fournir des services de diagnostic ou de traitement pour des conditions médicales graves ». Ils ne sont « pas adaptés pour fournir des informations médicales », a-t-elle déclaré.
Avec l’explosion de nouvelles recherches, Topol a déclaré: « Je ne pense pas que la communauté médicale ait une très bonne idée de ce qui va se passer. »
Cet article a été réimprimé à partir de khn.org avec la permission de la Henry J. Kaiser Family Foundation. Kaiser Health News, un service d’information éditorialement indépendant, est un programme de la Kaiser Family Foundation, une organisation non partisane de recherche sur les politiques de santé non affiliée à Kaiser Permanente. |