Au cours des dernières années, 10 000 à 20 000 applications ont fait irruption dans l’espace de la santé mentale, proposant de « perturber » la thérapie traditionnelle. Avec la frénésie autour des innovations de l’IA comme ChatGPT, l’affirmation selon laquelle les chatbots peuvent fournir des soins de santé mentale se profile à l’horizon.
Les chiffres expliquent pourquoi : le stress pandémique a conduit des millions d’Américains supplémentaires à se faire soigner. Dans le même temps, il y a longtemps eu une pénurie de professionnels de la santé mentale aux États-Unis ; plus de la moitié de tous les comtés manquent de psychiatres. Compte tenu du mandat de la loi sur les soins abordables selon lequel les assureurs offrent la parité entre la couverture de santé mentale et physique, il existe un gouffre béant entre la demande et l’offre.
Pour les entrepreneurs, cela représente une aubaine pour le marché. Lors de la conférence South by Southwest en mars, où les startups de la santé ont présenté leurs produits, il y avait une conviction quasi religieuse que l’IA pouvait reconstruire les soins de santé, offrant des applications et des machines capables de diagnostiquer et de traiter toutes sortes de maladies, remplaçant les médecins et les infirmières.
Malheureusement, dans le domaine de la santé mentale, les preuves d’efficacité font défaut. Peu des nombreuses applications sur le marché ont des recherches indépendantes sur les résultats montrant qu’elles aident ; la plupart n’ont pas été examinés du tout par la FDA. Bien qu’ils soient commercialisés pour traiter des affections telles que l’anxiété, le trouble déficitaire de l’attention/hyperactivité et la dépression, ou pour prédire les tendances suicidaires, de nombreux utilisateurs avertissent (en petits caractères) qu’ils ne sont « pas destinés à être des services médicaux, de santé comportementale ou d’autres soins de santé ». ou « pas un produit autorisé par la FDA. »
Il y a de bonnes raisons d’être prudent face à ce mastodonte du marketing.
Il y a des décennies, Joseph Weizenbaum, professeur au Massachusetts Institute of Technology et considéré comme l’un des pères de l’intelligence artificielle, a prédit que l’IA ne ferait jamais un bon thérapeute, bien qu’elle puisse être conçue pour ressembler à un tel. En fait, son programme d’IA original, créé dans les années 1960, était un psychothérapeute nommé ELIZA, qui utilisait la reconnaissance de mots et de formes combinée à la programmation en langage naturel pour ressembler à un thérapeute :
Femme: Eh bien, mon copain m’a fait venir ici.
ÉLISA : Votre copain vous a fait venir ici ?
Femme: Il dit que je suis déprimé la plupart du temps.
ÉLISA : Je suis désolé d’apprendre que vous êtes déprimé.
Femme: C’est vrai. Je suis malheureux.
ÉLISA : Pensez-vous que venir ici vous aidera à ne pas être malheureux ?
Bien que salué comme un triomphe de l’IA, le « succès » d’ELIZA a terrifié Weizenbaum, que j’ai interviewé une fois. Il a dit que les étudiants interagiraient avec la machine comme si Eliza était une vraie thérapeute, alors que ce qu’il avait créé était « un truc de fête », a-t-il dit.
Il prévoyait l’évolution de programmes beaucoup plus sophistiqués comme ChatGPT. Mais « les expériences qu’un ordinateur pourrait acquérir dans de telles circonstances ne sont pas des expériences humaines », m’a-t-il dit. « L’ordinateur ne connaîtra pas, par exemple, la solitude dans le sens où nous le comprenons. »
Il en va de même pour l’anxiété ou l’extase, des émotions si complexes sur le plan neurologique que les scientifiques n’ont pas été en mesure d’identifier leurs origines neurales. Un chatbot peut-il réaliser le transfert, le flux empathique entre le patient et le médecin qui est au cœur de nombreux types de thérapie ?
« Le principe fondamental de la médecine est qu’il s’agit d’une relation entre l’humain et l’humain – et l’IA ne peut pas aimer », a déclaré Bon Ku, directeur du Health Design Lab de l’Université Thomas Jefferson et pionnier de l’innovation médicale. « J’ai un thérapeute humain, et cela ne sera jamais remplacé par l’IA. »
Ku a déclaré qu’il aimerait voir l’IA utilisée à la place pour réduire les tâches des praticiens comme la tenue de registres et la saisie de données afin de « libérer plus de temps pour que les humains se connectent ».
Bien que certaines applications de santé mentale puissent finalement s’avérer utiles, il existe des preuves que certaines peuvent faire du mal. Un chercheur a noté que certains utilisateurs reprochaient à ces applications leur « nature scénarisée et leur manque d’adaptabilité au-delà des cas classiques d’anxiété et de dépression légères ».
Il peut être tentant pour les assureurs de proposer des applications et des chatbots pour répondre à l’exigence de parité en santé mentale. Après tout, ce serait une solution simple et bon marché, comparée à la difficulté de proposer un panel de thérapeutes humains, d’autant plus que beaucoup ne prennent pas d’assurance car ils jugent les paiements des assureurs trop bas.
Voyant peut-être le flot d’IA frapper le marché, le ministère du Travail a annoncé l’année dernière qu’il intensifiait ses efforts pour assurer une meilleure conformité des assureurs à l’exigence de parité en matière de santé mentale.
La FDA a également déclaré à la fin de l’année dernière qu’elle « avait l’intention d’exercer son pouvoir discrétionnaire en matière d’application » sur une gamme d’applications de santé mentale, qu’elle examinera en tant que dispositifs médicaux. Jusqu’à présent, aucun n’a été approuvé. Et seuls quelques-uns ont obtenu la désignation d’appareil révolutionnaire de l’agence, qui accélère les examens et les études sur les appareils qui présentent un potentiel.
Ces applications offrent principalement ce que les thérapeutes appellent une thérapie structurée – dans laquelle les patients ont des problèmes spécifiques et l’application peut répondre avec une approche semblable à un classeur. Par exemple, Woebot combine des exercices de pleine conscience et de soins personnels (avec des réponses écrites par des équipes de thérapeutes) pour la dépression post-partum. Wysa, une autre application qui a reçu une désignation d’appareil révolutionnaire, propose une thérapie cognitivo-comportementale pour l’anxiété, la dépression et la douleur chronique.
Mais la collecte de données scientifiques fiables sur le bon fonctionnement des traitements basés sur les applications prendra du temps. « Le problème est qu’il y a très peu de preuves pour que l’agence puisse tirer des conclusions », a déclaré Kedar Mate, directeur de l’Institute for Healthcare Improvement, basé à Boston.
Jusqu’à ce que nous ayons cette recherche, nous ne savons pas si les soins de santé mentale basés sur des applications font mieux que ELIZA de Weizenbaum. L’IA peut certainement s’améliorer au fil des années, mais à ce stade, il est terriblement prématuré pour les assureurs d’affirmer que fournir l’accès à une application est tout près de répondre à l’exigence de parité en matière de santé mentale.
Cet article a été réimprimé à partir de khn.org avec la permission de la Henry J. Kaiser Family Foundation. Kaiser Health News, un service d’information éditorialement indépendant, est un programme de la Kaiser Family Foundation, une organisation non partisane de recherche sur les politiques de santé non affiliée à Kaiser Permanente. |