Le soutien émotionnel est une raison de plus en plus courante pour laquelle les gens se tournent vers les chatbots d'intelligence artificielle générative et les applications de bien-être, mais ces outils manquent actuellement des preuves scientifiques et des réglementations nécessaires pour garantir la sécurité des utilisateurs, selon un nouvel avis de santé de l'American Psychological Association.
L'avis de santé de l'APA sur l'utilisation de chatbots d'IA génératifs et d'applications de bien-être pour la santé mentale a examiné les technologies axées sur le consommateur sur lesquelles les gens comptent pour des conseils et des traitements en matière de santé mentale, même si ce n'est pas leur objectif. Cependant, ces outils sont faciles d’accès et peu coûteux, ce qui en fait une option attrayante pour les personnes qui ont du mal à trouver ou à se permettre des soins auprès de prestataires de santé mentale agréés.
« Nous sommes au milieu d'une crise majeure de santé mentale qui nécessite des solutions systémiques, et pas seulement des solutions technologiques », a déclaré Arthur C. Evans Jr., PhD, PDG de l'APA.
Même si les chatbots semblent facilement disponibles pour offrir assistance et validation aux utilisateurs, la capacité de ces outils à guider en toute sécurité une personne en situation de crise est limitée et imprévisible. »
Arthur C. Evans Jr., PDG, APA
L'avis souligne que même si la technologie a un immense potentiel pour aider les psychologues à faire face à la crise de la santé mentale, elle ne doit pas détourner l'attention du besoin urgent de réparer les fondations du système de santé mentale américain.
Le rapport propose des recommandations au public, aux décideurs politiques, aux entreprises technologiques, aux chercheurs, aux cliniciens, aux parents, aux soignants et aux autres parties prenantes pour les aider à comprendre leur rôle dans un paysage technologique en évolution rapide, afin que le fardeau de la navigation dans des espaces numériques non testés et non réglementés ne repose pas uniquement sur les utilisateurs. Les principales recommandations comprennent :
- En raison de la nature imprévisible de ces technologies, n’utilisez pas de chatbots et d’applications de bien-être comme substitut aux soins prodigués par un professionnel de la santé mentale qualifié.
- Prévenir les relations ou dépendances malsaines entre les utilisateurs et ces technologies
- Établir des garanties spécifiques pour les enfants, les adolescents et autres populations vulnérables
« Le développement des technologies de l'IA a dépassé notre capacité à comprendre pleinement leurs effets et leurs capacités. En conséquence, nous constatons des rapports faisant état de dommages importants causés aux adolescents et à d'autres populations vulnérables », a déclaré Evans. « Pour certains, cela peut mettre la vie en danger, ce qui souligne la nécessité d'impliquer les psychologues et la science psychologique à chaque étape du processus de développement. »
Même les outils d'IA générative qui ont été développés avec une science psychologique de haute qualité et en utilisant les meilleures pratiques ne disposent pas de suffisamment de preuves pour montrer qu'ils sont efficaces ou sûrs à utiliser dans les soins de santé mentale, selon l'avis. Les chercheurs doivent évaluer les chatbots génératifs d’IA et les applications de bien-être à l’aide d’essais cliniques randomisés et d’études longitudinales qui suivent les résultats au fil du temps. Mais pour y parvenir, les entreprises technologiques et les décideurs politiques doivent s’engager à faire preuve de transparence sur la manière dont ces technologies sont créées et utilisées.
Qualifiant les cadres réglementaires actuels d'inadéquats pour répondre à la réalité de l'IA dans les soins de santé mentale, l'avis appelle les décideurs politiques, en particulier au niveau fédéral, à :
- Moderniser la réglementation
- Créer des normes fondées sur des preuves pour chaque catégorie d'outils numériques
- Combler les lacunes dans la surveillance de la Food and Drug Administration
- Promouvoir une législation interdisant aux chatbots IA de se faire passer pour des professionnels agréés
- Adopter des législations complètes sur la confidentialité des données et des paramètres de « sécurité par défaut »
L'avis note que de nombreux cliniciens manquent d'expertise en IA et exhorte les groupes professionnels et les systèmes de santé à les former sur l'IA, les préjugés, la confidentialité des données et l'utilisation responsable des outils d'IA dans la pratique. Les cliniciens eux-mêmes doivent également suivre les directives éthiques disponibles et interroger de manière proactive les patients sur leur utilisation des chatbots IA et des applications de bien-être.
« L'intelligence artificielle jouera un rôle essentiel dans l'avenir des soins de santé, mais elle ne pourra tenir cette promesse que si nous affrontons également les défis de longue date en matière de santé mentale », a déclaré Evans. « Nous devons faire pression en faveur d'une réforme systémique pour rendre les soins plus abordables, accessibles et opportuns, et pour garantir que les professionnels humains soient soutenus, et non remplacés, par l'IA. »
























