Open AI a récemment introduit ChatGPT Health, une nouvelle fonctionnalité de ChatGPT conçue pour répondre aux questions de santé et de bien-être. Ce lancement fait suite au fait que le chatbot IA recevrait chaque jour des millions de questions liées à la santé, soulignant l’intérêt croissant du public pour les informations médicales basées sur l’IA.
Selon OpenAI, ChatGPT Health vise à offrir aux utilisateurs une expérience plus ciblée pour naviguer dans les problèmes de santé, les sujets de bien-être et les questions médicales.
De toute évidence, il existe une demande croissante d’informations sur la santé accessibles et conversationnelles. Cependant, même si ces outils peuvent accroître l’accès à l’information, garantir l’exactitude, l’équité et une utilisation responsable reste un défi crucial.
Parler à Actualités médicales aujourd'huiDavid Liebovitz, MD, expert en intelligence artificielle en médecine clinique à la Northwestern University, partage ses réflexions sur la manière dont ChatGPT Health peut affecter la relation patient-médecin et sur la manière dont les professionnels de la santé (HCP) peuvent guider en toute sécurité l'utilisation appropriée des outils de santé de l'IA.
Sommaire
Cet outil sera-t-il bénéfique pour les professionnels de la santé et contribuera-t-il à améliorer les soins et les interactions avec les patients ?
Liebovitz : Oui, avec des mises en garde importantes. ChatGPT Health peut aider les patients à arriver mieux préparés avec des tendances de laboratoire résumées, des questions organisées et des lacunes en matière de soins identifiées.
C’est une avancée par rapport aux patients qui apportent des résultats Google fragmentés ou aucune préparation du tout. Pour les professionnels de la santé, cela pourrait signifier un temps de visite plus productif consacré à la compréhension des valeurs et des préférences d'un patient afin de soutenir une prise de décision partagée et une réduction plus rapide des écarts.
Le risque est un excès de confiance. Les patients peuvent supposer que les informations synthétisées par l’IA équivaut à un jugement clinique ou à un examen approfondi. Les professionnels de la santé devront développer de nouvelles compétences : valider ce que les patients apportent, corriger les idées fausses générées par l'IA et reconnaître lorsque l'outil a manqué le contexte qui change complètement le tableau clinique.
Quels conseils donneriez-vous aux professionnels de la santé lorsqu’ils discutent de ChatGPT avec des patients ?
Liebovitz : Reconnaître la valeur de l'outil tout en établissant des attentes appropriées.
Je suggérerais de le formuler comme : « Il est utile pour organiser vos questions et comprendre les concepts de base, mais il ne connaît pas les choses que je suis le seul à pouvoir évaluer, comme votre examen physique, votre ton pendant la conversation ou la façon dont vous avez répondu aux traitements antérieurs. »
Il est important de ne pas écarter les patients qui l’utilisent. Cela signale que nous n’écoutons pas (et ces outils s’améliorent). Demandez-leur plutôt ce qu’ils ont trouvé et quelles préoccupations cela a soulevées. Utilisez-le comme tremplin. S’ils apportent quelque chose d’incorrect, considérez-le comme un moment d’enseignement plutôt que comme une correction.
Comment les professionnels de la santé peuvent-ils conseiller aux patients d’utiliser les outils de santé basés sur l’IA en toute sécurité et de manière appropriée ?
Liebovitz : Trois principes :
Une préparation, pas un diagnostic
Utilisez-le pour organiser et proposer des questions, comprendre la terminologie ou suivre des modèles.
Proposer des sujets ou des questions utiles à discuter lors de la visite est alors une bonne chose, mais veuillez ne pas l'utiliser pour conclure sur ce qui ne va pas, sur ce qui se passera dans le futur ou pour décider de traitements spécifiques.
Dans ces scénarios, il ne disposera pas de toutes les informations dont il a besoin, mais il fournira néanmoins souvent des indications souvent erronées ou inutilement anxiogènes.
Vérifiez toujours
Tout ce qui modifie une décision médicale doit être considéré comme une suggestion douce provenant d’une source d’IA incomplète qui nécessite la confirmation de votre équipe soignante.
Cela dit, les lacunes dans les soins sont courantes, et il pourrait très bien y avoir des conseils utiles étant donné la complexité du diagnostic et du traitement en 2026, mais sachez que des conseils vraiment utiles qui ont un impact sur les décisions peuvent ne pas toujours être présents ou peuvent également être enfouis dans des suggestions bruyantes et inappropriées.
Comprendre les compromis en matière de confidentialité
Les données de santé partagées avec ChatGPT ne sont pas protégées par la Health Insurance Portability and Accountability Act (HIPAA).
Contrairement aux conversations avec des médecins ou des thérapeutes, il n’existe aucun privilège légal. Pour les questions sensibles telles que la santé reproductive, la santé mentale, la consommation de substances ou d'autres préoccupations personnelles, veuillez comprendre la perte de confidentialité avant d'utiliser l'outil.
Comment les professionnels de la santé peuvent-ils contribuer à réduire les malentendus lors de l’utilisation des conseils de santé générés par l’IA ?
Liebovitz : Le plus grand malentendu est que les informations générées par l’IA équivaut à un deuxième avis d’un clinicien. Ce n'est pas.
Les grands modèles linguistiques (LLM), tels que ChatGPT, prédisent un texte plausible ; ils ne vérifient pas la vérité ni n’évaluent le contexte clinique comme le fait un professionnel qualifié. Les professionnels de la santé peuvent vous aider en étant explicites : « ChatGPT peut résumer des informations et identifier des modèles, mais il peut avoir des hallucinations, manquer de nuances et n’a pas accès à votre examen, à votre historique avec moi et aux choses que vous ne lui avez pas dites. »
Les outils d'IA ne prennent pas non plus en compte les preuves tout en fournissant des conseils personnalisés en fonction des préférences spécifiques d'un patient, comme le fait un clinicien qualifié. La confiance d'un outil d'IA ne signifie pas correct. Les réponses apparaissent avec la même autorité, qu’elles soient exactes ou dangereusement fausses.
Dans 5 ans, comment pensez-vous que l’IA va changer la relation patient-médecin ?
Liebovitz : Je m'attends à ce que l'IA devienne une couche établie dans la plupart des interactions de soins (et en coulisses), telles que la gestion de la documentation, la mise en évidence d'un historique pertinent ou le signalement de problèmes potentiels.
Pour les patients, des outils tels que ChatGPT Health serviront de plus en plus d'assistant/compagnon de santé persistant qui les aidera à suivre, interpréter et se préparer (y compris l'identification des lacunes pour la discussion et des conseils comportementaux utiles en fonction des préférences d'un patient).
Le cœur de la relation avec un clinicien, à savoir la confiance, le jugement et la prise de décision partagée, ne sera pas automatisé.
Les médecins assistés par l’IA qui apprennent à travailler avec des patients assistés par l’IA, plutôt que contre eux, auront des conversations plus approfondies en moins de temps. Ceux qui évitent d’utiliser l’IA personnellement et par leurs patients verront leurs patients aller ailleurs, ou tout simplement ne pas leur dire ce que dit l’IA.
Pourquoi le lancement de ChatGPT Health par OpenAI est-il important à l'heure actuelle, étant donné que les patients recherchent déjà des informations sur la santé en ligne ?
Liebovitz : Parce que cela formalise ce qui se passait déjà de manière informelle.
Apparemment, 40 millions de personnes posaient déjà chaque jour des questions sur ChatGPT, notamment en téléchargeant des résultats de laboratoire, en décrivant des symptômes et en cherchant des explications. OpenAI construit désormais une infrastructure dédiée autour de ce comportement : des espaces cryptés, des dossiers médicaux connectés et des garde-fous explicites.
Le
Vous avez dit qu'il s'agissait d'une « avancée significative par rapport aux recherches Google ». Qu’est-ce qui le rend spécifiquement meilleur et où est-il encore insuffisant ?
Qu'est-ce qui le rend meilleur
Liebovitz : ChatGPT synthétise toutes les sources et se personnalise en fonction du contexte utilisateur-patient.
Au lieu de 10 liens bleus contenant des informations contradictoires, les patients reçoivent une explication cohérente fondée sur leurs propres données, y compris les tendances de laboratoire au fil du temps, les interactions médicamenteuses possibles, la préparation des rendez-vous spécifiques à leur situation.
Là où ça échoue
Liebovitz : Il peut encore halluciner. Les citations ne sont pas fiables. Il lui manque l’accès à l’examen physique, à la gestalt clinique, au contexte social qu’un clinicien qualifié rassemble en 5 minutes de conversation.
Les sorties LLM sont optimisées pour la plausibilité et non pour la précision. Cela fait que les mauvaises réponses semblent souvent plus sûres que les bonnes. Des détails critiques qu'un médecin de longue date connaît sur un patient peuvent manquer. Nos systèmes de données ne sont pas entièrement intégrés et il est également probable que ChatGPT aura moins accès aux dossiers complets que les médecins.
Le plus grand écart
Liebovitz : Aucune responsabilité. Lorsque je me trompe, il existe des mécanismes, notamment l'examen par les pairs, les fautes professionnelles, les commissions des licences, ma réputation professionnelle. Lorsque ChatGPT est erroné, vous pouvez déposer un pouce vers le bas.
Comment voyez-vous de manière réaliste les patients utilisant ChatGPT Health ?
Liebovitz : Je vois cinq scénarios de grande valeur :
- Préparation avant la visite : « Aidez-moi à comprendre mes laboratoires récents et à organiser les questions pour mon rendez-vous. Faites attention aux lacunes ou aux éléments en retard. »
- Clarification post-visite : « Mon médecin a mentionné X. Veuillez expliquer à nouveau ce que cela signifie et ce que je dois surveiller. »
- Enregistrements : « S'il vous plaît, rappelez-moi chaque semaine s'il y a quelque chose sur ma liste de choses à faire en matière de santé ou tout comportement sain spécifique que je devrais noter en fonction de mon historique.
- Navigation dans le système : « Comparez mes options d'assurance pour cette procédure » ou « Aidez-moi à faire appel de ce refus de couverture ».
- Questions de base sur la santé: S'il est suffisamment ancré dans des sujets médicaux de base, potentiel de questions/réponses améliorées sur des sujets médicaux généraux, bien que les symptômes actuels doivent ensuite être référés aux soins cliniques compte tenu des limites indiquées ci-dessus.
Vous avez fait part de vos inquiétudes concernant les protections HIPAA. Qu’est-ce que la plupart des patients comprennent mal à propos de la vie privée lorsqu’ils utilisent les outils de santé de l’IA ?
Liebovitz : La principale idée fausse est que toute conversation sur la santé est protégée comme une conversation avec son médecin. Ce n'est pas.
La HIPAA ne couvre que les « entités couvertes », c'est-à-dire les régimes de santé, les centres d'échange de soins de santé et les prestataires de soins de santé qui transmettent des informations sur la santé par voie électronique. Les outils d’IA grand public ne sont pas des entités couvertes.
Par conséquent, lorsque vous partagez des informations sur la santé avec ChatGPT, ces données pourraient théoriquement être assignées à comparaître, accessibles via des procédures juridiques ou, malgré les politiques déclarées d'OpenAI, utilisées d'une manière que vous n'aviez pas prévue.
Il n’y a rien de tel que le privilège patient-médecin. Pour les questions de santé sensibles, en particulier les problèmes de santé reproductive ou mentale dans l’environnement juridique actuel, cette distinction est importante.
Y a-t-il des domaines particuliers de la santé, tels que la santé mentale ou les soins reproductifs, pour lesquels vous recommanderiez une plus grande prudence ?
Liebovitz : Absolument. La santé mentale comporte des risques uniques : les chatbots IA ont été impliqués dans plusieurs cas de suicide où ils ont validé des idées nuisibles plutôt que de les aggraver de manière appropriée.
L’étude de l’Université Brown publiée l’année dernière a documenté des violations systématiques de l’éthique, notamment le renforcement des croyances négatives, la création d’une fausse empathie et la mauvaise gestion des situations de crise. Les LLM ne sont pas conçus pour reconnaître la décompensation.
Les soins de reproduction comportent un risque juridique en plus du risque clinique. Dans les États où l’avortement est restreint, tout enregistrement numérique de questions de santé reproductive devient une preuve potentielle.
Contrairement aux conversations avec votre médecin, les conversations ChatGPT ne sont pas protégées par le privilège légal. J'ajouterais également : la consommation de substances, la séropositivité, les informations génétiques, tout ce qui implique des poursuites judiciaires. Le fil conducteur est celui des scénarios dans lesquels la divulgation, même par inadvertance, entraîne des conséquences au-delà des soins cliniques.






















