La technologie informatique a révolutionné le fonctionnement d’une grande partie du monde, de l’agriculture aux sciences spatiales. L’intelligence artificielle (IA) est une branche qui a suscité un immense intérêt populaire et scientifique au cours des dernières décennies. Un nouveau document de recherche discute du rôle qu’il pourrait jouer dans la pratique de l’obstétrique et de la gynécologie (OBG) à l’avenir.
Opinion clinique : Le potentiel passionnant de ChatGPT en obstétrique et gynécologie. Crédit d’image : cono0430/Shutterstock
Introduction
Le traitement du langage naturel (TAL) est une branche de l’IA qui traite de la façon dont les ordinateurs reconnaissent et traitent le langage humain. Les progrès récents ont conduit à une excellente reconnaissance informatique du texte et de la parole humains via des modèles d’apprentissage en profondeur.
Le ChatGPT nouvellement introduit est le porte-drapeau de ces avancées technologiques, car il semble montrer que les ordinateurs peuvent « parler » aux humains en utilisant un langage complexe et grammatical pour transmettre des informations complexes.
ChatGPT est un chatbot en ligne accessible au public sorti en novembre 2022. Le GPT dans son nom vient du fait qu’il a été développé par une société appelée OpenAI, basée sur un modèle NLP appelé Generative Pretrained Transformer (GPT). Ses avantages comprennent une interface simple médiatisée par du texte des deux côtés, un ensemble de données massif de 57 milliards de mots ou plus et 175 milliards de paramètres obtenus à partir d’une recherche sur Internet, des livres et d’autres sources.
Cela signifie que ChatGPT peut accéder à des documents liés à un éventail étourdissant de disciplines, ce qui le rend capable de traiter les questions d’information ou les invites de plusieurs domaines. Par exemple, il peut rédiger un article ou fournir une réponse à une question basée sur une situation clinique en langage clair, prouvant ainsi sa capacité dans le domaine des tâches langagières. Cependant, il a été accusé d’inventer des termes pour fournir des réponses apparemment correctes mais erronées.
L’étude actuelle, publiée en ligne dans le Journal américain d’obstétrique et de gynécologieest une démonstration concrète de la manière dont ChatGPT peut aider les utilisateurs intéressés par les sujets OBG en mettant à disposition des informations d’introduction sur n’importe quel domaine de cette discipline.
Qu’a montré l’étude ?
Les auteurs ont posé au chatbot une série de questions visant à évaluer dans quelle mesure ChatGPT pouvait gérer le besoin de fournir des informations authentiques sur les sujets OBG. Les sujets abordés allaient de la naissance prématurée, en passant par la supplémentation en progestérone, à la terminologie sexospécifique.
Dans l’ensemble, les réponses étaient « nuancé, éloquent, informé, avec pratiquement aucune erreur grammaticale.” Cela pourrait aider à éduquer les patients et leurs fournisseurs de soins de santé en utilisant un langage facile à comprendre pour transmettre des informations claires et nettes.
Cependant, les réponses peuvent changer au fil du temps à mesure que les ensembles de données sont mis à jour et étendus et que le modèle continue d’apprendre des invites fournies par les utilisateurs. Les réponses peuvent même se contredire si les invites sont formulées de manière inexacte ou sous des formes différentes.
Cela est attribuable au fait que son ensemble de formation contient des informations liées aux deux côtés de toute question, ce qui rend difficile la production d’une seule « bonne » réponse.
D’autre part, les ensembles de données utilisés pour former le modèle sont plus anciens et ne peuvent pas être rapidement mis à jour au fur et à mesure des besoins en raison du coût et du temps requis. Ainsi, toutes les réponses sont basées sur des données datant de ou antérieures à 2021.
« ChatGPT est seulement aussi bon que ses données de formation dérivées. Ces données sont potentiellement biaisées, peu fiables et ne sont pas nécessairement à jour.”
Il s’agit d’une fonctionnalité de ChatGPT que tous ses utilisateurs doivent connaître, car elle empêche la présentation de vues prenant en compte des recherches ultérieures à cette date.
Deuxièmement, le fait que ChatGPT n’est, après tout, pas humain peut conduire à des incompréhensions des requêtes. De plus, il ne fournit pas de citations de ses sources, ce qui pourrait induire l’utilisateur en erreur en lui faisant croire que les réponses sont valables alors qu’elles pourraient provenir de sources potentiellement erronées. « Un ChatGPT apparemment satisfaisant risque d’induire en erreur sans avertissement approprié.”
Enfin, il ne raisonne pas, il ne fait que compiler des données.
« ChatGPT écrit parfois des réponses plausibles mais incorrectes ou absurdes et répond parfois à des instructions nuisibles ou présente un comportement biaisé.”
OpenAI a déjà déclaré les limites de ChatGPT, et les utilisateurs feraient bien de tenir compte de ces avertissements tout en exploitant ses avantages.
Quelles sont les implications ?
Les auteurs de l’étude concluent que malgré l’avantage évident d’avoir une source d’informations précoces pour les utilisateurs qui souhaitent en savoir plus sur des conditions spécifiques que ce qui peut être fourni lors d’une consultation typique avec leurs prestataires de soins de santé, ChatGPT a également des limites importantes.
Ils ont constaté qu’il avait le potentiel d’éduquer les utilisateurs d’une manière lisible, compréhensible et généralement correcte, en évitant les erreurs et la désinformation. Cependant, il peut fournir des réponses erronées, contradictoires ou obsolètes, susceptibles d’induire les utilisateurs en erreur. Il faut admettre que d’autres publications scientifiques ne sont pas non plus garanties pour fournir les preuves les plus récentes.
Des revues telles que JAMA ont annoncé des lignes directrices sur l’utilisation de ces technologies dans leurs publications. Ceci est basé sur la reconnaissance des limites des chatbots en tant que sources d’informations scientifiques et de la possibilité de plagiat. La vérification de l’exactitude est une précaution obligatoire si ces modèles sont utilisés pour faciliter la rédaction de textes scientifiques.
« Les auteurs estiment que ChatGPT et la perspective de nouveaux modèles à venir ont la possibilité d’ajouter une nouvelle dimension à notre spécialité. Utilisation responsable de [such models] seront importants pour s’assurer qu’ils travaillent pour aider mais pas nuire aux utilisateurs à la recherche d’informations en obstétrique et gynécologie.”