Selon une nouvelle étude publiée dans Radiologieun journal de la Radiological Society of North America (RSNA).
Souvent présentés comme une « seconde paire d’yeux » pour les radiologues, les systèmes d’assistance mammographique basés sur l’IA sont l’une des applications les plus prometteuses de l’IA en radiologie. À mesure que la technologie se développe, on craint qu’elle ne rende les radiologues sensibles aux biais d’automatisation ; la tendance des humains à favoriser les suggestions des systèmes de prise de décision automatisés. Plusieurs études ont montré que l’introduction de la détection assistée par ordinateur dans le flux de travail de la mammographie pouvait nuire aux performances du radiologue. Cependant, aucune étude n’a examiné l’influence des systèmes basés sur l’IA sur la performance des lectures précises de mammographie par les radiologues.
Des chercheurs d’institutions allemandes et néerlandaises ont cherché à déterminer comment le biais d’automatisation peut affecter les radiologues à différents niveaux d’expérience lors de la lecture de mammographies à l’aide d’un système d’IA.
Dans l’expérience prospective, 27 radiologues ont lu 50 mammographies. Ils ont ensuite fourni leur évaluation du système de rapport et de données d’imagerie mammaire (BI-RADS) assistée par un système d’IA. BI-RADS est un système standard utilisé par les radiologues pour décrire et catégoriser les résultats d’imagerie mammaire. Bien que la catégorisation BI-RADS ne soit pas un diagnostic, elle est essentielle pour aider les médecins à déterminer les prochaines étapes des soins.
Les chercheurs ont présenté les mammographies en deux ensembles randomisés. Le premier était un ensemble d’entraînement de 10 dans lequel l’IA suggérait la bonne catégorie BI-RADS. Le deuxième ensemble contenait des catégories BI-RADS incorrectes, prétendument suggérées par AI, dans 12 des 40 mammographies.
Les résultats ont montré que les radiologues étaient nettement moins performants pour attribuer les scores BI-RADS corrects aux cas dans lesquels la prétendue IA suggérait une catégorie BI-RADS incorrecte. Par exemple, des radiologues inexpérimentés ont attribué le bon score BI-RADS dans près de 80 % des cas où l’IA a suggéré la bonne catégorie BI-RADS. Lorsque la prétendue IA a suggéré la mauvaise catégorie, leur précision est tombée à moins de 20 %. Les radiologues expérimentés ; ceux qui ont plus de 15 ans d’expérience en moyenne ; ont vu leur précision chuter de 82 % à 45,5 % lorsque la prétendue IA suggérait la catégorie incorrecte.
Nous avions prévu que des prédictions inexactes de l’IA influenceraient les décisions prises par les radiologues dans notre étude, en particulier ceux qui ont moins d’expérience. Néanmoins, il était surprenant de constater que même les radiologues très expérimentés étaient affectés par les jugements du système d’IA, bien que dans une moindre mesure que leurs homologues moins expérimentés. »
Thomas Dratsch, MD, Ph.D., Sauteur principal de l’étude, Institut de radiologie diagnostique et interventionnelle, à l’hôpital universitaire de Cologne à Cologne, Allemagne
Les chercheurs ont déclaré que les résultats montrent pourquoi les effets de l’interaction homme-machine doivent être soigneusement pris en compte pour garantir un déploiement sûr et des performances de diagnostic précises lors de la combinaison de lecteurs humains et d’IA.
« Compte tenu de la nature répétitive et hautement standardisée du dépistage par mammographie, le biais d’automatisation peut devenir un problème lorsqu’un système d’IA est intégré au flux de travail », a déclaré le Dr Dratsch. « Nos résultats soulignent la nécessité de mettre en œuvre des garanties appropriées lors de l’intégration de l’IA dans le processus radiologique pour atténuer les conséquences négatives du biais d’automatisation. »
Les garanties possibles incluent la présentation aux utilisateurs des niveaux de confiance du système d’aide à la décision. Dans le cas d’un système basé sur l’IA, cela pourrait être fait en montrant la probabilité de chaque sortie. Une autre stratégie consiste à enseigner aux utilisateurs le processus de raisonnement du système. S’assurer que les utilisateurs d’un système d’aide à la décision se sentent responsables de leurs propres décisions peut également contribuer à réduire le biais d’automatisation, a déclaré le Dr Dratsch.
Les chercheurs prévoient d’utiliser des outils tels que la technologie de suivi oculaire pour mieux comprendre le processus de prise de décision des radiologues utilisant l’IA.
« De plus, nous aimerions explorer les méthodes les plus efficaces pour présenter les résultats de l’IA aux radiologues d’une manière qui encourage l’engagement critique tout en évitant les pièges du biais d’automatisation », a déclaré le Dr Dratsch.