Une nouvelle recherche menée par des experts en science des données de l’Université de l’Illinois à Urbana-Champaign et de l’ONU Global Pulse a révélé qu’il n’existe aucune preuve solide que YouTube ait encouragé un sentiment anti-vaccin pendant la pandémie de COVID-19.
L’étude, publiée dans le Journal de recherche sur Internet médicala effectué un audit algorithmique pour examiner si le système de recommandation de YouTube agissait comme un « trou à lapin », conduisant les utilisateurs recherchant des vidéos liées aux vaccins vers du contenu anti-vaccin.
Pour l’étude, les chercheurs ont demandé aux participants formés par l’Organisation mondiale de la santé et aux travailleurs d’Amazon Mechanical Turk de trouver intentionnellement une vidéo anti-vaccin en aussi peu de clics que possible, à partir d’une première vidéo d’information sur le COVID-19 publiée par l’OMS. Ils ont comparé les recommandations vues par ces utilisateurs aux vidéos connexes obtenues à partir de l’interface de programmation d’application YouTube et aux vidéos recommandées Up-Next de YouTube qui ont été vues par des navigateurs propres sans aucun cookie d’identification de l’utilisateur.
L’équipe a ensuite utilisé des méthodes d’apprentissage automatique pour classer le contenu anti-vaccin, analysant plus de 27 000 recommandations vidéo faites par YouTube.
« Nous n’avons trouvé aucune preuve que YouTube fasse la promotion de contenus anti-vaccins auprès de ses utilisateurs », a déclaré Margaret Yee Man Ng, professeur de journalisme de l’Illinois nommé à l’Institute of Communications Research et auteur principal de l’étude. « La part moyenne des vidéos anti-vaccin ou d’hésitation à la vaccination est restée inférieure à 6 % à toutes les étapes des trajectoires de recommandation des utilisateurs. »
L’objectif initial de la recherche était de mieux comprendre les techniques opaques de YouTube pour les recommandations de contenu – allant au-delà de l’interrogation des interfaces de programmation d’applications de la plate-forme pour collecter des données du monde réel – et si ces techniques orientent les utilisateurs vers un sentiment anti-vaccin et une hésitation face à la vaccination.
Nous voulions savoir comment différentes entités utilisaient la plate-forme pour diffuser leur contenu afin de pouvoir élaborer des recommandations sur la manière dont YouTube pourrait mieux lutter contre la désinformation. Contrairement à l’opinion publique, YouTube ne faisait pas la promotion de contenus anti-vaccins. L’étude révèle que les algorithmes de YouTube recommandaient plutôt d’autres contenus liés à la santé qui n’étaient pas explicitement liés à la vaccination. »
Katherine Hoffmann Pham, chercheuse à l’ONU Global Pulse, co-auteur de l’étude
« Les vidéos vers lesquelles les utilisateurs étaient dirigés étaient plus longues et contenaient un contenu plus populaire, et tentaient de promouvoir une stratégie à succès pour engager les utilisateurs en promouvant d’autres contenus fiables et à succès sur la plate-forme », a déclaré Ng.
L’étude a également permis aux chercheurs d’examiner en quoi les expériences réelles des utilisateurs diffèrent des recommandations personnalisées obtenues en interrogeant l’interface de programmation d’application « RelatedToVideo » de YouTube. Cette API est conçue pour aider les programmeurs à rechercher du contenu associé sur la plateforme ou à l’aide de navigateurs propres, reproduisant l’expérience d’un nouvel utilisateur visitant YouTube sans historique de recherche ou de visualisation, qui est souvent utilisé pour étudier le système de recommandation de la plateforme.
L’étude rapporte que les historiques de visionnage des utilisateurs affectent considérablement les recommandations vidéo, ce qui suggère que les données de l’API ou d’un navigateur propre n’offrent pas une image précise des suggestions que voient les utilisateurs réels. Les vrais utilisateurs ont vu un peu plus de contenu pro-vaccin à mesure qu’ils avançaient dans leurs trajectoires de recommandation. En revanche, les recherches effectuées par l’API ou par des navigateurs propres au cours de l’étude ont été orientées vers des recommandations non pertinentes au fur et à mesure de leur progression.
« Je pense que l’un des avantages de cette étude par rapport aux autres est qu’elle propose une méthodologie relativement légère pour recueillir des données réelles sur la façon dont les gens naviguent dans les recommandations vidéo de YouTube », a déclaré Pham. « Ainsi, contrairement aux API, qui suggèrent simplement de nouveaux liens au hasard, les utilisateurs peuvent examiner les liens de manière critique et en choisir un, ce qui imite en quelque sorte le comportement que de nombreuses personnes utiliseraient en réalité sur YouTube. »
Comprendre les systèmes de recommandation est important car cela favorise la transparence et les tient responsables », a ajouté le co-auteur Miguel Luengo-Oroz, professeur à l’École de Télécommunications de l’Université Polytechnique de Madrid. « Cela aide les gens à comprendre les choix qui sont faits pour eux par les concepteurs de plateformes. »
Ng est également affilié au Département d’informatique, au Centre national pour les applications du calcul intensif et au Centre des sciences sociales et comportementales de l’Illinois.