Dans une étude publiée dans la revue Avancées scientifiques, des chercheurs américains ont évalué l’efficacité des politiques de Facebook concernant la suppression de la désinformation sur les vaccins de la plateforme pendant la pandémie de maladie à coronavirus 2019 (COVID-19). Ils ont constaté que même si Facebook supprimait certains contenus anti-vaccins et pro-vaccins, il n’y avait pas de diminution de l’engagement global des utilisateurs avec le contenu anti-vaccin. De plus, lorsque le contenu pro-vaccin a été supprimé, le contenu anti-vaccin est devenu encore plus désinformatif, polarisé et était plus susceptible d’apparaître dans les fils d’actualité des utilisateurs. Les auteurs suggèrent que l’architecture du système de Facebook aurait pu permettre aux producteurs de contenu anti-vaccin de contourner les politiques anti-désinformation.
Étude : L’efficacité des politiques et de l’architecture de Facebook en matière de désinformation sur les vaccins pendant la pandémie de COVID-19. Crédit d’image : PeopleImages.com – Yuri A/Shutterstock
Sommaire
Arrière-plan
La désinformation numérique réduit la confiance des gens dans les preuves et recommandations cliniques, entravant ainsi la santé publique. La diffusion de fausses informations sur les réseaux sociaux pendant la pandémie de maladie à coronavirus 2019 (COVID-19) pourrait avoir réduit le taux d’adoption des vaccins, ce qui a conduit à une réduction stricte de ces informations erronées sur ces portails. Malgré l’imposition de remèdes « doux » comme les avertissements et de remèdes « durs » comme la suppression de contenus et de comptes répréhensibles, les preuves à court terme de leur efficacité restent peu concluantes, sans examen systématique à long terme.
Par conséquent, cette étude répond à la nécessité de comprendre si et pourquoi une combinaison de remèdes durs et doux pourrait potentiellement aider à réduire l’exposition des utilisateurs à la désinformation, en particulier la désinformation anti-vaccin sur Facebook, le plus grand réseau social au monde. Les chercheurs examinent également l’architecture du système de la plateforme pour comprendre comment elle a potentiellement affecté les résultats des politiques de lutte contre la désinformation.
À propos de l’étude
Les données de Facebook ont été téléchargées à l’aide de CrowdTangle à partir du 15 novembre 2020, précédant l’annonce par Facebook de remèdes durs contre la propagation de la désinformation sur le vaccin COVID-19.
La recherche a abouti à 216 pages en anglais et 100 groupes en anglais discutant des vaccins. Les données comprenaient 119 091 publications de pages et 168 419 publications de groupes entre le 15 novembre 2019 et le 15 novembre 2020. De même, 177 615 et 244 981 publications, respectivement, ont été créées sur les mêmes pages et groupes entre le 16 novembre 2020 et le 28 février 2022. Pages et groupes ont été traités différemment en raison de leurs fonctions distinctes dans l’architecture de la plateforme. Alors que les pages sont destinées à des objectifs marketing, où seuls les administrateurs peuvent ajouter des publications, les groupes permettent à chaque membre de publier, leur offrant ainsi un forum pour discuter d’intérêts communs. Il est important de noter que les pages peuvent agir en tant qu’administrateurs de groupe.
Une conception comparative de séries chronologiques interrompues (CITS) a été utilisée pour étudier les publications hebdomadaires dans des pages et des groupes publics anti- et pro-vaccin et les comparer aux tendances pré-politiques ainsi qu’entre elles. De plus, le nombre total d’engagements (somme des commentaires, partages, likes et réactions émotionnelles) a été mesuré pour chaque publication, car le contenu de Facebook dans les fils d’actualité des utilisateurs est priorisé à l’aide de ces paramètres. Par conséquent, selon l’étude, une politique qui réduit efficacement l’engagement envers le contenu anti-vaccin par rapport aux tendances pré-politiques serait considérée comme efficace.
Résultats et discussion
Au 28 février 2022, 49 pages et 31 groupes avaient été supprimés par Facebook, et 5 % des groupes anti-vaccins étaient passés du public au privé. Par rapport aux tendances pré-politiques, le volume du contenu des pages anti-vaccin a été réduit de 1,47 fois celui du contenu des pages pro-vaccin. Cependant, il n’y avait pas de différence significative dans l’engagement des utilisateurs envers le contenu des pages anti-vaccin.
De plus, sur les pages anti-vaccin, le contenu désinformatif principalement lié aux événements indésirables graves (rapport de cotes 1,41), y compris l’hospitalisation et le décès (rapport de cotes 1,23) après la vaccination contre la COVID-19, a augmenté. Une augmentation a également été observée dans les discussions en groupe anti-vaccin et pro-vaccin par rapport aux tendances pré-politiques. De plus, les liens peu crédibles vers des contenus externes ont augmenté jusqu’en septembre 2021 puis ont diminué. Cependant, les liens peuvent avoir exposé davantage les utilisateurs à des contenus politiquement polarisés, comme le montre un engagement accru (rapport de cotes 2,37). Les résultats mettent également l’accent sur la prise en compte de la demande des utilisateurs en matière de contenu désinformatif, ce qui est difficile à répondre uniquement par des politiques.
Les chercheurs suggèrent que l’architecture d’une plateforme pourrait permettre aux utilisateurs d’accéder à des contenus interdits via des chemins alternatifs. Dans le cas de Facebook, son architecture système est une hiérarchie en couches de pages, de groupes et d’utilisateurs, qui peuvent potentiellement être manipulées pour fournir de telles voies alternatives. Par exemple, dans la couche supérieure, les administrateurs de pages peuvent lier les pages des autres, ce qui facilite leur découverte. Dans la couche intermédiaire, les groupes et les pages peuvent interagir et partager simultanément le même contenu, permettant ainsi aux copies du contenu de rester sur la plateforme même après la suppression du contenu original. Dans la couche inférieure, les utilisateurs qui interagissent avec du contenu désinformatif dans leurs fils d’actualité finissent par accroître l’exposition des autres utilisateurs. L’étude se limite aux données publiques disponibles uniquement sur Facebook. De plus, les données ne font pas de différence entre les individus uniques qui publient et s’engagent et les mêmes individus qui publient à plusieurs reprises.
Conclusion
Les résultats de ces travaux suggèrent que même si les politiques de Facebook pourraient réduire les volumes de publications anti-vaccin, l’engagement envers le contenu anti-vaccin ne pourrait pas être réduit de manière durable. Selon l’étude, cela pourrait être attribué à la flexibilité offerte par l’architecture système de la plateforme à ses utilisateurs. Ainsi, l’étude met en évidence les défis liés à la lutte contre la propagation de la désinformation sur les médias sociaux et encourage en outre les concepteurs de plateformes à garantir que leurs politiques et l’architecture de leur système s’alignent sur les preuves scientifiques afin de réduire les menaces potentielles posées par les médias sociaux à la santé publique.