correction
Une version antérieure de cette histoire a mal surrisé un organisme à but non lucratif l'une des organisations dont le travail de l'étude NYU s'est appuyé sur.Newsguard est une entreprise à but lucratif qui aide les annonceurs à éviter que leurs publicités apparaissent sur les sites de désinformation et de canular.Cette version a été corrigée.
Une nouvelle étude du comportement des utilisateurs sur Facebook autour des élections de 2020 est susceptible de renforcer les arguments de longue date des critiques selon lesquels les algorithmes de l'entreprise alimentent la propagation de la désinformation sur des sources plus fiables.
Get the full experience.Choose your planLa prochaine étude évaluée par des pairs par des chercheurs de l'Université de New York et de l'Université Grenoble Alpes en France a révélé que d'août 2020 à janvier 2021, les éditeurs de nouvelles connues pour avoir mis de la désinformation ont obtenu six fois la quantité de likes, de partages et d'interactions sur laplate-forme comme les sources d'information dignes de confiance, telles que CNN ou l'Organisation mondiale de la santé.
Depuis que les «fausses nouvelles» sur Facebook sont devenues une préoccupation publique après l'élection présidentielle de 2016, les éditeurs qui font du trafic dans la désinformation ont été démontrés à plusieurs reprises pour obtenir un public majeur sur la plate-forme.Mais l'étude NYU est l'une des rares tentatives complètes pour mesurer et isoler l'effet de désinformation à travers un large groupe d'éditeurs sur Facebook, ont déclaré des experts, et ses conclusions soutiennent la critique que la plate-forme de Facebook récompense les éditeurs qui ont éteint des comptes trompeurs.
AdvertisementStory continues below advertisementL'étude «aide à ajouter à l'ensemble des preuves que, malgré une variété d'efforts d'atténuation, la désinformation a trouvé une maison confortable - et un public engagé - sur Facebook», a déclaré Rebekah Tromble, directrice de l'Institut pour les données, la démocratie et la politiqueà l'Université George Washington, qui a examiné les résultats de l'étude.
En réponse, Facebook a déclaré que le rapport mesurait le nombre de personnes qui s'engagent avec le contenu, mais ce n'est pas une mesure du nombre de personnes qui le voient réellement (Facebook ne fait pas ce dernier nombre, appelé impressions, accessibles au public aux chercheurs).
"Ce rapport examine principalement la façon dont les gens s'engagent avec le contenu, ce qui ne devrait pas être confondu avec le nombre de personnes qui le voient réellement sur Facebook", a déclaré le porte-parole de Facebook, Joe Osborne,."Lorsque vous regardez le contenu qui obtient le plus de portée sur Facebook, ce n'est pas du tout comme ce que cette étude suggère."
AdvertisementStory continues below advertisementIl a ajouté que la société a 80 partenaires de vérification de fait couvrant plus de 60 langues qui fonctionnent pour étiqueter et réduire la distribution de fausses informations.
Les auteurs de l'étude se sont appuyés sur les catégorisations de deux organisations qui étudient la désinformation, le newsguard et le biais / vérification des médias.Les deux groupes ont classé des milliers d'éditeurs Facebook par leurs tendances politiques, allant de l'extrême gauche à l'extrême droite, et par leur propension à partager des nouvelles dignes de confiance ou indignes de confiance.L'équipe a ensuite pris 2 551 de ces pages et comparé les interactions sur les publications sur les pages d'éditeurs connus pour la désinformation, tels que les démocrates d'Occupy de gauche et le Dan Bongino et Breitbart à droite, aux interactions sur les publications des éditeurs factuels.
Les chercheurs ont également constaté que le boost de désinformation statistiquement significatif est politiquement neutre - des pages de trafic de désinformation à l'extrême gauche et à l'extrême droite ont généré beaucoup plus d'engagement des utilisateurs de Facebook que les pages factuelles de toute inclinaison politique.Mais les éditeurs de droite ont une propension beaucoup plus élevée à partager des informations trompeuses que les éditeurs dans d'autres catégories politiques, a révélé l'étude.Cette dernière découverte fait écho aux conclusions d'autres chercheurs, ainsi que les propres résultats internes de Facebook avant les élections à mi-parcours de 2018, selon le Washington Post Reporting.
Seul Facebook connaît l'étendue de son problème de désinformation.Et ce n'est pas le partage, même avec la Maison Blanche.
Rafael Rivero, co-fondateur et président d'Occupy Democrats, a déclaré qu'il était curieux de savoir la méthodologie du rapport et a contesté l'idée que la page propage la désinformation. “We occasionally get small things wrong — and immediately issue corrections — but we would never deliberately mislead our readers," he added in an emailed statement.
AdvertisementStory continues below advertisementDans un message Twitter, Bongino a déclaré: «m'accuser dans votre élément de« désinformation »(sans citer un seul exemple crédible) tout en travaillant pour un« journal »qui a favorisé le ridicule canular de pipi, est un« journalisme »de pointe en 2021.Je dirais que vous devriez avoir honte, mais travailler pour le Washington Post rend incapable de honte."
Breitbart n'a pas répondu aux demandes de commentaires.
Les critiques de Facebook ont longtemps chargé que le contenu inflammatoire trompeur qui renforce souvent les points de vue de ses téléspectateurs génèrent beaucoup plus d'attention et de clics que les nouvelles traditionnelles.
That claim — which has been reiterated by members of Congress as well as by Silicon Valley engineers in films such as “The Social Dilemma" — had gained significant traction during the pandemic.Les théories du complot sur Covid-19 et les vaccins, ainsi que des informations trompeuses sur les traitements et les remèdes, sont devenues virales et ont peut-être influencé les vues d'un grand nombre d'Américains.Une récente enquête du projet Covid States a révélé que u.S.Les utilisateurs de Facebook étaient moins susceptibles d'être vaccinés tout autre type de consommateur d'actualités, même les consommateurs de Fox News à droite.
AdvertisementStory continues below advertisementPresident Biden upped the ante in July when he said covid-related misinformation on platforms such as Facebook was “killing people," a comment he later walked back.
Mais il y a eu peu de données difficiles pour étayer les affirmations sur les dommages causés par les algorithmes de Facebook, en partie parce que Facebook a limité les données auxquelles les chercheurs peuvent accéder, a déclaré Tromble.
En 2018, une étude du MIT des histoires trompeuses sur Twitter - une plate-forme dont le contenu, contrairement à Facebook, est largement publique - a révélé qu'ils fonctionnaient mieux parmi les utilisateurs de Twitter que les histoires factuelles.D'autres études ont montré que l'engagement avec la désinformation n'est pas aussi répandu que les gens pourraient le penser et que les personnes qui consomment et répartissent la désinformation ont tendance à être un petit nombre de partisans très motivés.
Facebook a partagé de nouvelles données sur ce qui est populaire sur sa plateforme.Les réponses sont profondément bizarres.
Facebook restreint également de plus en plus l'accès à des groupes externes qui tentent d'exploiter les données de l'entreprise.Au cours des derniers mois, la Maison Blanche a demandé à plusieurs reprises à Facebook des informations sur l'étendue de la désinformation covide sur la plate-forme, mais la société ne l'a pas fourni.
AdvertisementStory continues below advertisementL'un des chercheurs sur Facebook a serré le chercheur de la NYU, Laura Edelson, qui a mené l'étude.L'entreprise a coupé les comptes d'Edelson et ses collègues le mois dernier, faisant valoir que sa collecte de données - qui reposait sur les utilisateurs téléchargeant volontairement un widget logiciel qui permet aux chercheurs de suivre les annonces qu'ils voient - mettre Facebook potentiellement en violation d'un U 2019.S.Règlement de confidentialité de la Commission du commerce fédéral.
La Commission, dans une réfutation rare, a repris que le règlement fait des exceptions pour les chercheurs et que Facebook ne devrait pas l'utiliser comme excuse pour refuser au public la capacité de comprendre le comportement des gens sur les réseaux sociaux.
Edelson a noté que parce que Facebook a arrêté son projet, appelé l'Observatoire AD de NYU, le mois dernier, elle ne serait pas en mesure de continuer à étudier la portée et l'impact de la désinformation sur la plate-forme.
AdvertisementStory continues below advertisementEn réponse à la critique selon laquelle il devient moins transparent, Facebook a récemment publié un nouveau rapport de transparence qui montre le contenu le plus populaire de la plate-forme chaque trimestre.Mais le rapport est très organisé, et Facebook a censuré une version antérieure du rapport par préoccupation selon laquelle elle générerait une mauvaise presse, selon une personne familière avec les discussions qui ont parlé sous condition d'anonymat pour décrire les conversations sensibles.Cela a conduit les critiques à affirmer que l'entreprise n'était pas transparente.
L'une des raisons pour lesquelles il est difficile de dire combien d'exposition les gens ont à désinformer sur Facebook en particulier est que tant de contenu sont partagés dans des groupes privés, a déclaré Tromble.
Analyse: Les gens sont plus anti-vaccin s'ils obtiennent leurs nouvelles covidés de Facebook que de Fox News, montrent les données
Pour mener l'étude, l'équipe d'Edelson a utilisé un outil d'analyse commerciale appartenant à Facebook appelé CrowdTangle pour mener l'analyse.L'outil est souvent utilisé par les journalistes et les chercheurs pour suivre la popularité des publications.Mais CrowdTangle a également des limites: l'outil partage le nombre de likes et de partage un article particulier reçu, mais ne divulgue pas ce que l'on appelle les impressions, ni combien de personnes ont vu le message.
AdvertisementStory continues below advertisementEdelson a déclaré que l'étude a montré que les algorithmes Facebook ne récompensent pas la partisanerie ou les préjugés, ou favorisaient les sites d'un côté du spectre politique, comme certains critiques l'ont prétendu.Elle a dit que Facebook amplifie la désinformation parce que cela se porte bien avec les utilisateurs, et les sites qui ont plus de désinformation sont à droite.Parmi les éditeurs classés comme à l'extrême droite, ceux qui partagent la désinformation obtiennent une majorité - ou 68% - de tout engagement des utilisateurs.