correção
Uma versão anterior desta história descaracterizou uma organização sem fins lucrativos, uma das organizações cujo trabalho sobre o qual o estudo da NYU confiou.O Newsguard é uma empresa com fins lucrativos que ajuda os anunciantes a evitar que seus anúncios apareçam em sites de informações erradas e faróis.Esta versão foi corrigida.
Um novo estudo do comportamento do usuário no Facebook em torno das eleições de 2020 provavelmente reforçará os argumentos de longa data dos críticos de que os algoritmos da empresa alimentam a disseminação de informações erradas sobre fontes mais confiáveis.
Get the full experience.Choose your planO próximo estudo revisado por pares de pesquisadores da Universidade de Nova York e da Université Grenoble Alpes na França descobriu que, de agosto de 2020 a janeiro de 2021, os editores de notícias conhecidos por divulgar a desinformação obtiveram seis vezes a quantidade de curtidas, ações e interações no The thePlataforma, assim como fontes de notícias confiáveis, como a CNN ou a Organização Mundial da Saúde.
Desde que “notícias falsas” no Facebook se tornou uma preocupação pública após as eleições presidenciais de 2016, os editores que tráfego em desinformação foram mostrados repetidamente como capazes de ganhar grandes públicos na plataforma.Mas o estudo da NYU é uma das poucas tentativas abrangentes de medir e isolar o efeito de desinformação em um amplo grupo de editores no Facebook, disseram especialistas, e suas conclusões apóiam as críticas de que os editores de recompensas da plataforma do Facebook que divulgam contas enganosas.
AdvertisementStory continues below advertisementO estudo "ajuda a aumentar o crescente corpo de evidências de que, apesar de uma variedade de esforços de mitigação, a desinformação encontrou um lar confortável - e um público engajado - no Facebook", disse Rebekah Tromble, diretor do Instituto de Dados, Democracia e Políticana Universidade George Washington, que revisou as descobertas do estudo.
Em resposta, o Facebook disse que o relatório mediu o número de pessoas que se envolvem com o conteúdo, mas isso não é uma medida do número de pessoas que realmente o veem (o Facebook não torna o último número, chamado impressões, publicamente disponível para os pesquisadores).
"Este relatório analisa principalmente como as pessoas se envolvem com o conteúdo, que não deve ser confundido com quantas pessoas realmente o veem no Facebook", disse o porta -voz do Facebook Joe Osborne."Quando você olha para o conteúdo que obtém o maior alcance no Facebook, não é nada como o que este estudo sugere.”
AdvertisementStory continues below advertisementEle acrescentou que a empresa tem 80 parceiros de verificação de fatos cobrindo mais de 60 idiomas que funcionam para rotular e reduzir a distribuição de informações falsas.
Os autores do estudo confiaram em categorizações de duas organizações que estudam desinformação, guarda -notícias e preconceitos de mídia/verificação de fatos.Ambos os grupos categorizaram milhares de editores do Facebook por suas tendências políticas, variando da extrema esquerda à extrema direita e por sua propensão a compartilhar notícias confiáveis ou não confiáveis.A equipe então pegou 2.551 dessas páginas e comparou as interações nas postagens nas páginas de editores conhecidos por desinformação, como os democratas de Occupy de esquerda e os Dan Bongino e Breitbart, de maneira certa, para interações nas postagens de publicadores factuais.
Os pesquisadores também descobriram que o impulso estatisticamente significativo de desinformação é politicamente neutro-páginas de tráfico de informações, tanto na extrema esquerda quanto na extrema direita, geraram muito mais engajamento dos usuários do Facebook do que as páginas factuais de qualquer inclinação política.Mas os editores à direita têm uma propensão muito maior a compartilhar informações enganosas do que os editores em outras categorias políticas, o estudo encontrou.Esta última descoberta ecoa as conclusões de outros pesquisadores, bem como as próprias descobertas internas do Facebook antes das eleições de médio prazo de 2018, de acordo com os relatórios do Washington Post.
Somente o Facebook sabe a extensão de seu problema de desinformação.E não está compartilhando, mesmo com a Casa Branca.
Rafael Rivero, co-fundador e presidente da Occupy Democrats, disse que estava curioso sobre a metodologia no relatório e contestou a idéia de que a página espalha a desinformação. “We occasionally get small things wrong — and immediately issue correçãos — but we would never deliberately mislead our readers,” he added in an emailed statement.
AdvertisementStory continues below advertisementEm uma mensagem do Twitter, Bongino disse: "Acusando-me em sua peça de" desinformação "(sem citar um único exemplo credível) enquanto trabalhava para um" jornal "que promoveu a ridícula farsa de xixi, é o pico de" jornalismo "em 2021.Eu diria que você deveria ter vergonha, mas trabalhar para o Washington Post torna você incapaz de vergonha.”
Breitbart não respondeu aos pedidos de comentário.
Os críticos do Facebook há muito tempo acusam o conteúdo inflamatório enganoso que geralmente reforça os pontos de vista de seus espectadores gera significativamente mais atenção e cliques do que as notícias principais.
Essa alegação - que foi reiterada pelos membros do Congresso e pelos engenheiros do Vale do Silício em filmes como "O Dilema Social" - ganhou tração significativa durante a pandemia.Teorias da conspiração sobre Covid-19 e vacinas, juntamente com informações enganosas sobre tratamentos e curas, se tornaram virais e podem ter influenciado as opiniões de um grande número de americanos.Uma pesquisa recente do Projeto Covid States descobriu que você.S.Os usuários do Facebook eram menos propensos a serem vacinados qualquer outro tipo de consumidor de notícias, até os consumidores da Fox News de direita.
AdvertisementStory continues below advertisementO presidente Biden aumentou a aposta em julho, quando disse que a desinformação relacionada à Covid em plataformas como o Facebook estava "matando pessoas", um comentário que ele mais tarde voltou.
Mas houve poucos dados difíceis para fazer backup das afirmações sobre os danos causados pelos algoritmos do Facebook, em parte porque o Facebook limitou os dados que os pesquisadores podem acessar, disse Tromble.
Em 2018, um estudo do MIT sobre histórias enganosas no Twitter - uma plataforma cujo conteúdo, diferentemente do Facebook, é amplamente público - descobriu que eles tiveram melhor desempenho entre os usuários do Twitter do que as histórias factuais.Outros estudos descobriram que o engajamento com a desinformação não é tão difundido quanto as pessoas podem pensar e que as pessoas que consomem e espalham informações desinformantes tendem a ser um pequeno número de partidários altamente motivados.
O Facebook compartilhou novos dados sobre o que é popular em sua plataforma.As respostas são profundamente estranhas.
O Facebook também está cada vez mais restringindo o acesso a grupos externos que fazem tentativas para extrair os dados da empresa.Nos últimos meses, a Casa Branca pediu repetidamente informações sobre o Facebook sobre a extensão da desinformação covid na plataforma, mas a empresa não o forneceu.
AdvertisementStory continues below advertisementUm dos pesquisadores que o Facebook reprimiu foi o pesquisador da NYU, Laura Edelson, que conduziu o estudo.A empresa cortou as contas de Edelson e seus colegas no mês passado, argumentando que sua coleta de dados - que dependia de usuários baixando voluntariamente um widget de software que permite aos pesquisadores rastrear os anúncios que eles vêem - colocar o Facebook potencialmente violando um 2019 U.S.Liquidação de privacidade da Comissão Federal de Comércio.
A Comissão, em uma refutação rara, revidou que o acordo faz exceções para os pesquisadores e que o Facebook não deve usá -lo como uma desculpa para negar ao público a capacidade de entender o comportamento das pessoas nas redes sociais.
Edelson observou que, como o Facebook interrompeu seu projeto, chamado NYU Ad Observatory, no mês passado, ela não seria capaz de continuar estudando o alcance e o impacto da desinformação na plataforma.
AdvertisementStory continues below advertisementEm resposta às críticas de que está se tornando menos transparente, o Facebook publicou recentemente um novo relatório de transparência que mostra o conteúdo mais popular da plataforma a cada trimestre.Mas o relatório é altamente com curadoria e o Facebook censurou uma versão anterior do relatório das preocupações de que geraria má imprensa, de acordo com uma pessoa familiarizada com as discussões que falavam com a condição de anonimato para descrever conversas confidenciais.Isso levou os críticos a argumentar que a empresa não estava sendo transparente.
Uma das razões pelas quais é difícil dizer a quantidade de exposição que as pessoas têm para desinformar no Facebook em particular é porque muito conteúdo é compartilhado em grupos privados, disse Tromble.
Análise: As pessoas são mais anti-vacinas se receberem suas notícias covid do Facebook do que da Fox News, os dados mostram
Para conduzir o estudo, a equipe de Edelson usou uma ferramenta de análise de negócios de propriedade do Facebook chamada CrowdTangle para conduzir a análise.A ferramenta é frequentemente usada por jornalistas e pesquisadores para rastrear a popularidade das postagens.Mas o CrowdTangle também tem limitações: a ferramenta compartilha quantos gostos e compartilha um post em particular recebeu, mas não divulga o que é conhecido como impressões, ou quantas pessoas viram o post.
AdvertisementStory continues below advertisementEdelson disse que o estudo mostrou que os algoritmos do Facebook não estavam recompensando partidarismo ou preconceito, ou favorecendo sites em um lado do espectro político, como alguns críticos afirmaram.Ela disse que o Facebook amplifica a desinformação porque se sai bem com os usuários, e os sites que têm mais informações erradas estão à direita.Entre os editores categorizados como a extrema direita, aqueles que compartilham desinformação recebem maioria - ou 68 % - de todo o engajamento dos usuários.