corrección
Una versión anterior de esta historia caracterizada como una organizaciones sin fines de lucro en cuyo trabajo se basó el estudio de la NYU.Newsguard es una empresa con fines de lucro que ayuda a los anunciantes a evitar que sus anuncios aparezcan en sitios de desinformación y engaño.esta version ha sido corregida.
Es probable que un nuevo estudio sobre el comportamiento del usuario en Facebook alrededor de las elecciones de 2020 impulse los argumentos de larga data de los críticos de que los algoritmos de la compañía alimentan la propagación de información errónea sobre fuentes más confiables.
Get the full experience.Choose your planEl próximo estudio revisado por pares realizados por investigadores de la Universidad de Nueva York y la Université Grenoble Alpes en Francia descubrió que desde agosto de 2020 hasta enero de 2021, los editores de noticias conocidos por publicar información errónea obtuvieron seis veces la cantidad de me gusta, acciones e interacciones sobre lasPlataforma al igual que las fuentes de noticias confiables, como CNN o la Organización Mundial de la Salud.
Desde que las "noticias falsas" en Facebook se convirtieron en una preocupación pública después de las elecciones presidenciales de 2016, se ha demostrado repetidamente que los editores que tráfico de información errónea pueden obtener un público importante en la plataforma.Pero el estudio de la NYU es uno de los pocos intentos integrales de medir y aislar el efecto de información errónea en un amplio grupo de editores en Facebook, dijeron los expertos, y sus conclusiones respaldan las críticas de que la plataforma de Facebook recompensa a los editores que presentan cuentas engañosas.
AdvertisementStory continues below advertisementEl estudio "ayuda a agregar al creciente cuerpo de evidencia de que, a pesar de una variedad de esfuerzos de mitigación, la información errónea ha encontrado un hogar cómodo, y un público comprometido, en Facebook", dijo Rebekah Tromble, directora del Instituto de Datos, Democracia y Políticaen la Universidad de George Washington, quien revisó los hallazgos del estudio.
En respuesta, Facebook dijo que el informe midió el número de personas que se involucran con el contenido, pero esa no es una medida del número de personas que realmente lo ven (Facebook no hace que el último número, llamado impresiones, esté disponible públicamente para los investigadores).
"Este informe analiza principalmente cómo las personas se involucran con el contenido, lo que no debe confundirse con cuántas personas realmente lo ven en Facebook", dijo el portavoz de Facebook Joe Osborne."Cuando miras el contenido que obtiene el mayor alcance en Facebook, no es nada como lo que sugiere este estudio."
AdvertisementStory continues below advertisementAgregó que la compañía tiene 80 socios verificadores de hechos que cubren más de 60 idiomas que trabajan para etiquetar y reducen la distribución de información falsa..
Los autores del estudio se basaron en las categorizaciones de dos organizaciones que estudian información errónea, verificación de sesgos/informes de los medios de comunicación y medios.Ambos grupos han categorizado a miles de editores de Facebook por sus inclinaciones políticas, que van desde el extremo izquierdo hasta el extremo derecho, y por su propensión a compartir noticias confiables o no confiables.Luego, el equipo tomó 2.551 de estas páginas y comparó las interacciones en las publicaciones en páginas por parte de los editores conocidos por la información errónea, como los demócratas Occupy de izquierda y la derecha, Dan Bongino y Breitbart, a interacciones en publicaciones de editores fácticos..
Los investigadores también encontraron que el impulso de información errónea estadísticamente significativa es políticamente neutral: páginas de tráfico de información errónea tanto en el extremo izquierdo como en la extrema derecha generaron mucho más compromiso de los usuarios de Facebook que las páginas fácticas de cualquier inclinación política..Pero los editores de la derecha tienen una propensión mucho mayor a compartir información engañosa que los editores en otras categorías políticas, encontró el estudio.Este último se hace eco de las conclusiones de otros investigadores, así como los propios hallazgos internos de Facebook antes de las elecciones de mitad de período de 2018, según informes de Washington Post.
Solo Facebook conoce el alcance de su problema de información errónea.Y no está compartiendo, incluso con la Casa Blanca.
Rafael Rivero, cofundador y presidente de Occupy Democrats, dijo que tenía curiosidad por la metodología en el informe y disputó la idea de que la página difunde la información errónea. “We occasionally get small things wrong — and immediately issue correccións — but we would never deliberately mislead our readers," he added in an emailed statement.
AdvertisementStory continues below advertisementEn un mensaje de Twitter, Bongino dijo: "acusándome en su pieza de" información errónea "(sin citar un solo ejemplo creíble) mientras trabajaba para un" periódico "que promovió el ridículo engaño de pipe-pee, es el" periodismo "máximo en 2021.Diría que deberías estar avergonzado, pero trabajar para el Washington Post te hace incapaz de vergüenza."
Breitbart no respondió a las solicitudes de comentarios.
Los críticos de Facebook han acusado durante mucho tiempo que el contenido inflamatorio engañoso que a menudo refuerza los puntos de vista de sus televidentes genera significativamente más atención y clics que las noticias convencionales..
That claim — which has been reiterated by members of Congress as well as by Silicon Valley engineers in films such as “The Social Dilemma" — had gained significant traction during the pandemic.Las teorías de conspiración sobre Covid-19 y las vacunas, junto con información engañosa sobre tratamientos y curas, se han vuelto virales y pueden haber influido en las opiniones de un gran número de estadounidenses.Una encuesta reciente realizada por el proyecto Covid States encontró que u.S.Los usuarios de Facebook tenían menos probabilidades de ser vacunados contra cualquier otro tipo de consumidor de noticias, incluso los consumidores de Fox News de la derecha..
AdvertisementStory continues below advertisementPresident Biden upped the ante in July when he said covid-related misinformation on platforms such as Facebook was “killing people," a comment he later walked back.
Pero ha habido pocos datos duros para hacer una copia de seguridad de las afirmaciones sobre el daño causado por los algoritmos de Facebook, en parte porque Facebook ha limitado los datos a los que los investigadores pueden acceder, dijo Tromble..
En 2018, un estudio del MIT de historias engañosas en Twitter, una plataforma cuyo contenido, a diferencia del Facebook, es en gran medida público, descubrió que se desempeñaron mejor entre los usuarios de Twitter que las historias fácticas que.Otros estudios han encontrado que el compromiso con la información errónea no está tan extendida como la gente podría pensar, y que las personas que consumen y difunden información errónea tienden a ser un pequeño número de partidarios altamente motivados.
Facebook compartió nuevos datos sobre lo que es popular en su plataforma.Las respuestas son profundamente extrañas.
Facebook también está restringiendo cada vez más el acceso a grupos externos que hacen intentos para extraer los datos de la compañía.En los últimos meses, la Casa Blanca ha pedido repetidamente a Facebook información sobre el alcance de la información errónea covid en la plataforma, pero la compañía no la proporcionó.
AdvertisementStory continues below advertisementUno de los investigadores en el que Facebook ha suscitado fue la investigadora de la NYU, Laura Edelson, quien realizó el estudio.La compañía cortó las cuentas de Edelson y sus colegas el mes pasado, argumentando que su recopilación de datos, que dependía de los usuarios descargando voluntariamente un widget de software que permite a los investigadores rastrear los anuncios que ven, pone a Facebook potencialmente en violación de un U 2019 u.S.Acuerdo de privacidad de la Comisión de Comercio Federal.
La comisión, en una rara refutación, respondió que el acuerdo hace excepciones para los investigadores y que Facebook no debería usarlo como una excusa para negarle al público la capacidad de comprender el comportamiento de las personas en las redes sociales.
Edelson señaló que debido a que Facebook detuvo su proyecto, llamado Observatorio del anuncio de la NYU, el mes pasado, no podría continuar estudiando el alcance y el impacto de la información errónea en la plataforma.
AdvertisementStory continues below advertisementEn respuesta a las críticas de que se está volviendo menos transparente, Facebook publicó recientemente un nuevo informe de transparencia que muestra el contenido más popular en la plataforma cada trimestre.Pero el informe está muy curado, y Facebook censuró una versión anterior del informe por preocupaciones de que generaría una mala prensa, según una persona familiarizada con las discusiones que hablaron bajo condición de anonimato para describir conversaciones sensibles.Eso llevó a los críticos a argumentar que la compañía no estaba siendo transparente.
Una de las razones por las que es difícil saber cuánta exposición tienen las personas para desinformarse en Facebook en particular es porque se comparte mucho contenido en grupos privados, dijo Tromble..
Análisis: las personas son más antivacámicas si reciben sus noticias covid de Facebook que de Fox News, según muestran los datos.
Para realizar el estudio, el equipo de Edelson utilizó una herramienta de análisis de negocios propiedad de Facebook llamada CrowdTangle para realizar el análisis.La herramienta a menudo es utilizada por periodistas e investigadores para rastrear la popularidad de las publicaciones..Pero CrowdTangle también tiene limitaciones: la herramienta comparte cuántos me gusta y comparte una publicación en particular recibida, pero no revela lo que se conoce como impresiones, o cuántas personas vieron la publicación..
AdvertisementStory continues below advertisementEdelson dijo que el estudio mostró que los algoritmos de Facebook no estaban recompensando el partidismo o el sesgo, o favoreciendo sitios en un lado del espectro político, como han afirmado algunos críticos..Ella dijo que Facebook amplifica la información errónea porque funciona bien con los usuarios, y los sitios que tienen más información errónea están a la derecha.Entre los editores categorizados como en el extremo derecho, aquellos que comparten información errónea obtienen una mayoría, o el 68 por ciento, de todos los compromisos de los usuarios.