Inédito macroestudio sobre usuarios de Facebook en EE.UU.: el 97% de las noticias políticas falsas circula entre audiencias conservadoras

La policía dispersa con gases lacrimógenos a los partidarios del Presidente de EE.UU., Donald Trump, que se manifiestan en el Capitolio en Washington, el 6 de enero de 2021. Foto: Reuters

Sandra González-Bailón, académica de la Universidad de Pennsylvania que participó en una de las investigaciones, comentó a La Tercera los alcances del estudio.


Una investigación académica en Estados Unidos con un acceso sin precedentes a información interna de Facebook, proporcionada por su empresa matriz Meta, ha permitido confirmar dos hipótesis respecto a esta popular red social: está dominada por noticias conservadoras y sus usuarios de derecha son quienes consumen de manera aplastante la información etiquetada como falsa.

El proyecto, llamado U.S. 2020 Facebook and Instagram Election Study, es el primero de este tipo y, para llevarlo a cabo, 17 académicos de 12 universidades estadounidenses se asociaron con Meta para realizar una investigación independiente sobre lo que la gente ve en las redes sociales y cómo les afecta. Las conclusiones se basan en la actividad agregada de 208 millones de usuarios estadounidenses durante varios meses alrededor de las elecciones de 2020 en ese país, es decir, durante el proceso electoral en que fue elegido Presidente Joe Biden.

Entre la serie de cuatro estudios -los primeros de un total de 16- publicados simultáneamente en las revistas Nature y Science destaca una investigación encabezada por la socióloga española Sandra González-Bailón, académica de la Escuela de Comunicación Annenberg de la Universidad de Pennsylvania, que abordó la cuestión de si Facebook permite la segregación ideológica en el consumo de noticias políticas.

El informe, según resume Science, indica que los usuarios políticamente conservadores están “mucho más segregados y encuentran mucha más desinformación en la plataforma”. En concreto, “Las audiencias que consumen noticias políticas en Facebook tienen, en general, una inclinación de derechas”, afirma el artículo. Pero la cantidad más sorprendente es la diferencia en el alcance de noticias etiquetadas como falsas por los fact-checkers de Meta (que solo suponen el 3% del total de links compartidos en la red): el 97% dentro de ese grupo de piezas circula entre usuarios conservadores.

En conversación con La Tercera, Sandra González-Bailón ahonda más en los detalles de su investigación.

Partidarios del Presidente de Estados Unidos Donald Trump ingresan al Capitolio en Washington, el 6 de enero de 2021.

Usted ha dicho que “no podemos desvincular lo que es algorítmico de lo que es social”. Considerando eso, ¿cómo se explica que el estudio sea tan categórico, mostrando que el 97% de las noticias falsas las ven usuarios de derechas?

El comentario acerca de que es muy difícil separar la curación algorítmica de la curación social se refiere a los cambios en niveles de segregación que observamos cuando comparamos el inventario de contenido que los usuarios podrían ver (dadas sus redes) con el contenido que ven y con el contenido con el que interactúan. Hay un proceso de retroalimentación entre el comportamiento de los usuarios y las recomendaciones algorítmicas que es muy difícil de deshacer con datos observacionales (que son los que usamos en este artículo). Por otro lado, el 97% al que se refiere resulta de algo muy concreto: el 97% de las noticias que circularon en Facebook que fueron identificadas como falsas por los verificadores con los que trabaja Meta tiene audiencias mayoritariamente conservadoras. Esta es una estadística muy precisa que describe lo que ocurrió en la plataforma.

Sandra González-Bailón, académica de la Escuela de Comunicación Annenberg de la Universidad de Pennsylvania.

A menudo se culpa a Facebook de crear burbujas y alimentar la polarización. ¿Cuánto de eso es cierto de acuerdo con lo que observaron en el estudio?

Nuestro estudio documenta que hay ciertas características en la plataforma que están asociadas con mayores niveles de segregación ideológica. En concreto, la existencia de Páginas y Grupos facilita una selección todavía más segregada de noticias políticas. Pero es imposible determinar, en base a los datos de este artículo, que Facebook ha causado la polarización política. Lo que mostramos es que la refleja y la acentúa al facilitar que Páginas y Grupos actúen como máquinas de diseminación segregada de información (máquinas que son particularmente eficientes entre audiencias conservadoras, de ahí la asimetría que documentamos).

¿Cuán extrapolables son los patrones descubiertos en este estudio a otros países?

No lo sabemos. Nuestros datos solo nos permiten hablar de lo que sucedió en Estados Unidos. Más investigación es necesaria para determinar si estos patrones también aparecen en otros países o contextos políticos (tal y como discutimos en el artículo).

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.