Getting your Trinity Audio player ready...

En marzo de 2018, un estudio publicado en la prestigiosa revista Science sacudió los cimientos de nuestra comprensión sobre la información en la era digital. Los investigadores del MIT Soroush Vosoughi, Deb Roy y Sinan Aral analizaron 126000 historias difundidas en Twitter entre 2006 y 2017, tuiteadas por aproximadamente 3 millones de personas más de 4.5 millones de veces. Sus hallazgos fueron contundentes: la desinformación se propaga más rápido, más lejos y con mayor profundidad que la información veraz .

Lo más revelador del estudio no fue simplemente la magnitud del fenómeno —las noticias falsas tienen un 70 % más de probabilidades de ser retuiteadas y alcanzan 1500 personas seis veces más rápido que las verdaderas— sino su causa fundamental. Contrariamente a la sabiduría convencional que culpaba a los bots automatizados, los investigadores descubrieron que los humanos, no los robots, son los principales responsables de la propagación viral de la falsedad . Cuando eliminaron todos los bots de su análisis, las diferencias entre la difusión de noticias falsas y verdaderas permanecieron intactas.

La explicación reside en la psicología humana y en cómo los algoritmos explotan nuestras vulnerabilidades. Vosoughi y sus colegas identificaron dos factores clave: la novedad y las emociones. Las noticias falsas son significativamente más novedosas que las verdaderas, y los usuarios tienen mayor probabilidad de compartir información novedosa. En las redes sociales, ser el primero en difundir una noticia —aunque sea falsa— confiere estatus social: demuestra que uno está «al tanto» o tiene acceso a información «exclusiva» . Además, el perfil emocional difiere radicalmente: las historias falsas inspiran miedo, asco y sorpresa, mientras que las verdaderas generan anticipación, tristeza, alegría y confianza . Estas emociones intensas son exactamente lo que los algoritmos de engagement priorizan, creando un círculo vicioso donde la desinformación alimenta la interacción y la interacción amplifica la desinformación.

Dos años después, en 2020, una investigación complementaria publicada en Nature Human Behaviour añadió una capa crucial de complejidad. Andrew Guess, Brendan Nyhan y Jason Reifler demostraron que la exposición a fuentes poco fiables durante procesos electorales no es uniforme: se concentra en segmentos específicos de la población con fuertes preferencias por información afín a sus actitudes políticas. Analizando datos de navegación web y encuestas de la campaña presidencial estadounidense de 2016, encontraron que los sitios web poco confiables constituyeron una pequeña parte de las dietas informativas generales, pero fueron consumidos intensivamente por un subconjunto específico: el 20% de los consumidores de noticias con dietas informativas más conservadoras generó el 62% de todo el tráfico hacia estos sitios . Estos «cámaras de eco profundas pero estrechas» revelan una asimetría informativa estructural que erosiona los cimientos de la deliberación democrática.

Estos hallazgos científicos iluminan con luz crítica la secuencia de escándalos que han marcado la última década. El documental The Great Hack (2019), dirigido por Karim Amer y Jehane Noujaim, expuso cómo Cambridge Analytica utilizó datos de 87 millones de perfiles de Facebook —obtenidos sin consentimiento— para influir en el Brexit y las elecciones presidenciales estadounidenses de 2016 . La película sigue a Brittany Kaiser, ex directora de desarrollo de negocios de la empresa, quien se convirtió en denunciante y reveló los métodos de «guerra de la información» empleados por la consultora . Kaiser testificó ante el Parlamento británico y colaboró con la investigación Mueller, confirmando que las plataformas de redes sociales se habían convertido en armas de manipulación política global.

Sin embargo, el escándalo de Cambridge Analytica no fue un caso aislado, sino la punta del iceberg. En septiembre de 2021, Frances Haugen, ex gerente de producto de Facebook, reveló su identidad como denunciante en una entrevista con 60 Minutes, acompañada de decenas de miles de páginas de documentos internos de la compañía . Los «Facebook Papers», publicados por un consorcio de 17 organizaciones periodísticas, expusieron cómo los algoritmos de la plataforma amplificaban sistemáticamente el odio, la desinformación y la polarización política para maximizar el engagement —y con ello, los beneficios publicitarios .

Haugen testificó ante el Congreso estadounidense y el Parlamento británico que Facebook estaba al tanto de estos problemas pero optaba por no actuar. Un estudio interno de 2021 revelado por la denunciante estimaba que la compañía solo actuaba sobre el 3-5% del discurso de odio y apenas el 0.6% de la violencia e incitación en la plataforma . Otro análisis interno de 2018 titulado «¿Recompensa Facebook la indignación?» encontraba que cuantos más comentarios negativos generaba una publicación, más probable era que los usuarios hicieran clic en los enlaces . Como señaló un empleado en los documentos filtrados: «La mecánica de nuestra plataforma no es neutral» .

La convergencia de estas investigaciones académicas y revelaciones de denunciantes traza un panorama preocupante. Los estudios de Vosoughi, Roy y Aral demuestran que la desinformación tiene ventajas estructurales inherentes en las redes sociales: es más novedosa y emocionalmente cargada. Los trabajos de Guess, Nyhan y Reifler muestran que estas dinámicas no afectan a todos por igual, sino que se concentran en segmentos vulnerables, reforzando cámaras de eco. Y las revelaciones de Kaiser y Haugen confirman que las plataformas han diseñado conscientemente sistemas que explotan estas vulnerabilidades para fines comerciales, con consecuencias democráticas devastadoras.

La implicación es clara: el problema no es técnico sino sistémico. No se trata simplemente de eliminar bots o etiquetar contenido falso, sino de reconocer que los algoritmos de engagement —diseñados para maximizar el tiempo de permanencia y la interacción— están programados para amplificar precisamente aquello que resulta más dañino para el discurso público. Como advirtió Haugen en su testimonio ante el Parlamento británico: «La versión de Facebook que existe hoy está desgarrando nuestras sociedades y causando violencia étnica en todo el mundo» .

Frente a este desafío, las soluciones requieren una transformación fundamental en la arquitectura de las plataformas. Sinan Aral, coautor del estudio de Science, señaló que el reconocimiento de que los humanos, no los bots, propagan la desinformación implica que «las intervenciones conductuales se vuelven aún más importantes en nuestra lucha por detener la propagación de noticias falsas» . Esto incluye rediseñar los algoritmos para no optimizar únicamente por engagement, aumentar la transparencia sobre cómo se distribuye el contenido, y regular estas plataformas como lo que son: infraestructura crítica de la democracia moderna.

La pregunta que nos debemos hacer no es si las redes sociales pueden ser espacios de deliberación racional —la evidencia sugiere que, en su configuración actual, están diseñadas para lo contrario— sino si estamos dispuestos a exigir cambios estructurales que prioricen la salud democrática sobre la rentabilidad corporativa. La ciencia ha hablado con claridad. Ahora corresponde a los ciudadanos, reguladores y diseñadores de plataformas decidir si escuchan.


Referencias:
: Vosoughi, S., Roy, D. & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146-1151.
: MIT News (2018). Fake news spreads faster than true news on Twitter—thanks to people, not bots.
: DOC NYC (2019). The Great Hack – Film description.
: Rotten Tomatoes (2019). The Great Hack documentary information.
: MIT News (2018). Study: On Twitter, false news travels faster than true stories.
: Axios (2025). Q&A with whistleblower Brittany Kaiser.
: Rev.com (2021). Frances Haugen 60 Minutes Interview Transcript.
: Journalist’s Resource (2023). FBarchive: A searchable repository of Facebook whistleblower documents.
: CNN (2021). October 25, 2021 internal Facebook documents revealed.
: Democracy Now (2020). Meet Brittany Kaiser, Cambridge Analytica Whistleblower.
: Guess, A.M., Nyhan, B. & Reifler, J. (2020). Exposure to untrustworthy websites in the 2016 US election. Nature Human Behaviour, 4(5), 472-480.
: PubMed (2020). Exposure to untrustworthy websites in the 2016 US election.
: Vosoughi et al. (2018). The Spread of True and False News Online – Supplementary materials on emotional content.

Generado por Kimi


admin

He sido profesor de la Universidad de Murcia. Impartí docencia de los departamentos de Física y de Informática y Sistemas. Interesado en la ciencia, el escepticismo y el pensamiento crítico.

0 comentarios

Deja una respuesta

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *