29/11/2025
Un estudio ha descubierto que pequeños cambios en el tono de las publicaciones enviadas a los usuarios de X pueden aumentar en una semana la sensación de polarización política tanto como lo que históricamente hubiera llevado al menos tres años.
Un experimento innovador para medir la potencia de la plataforma social de Elon Musk para aumentar la división política descubrió que cuando las publicaciones que expresaban actitudes antidemocráticas y animosidad partidista se impulsaron, incluso apenas perceptiblemente, en los feeds de partidarios demócratas y republicanos, hubo un gran cambio en sus sentimientos desfavorables hacia el otro lado.
Las redes sociales son una fuente importante de información política, pero hay poca supervisión externa de los algoritmos y políticas en constante cambio de las plataformas. Esta opacidad presenta un problema importante: llevar a cabo un experimento en el mundo real sobre los efectos causales de las características de la plataforma generalmente requiere la colaboración de la plataforma que se está estudiando, lo que rara vez sucede, e incluso cuando sucede, los cambios futuros en la plataforma pueden invalidar los hallazgos anteriores.
En la página 903 de este número, Piccardi et al . nforman sobre una posible solución a este desafío. Los autores introducen un paradigma metodológico para probar el efecto de las redes sociales en la animosidad partidista sin la colaboración de la plataforma al reclasificar los feeds existentes de los usuarios utilizando modelos de lenguaje grandes (LLM) y una extensión del navegador. Encuentran que cambiar la visibilidad del contenido polarizador puede influir en los sentimientos de las personas sobre los partidarios de la oposición.
Las redes sociales están en un período de agitación. En los últimos 5 años, se han vendido importantes plataformas como Twitter (ahora X) y el número de plataformas ha crecido. Algunas plataformas también han realizado cambios en la moderación de contenido, incluida la eliminación de verificadores de hechos, y han pasado cada vez más de la distribución de contenido basada en redes sociales a un enfoque impulsado por algoritmos que se basa en publicaciones fuera de la red. Este panorama cambiante resalta aún más las preguntas sobre la "validez temporal" de la investigación en redes sociales: si los hallazgos son consistentes a lo largo del tiempo
Por ejemplo, los estudios han informado que las noticias falsas basadas en URL son raras en las redes sociales ( 3-5 ), pero ¿ es esto también cierto para los videos de formato corto? Una colaboración a gran escala entre Meta y académicos durante las elecciones estadounidenses de 2020 ( 6-9 ) informó efectos en gran medida nulos sobre la polarización política de cambiar algorítmicamente qué contenido se mostraba a los usuarios, pero ¿ fue este también el caso de las elecciones estadounidenses de 2024?
A pesar de estas preguntas apremiantes , los investigadores enfrentan restricciones sin precedentes a medida que las plataformas de redes sociales cambian hacia políticas de datos cerrados. Muchas empresas han limitado considerablemente el acceso de los investigadores a sus interfaces de programación de aplicaciones (API), herramientas desarrolladas por plataformas que permiten a los investigadores recopilar datos de forma eficiente. Lamentablemente, las colaboraciones de las plataformas con investigadores externos parecen ser eventos puntuales, en lugar de esfuerzos sostenidos. Este retroceso ha dejado a los investigadores a oscuras.
El grado de creciente división –conocido como “polarización afectiva”– logrado en una semana por los cambios que los académicos hicieron en los feeds de X usuarios fue tan grande como el que habría llevado en promedio tres años entre 1978 y 2020.
La mayoría de los más de 1.000 usuarios que participaron en el experimento durante las elecciones presidenciales estadounidenses de 2024 no notaron que se había cambiado el tono de su feed.
La campaña estuvo marcada por publicaciones virales divisivas en X, incluida una imagen falsa de Kamala Harris acurrucándose con Jeffrey Epstein en una gala y una imagen generada por IA publicada por Musk de Kamala Harris vestida como un dictador comunista que tuvo 84 millones de visitas.
La exposición repetida a publicaciones que expresan actitudes antidemocráticas y animosidad partidista “influye significativamente” en los sentimientos de polarización de los usuarios y aumenta la tristeza y la ira, descubrieron.
Musk compró Twitter en 2022, lo rebautizó como X e introdujo el feed "para ti", que en lugar de mostrar únicamente publicaciones relacionadas con las cuentas que los usuarios siguen activamente, actualiza el contenido calculado para maximizar la interacción.
El grado en que las publicaciones más antidemocráticas hacen que los usuarios sientan una mayor animosidad hacia los oponentes políticos “demuestra el poder del algoritmo”, dijo Martin Saveski, profesor asistente en la escuela de información de la Universidad de Washington, quien, con colegas de las universidades de Stanford, Johns Hopkins y Northeastern, produjo el estudio publicado en la revista Science .
“El cambio en sus publicaciones fue apenas perceptible, pero reportaron una diferencia significativa en cómo se sentían con respecto a otras personas”, añadió Tiziano Piccardi, profesor adjunto del departamento de informática de la Universidad Johns Hopkins y coautor de la investigación. “Según las tendencias en Estados Unidos, ese cambio corresponde a aproximadamente tres años de polarización”.
El estudio también encontró que cambios relativamente sutiles en el contenido de los feeds de los usuarios pueden reducir significativamente la animosidad política entre republicanos y demócratas, lo que sugiere que X tenía el poder de aumentar la armonía política si Musk decidía usarlo de esa manera.
“Lo emocionante de estos resultados es que las plataformas pueden reducir la polarización”, afirmó Saveski. “Es un nuevo enfoque que podrían adoptar al diseñar sus algoritmos”.
Se contactó a X para solicitarle comentarios.
Ocho de cada diez adultos estadounidenses afirman que republicanos y demócratas no solo no pueden ponerse de acuerdo en políticas y planes, sino que tampoco pueden ponerse de acuerdo en hechos básicos, según un estudio de Pew . Más de la mitad de los británicos cree que las diferencias en las opiniones políticas son tan divisivas que resultan peligrosas para la sociedad, según una encuesta reciente de Ipsos .
Los cambios en la polarización política resultantes de la exposición a las publicaciones de X se midieron mediante un enfoque novedoso. Primero, los académicos utilizaron IA para analizar las publicaciones en el feed "Para ti" de X en tiempo real.
Posteriormente, el sistema mostró las publicaciones más divisivas a un grupo y menos a otro, una facultad que normalmente es exclusiva de X. Las publicaciones divisivas incluían aquellas que mostraban apoyo a prácticas antidemocráticas, violencia partidista, oposición al consenso bipartidista y evaluaciones sesgadas de hechos politizados.
Tras una semana de leer estos feeds sutilmente modificados, los investigadores pidieron a los usuarios que calificaran su grado de afecto, frialdad, favorabilidad o desfavorabilidad hacia sus oponentes políticos. Los cambios en la "polarización afectiva" se clasificaron en más de dos grados en un termómetro de sentimientos de 0 a 100 grados. Este fue el mismo aumento de polarización que se produjo típicamente en EE. UU. en las cuatro décadas previas a 2020. Reducir la cantidad de publicaciones con actitudes antidemocráticas y animosidad partidista redujo la división política en una proporción similar.
Las plataformas de redes sociales han sido acusadas durante mucho tiempo de fomentar contenido divisivo para aumentar la participación de los usuarios y, por lo tanto, los ingresos publicitarios. Sin embargo, la investigación reveló que, si bien hubo una ligera reducción en la participación general (en términos de tiempo dedicado a la plataforma y número de publicaciones vistas) cuando se bajó la clasificación del contenido divisivo, esos usuarios tendieron a dar "me gusta" o a compartir con mayor frecuencia.
“El éxito de este método demuestra que puede integrarse en la IA de las redes sociales para mitigar las consecuencias negativas personales y sociales”, escribieron los autores. “Al mismo tiempo, nuestros análisis de interacción indican una compensación práctica: las intervenciones que minimizan el contenido antidemocrático y partidista pueden reducir el volumen de interacción a corto plazo, lo que plantea desafíos para los modelos de negocio basados en la interacción y respalda la hipótesis de que el contenido que provoca reacciones fuertes genera más interacción”.v