En las redes circulan el discurso de odio y las plataformas mirar para otro lado
Suscribirme
1 06 2022

En las redes circulan el discurso de odio y las plataformas mirar para otro lado

Asi describe el informe del MIT la situación en torno a moderación de contenidos las aplicaciones sociales

Compartí la noticia

Por qué las redes sociales no pueden seguir moderando el contenido en las sombras

Las plataformas en línea no son transparentes sobre sus decisiones, lo que las deja abiertas a las afirmaciones sobre eliminación de contrenido y enmascara los verdaderos costos de la desinformación.

En 2016, podía contar, por un lado, con los tipos de intervenciones que las empresas de tecnología estaban dispuestas a utilizar para librar a sus plataformas de la desinformación, el discurso de odio y el acoso. A lo largo de los años, los mecanismos burdos como el bloqueo de contenido y la prohibición de cuentas se han transformado en un conjunto de herramientas más complejas, que incluyen temas en cuarentena, eliminación de publicaciones de la búsqueda, prohibición de recomendaciones y reducción de la clasificación de las publicaciones en prioridad.

Y, sin embargo, incluso con más opciones a su disposición, la desinformación sigue siendo un problema grave. Hubo una gran cobertura sobre la desinformación el día de las elecciones: mi colega Emily Drefyuss descubrió, por ejemplo, que cuando Twitter intentó lidiar con el contenido usando la etiqueta #BidenCrimeFamily, con tácticas que incluían la "desindexación" bloqueando los resultados de búsqueda, los usuarios, incluido Donald Trump, se adaptaron mediante el uso de variantes de la misma etiqueta. Pero todavía no sabemos mucho sobre cómo Twitter decidió hacer esas cosas en primer lugar, o cómo pesa y aprende de las formas en que los usuarios reaccionan a la moderación.

¿Qué medidas adoptaron estas empresas? ¿Cómo funcionan sus equipos de moderación? ¿Cuál es el proceso para tomar decisiones?

Mientras las empresas de redes sociales suspendían cuentas y etiquetaban y eliminaban publicaciones, muchos investigadores, organizaciones de la sociedad civil y periodistas se apresuraron a entender sus decisiones. La falta de transparencia sobre esas decisiones y procesos significa que, para muchos, los resultados de las elecciones terminan con un asterisco este año, al igual que en 2016.

En los últimos años, las empresas de plataformas han reunido grandes grupos de trabajo dedicados a eliminar la desinformación electoral y etiquetar las primeras declaraciones de victoria. Sarah Roberts, profesora de la UCLA, ha escrito sobre el trabajo invisible de los moderadores de contenido de la plataforma como una industria en la sombra, un laberinto de contratistas y reglas complejas de las que el público sabe poco. ¿Por qué no sabemos más?

En la niebla postelectoral, las redes sociales se han convertido en el terreno para una guerra de bajo grado contra nuestra seguridad cognitiva, con campañas de desinformación y proliferando teorías de conspiración. Cuando el negocio de las noticias de radiodifusión desempeñó el papel de guardián de la información, estaba cargado con obligaciones de interés público, como compartir información oportuna, local y relevante. Las empresas de redes sociales han heredado una posición similar en la sociedad, pero no han asumido esas mismas responsabilidades. Esta situación ha cargado los cañones por afirmaciones de sesgo y censura en la forma en que moderaron el contenido relacionado con las elecciones.

Suscribirme