Suicidio, jóvenes y redes: un drama sin solución
Suscribirme
29 11 2023

Salud mental

Suicidio, jóvenes y redes: un drama sin solución

El padre de Molly Russell pide el fin de los algoritmos 'expulsando el contenido dañino' seis años después de su muerte Ian Russell dice que una nueva investigación muestra 'falla sistémica fundamental que continuará costando vidas jóvenes'.

Compartí la noticia

Los algoritmos de las redes sociales siguen "empujando contenido dañino a literalmente millones de jóvenes", seis años después de la muerte de Molly Russell, dijo el padre de la colegiala.

Ian Russell dijo que un nuevo informe de la organización benéfica de prevención del suicidio establecida en honor de su hija muestra "un fracaso sistémico fundamental" de los gigantes tecnológicos "que seguirá costando vidas jóvenes".

Molly, quien se quitó la vida, a los 14 años, en noviembre de 2017 después de ver publicaciones relacionadas con el suicidio, la depresión y la ansiedad en línea, habría estado celebrando su cumpleaños número 21 esta semana.

El pasado septiembre, un forense gobernó la colegiala, de Harrow, al noroeste de Londres, había estado "sufriendo depresión y los efectos negativos del contenido en línea".

La Fundación Molly Rose dijo que su nueva investigación muestra la "escala impactante y la prevalencia" de contenido dañino en Instagram, TikTok y Pinterest, seis años después de su muerte.

En TikTok, algunas de las publicaciones más vistas que hacen referencia al suicidio, la autolesión y el contenido altamente depresivo, han sido vistas y apreciadas más de un millón de veces, según la organización benéfica.

El informe dice que a los jóvenes se les recomienda habitualmente grandes volúmenes de contenido dañino alimentado por algoritmos de alto riesgo.
Si bien las preocupaciones sobre los hashtags se centraron principalmente en Instagram y TikTok, los temores sobre las recomendaciones algorítmicas también se aplicaron a Pinterest, dijo.

Russell, quien es presidente de los fideicomisarios de la Fundación Molly Rose, dijo: "Esta semana, cuando deberíamos celebrar el 21 cumpleaños de Molly, es triste ver la horrible escala de daños en línea y lo poco que ha cambiado en las plataformas de redes sociales desde la muerte de Molly.

"Cuanto más tiempo las compañías tecnológicas no aborden el daño prevenible que causan, más inexcusable se vuelve.

"Seis años después de la muerte de Molly, esto ahora debe verse como una falla sistémica fundamental que continuará costando vidas jóvenes.

"Así como Molly estaba abrumada por el volumen del contenido peligroso que la bombardeó, hemos encontrado evidencia de algoritmos que empujan el contenido dañino a literalmente millones de jóvenes.

"Esto debe parar. Cada vez es más difícil ver las acciones de las empresas de tecnología como algo más que una decisión comercial consciente para permitir que el contenido dañino alcance astronómico, mientras pasa por alto la miseria que se monetiza con publicaciones dañinas que se guardan y potencialmente 'binge watched' en sus decenas de miles."
El informe de la organización benéfica se creó con The Bright Initiative, analizando datos de 1.181 de las publicaciones más comprometidas en Instagram y TikTok que utilizaron hashtags conocidos en torno al suicidio, autolesión y depresión.

La fundación dijo que le preocupa que el diseño y la operación de las plataformas de redes sociales esté aumentando el riesgo para algunos jóvenes debido a la facilidad con la que podrían encontrar contenido potencialmente dañino buscando hashtags o recomendaciones.

Ley de seguridad en línea

También sugirió que las presiones comerciales pueden estar aumentando los riesgos a medida que los sitios compiten para captar la atención de los jóvenes y mantenerlos desplazándose a través de sus alimentos.

Russell dijo que los hallazgos destacaron la importancia de la nueva Ley de Seguridad en Línea y pidió que el nuevo regulador de seguridad en línea Ofcom sea "audaz" en cómo responsabiliza a las empresas de redes sociales bajo las nuevas leyes.

La Ley tareas empresas tecnológicas con la protección de los niños de contenido dañino y Ofcom publicará reglas en los próximos meses en torno a la promoción de material relacionado con el suicidio y la autolesión, con cada nuevo código que requiere la aprobación parlamentaria antes de su puesta en marcha.

Un portavoz de Meta dijo: "Queremos que los adolescentes tengan experiencias seguras y apropiadas para su edad en Instagram, y hemos trabajado en estrecha colaboración con expertos para desarrollar nuestro enfoque sobre el suicidio y el contenido de autolesiones, cuyo objetivo es lograr el importante equilibrio entre evitar que las personas vean contenido sensible mientras les da espacio para hablar sobre sus propias experiencias y encontrar apoyo."

Dijeron que se han construido más de 30 herramientas, incluido un control para limitar el tipo de contenido que se recomienda a los adolescentes, y la compañía anunciará pronto nuevas medidas.

Un portavoz de TikTok dijo: "El contenido que promueve la autolesión o el suicidio está prohibido en TikTok y, como destaca el informe, hacemos cumplir estrictamente estas reglas eliminando el 98% de contenido suicida antes de que se nos informe.

Suscribirme