“Hacemos todo lo posible por mantener Facebook seguro, pero no podemos garantizarlo”
Meta, a juicio por la seguridad infantil: ¿puede realmente proteger a su próxima generación de usuarios?
Meta se enfrenta a un ajuste de cuentas por sus prácticas de seguridad infantil, ya que un juicio ha sacado a la luz nuevas acusaciones de que la empresa priorizó los incentivos económicos y la captación de clientes por encima de la protección de los niños.
El histórico juicio en Nuevo México ha concluido su quinta semana, y el fiscal general del estado dio por finalizada la presentación de pruebas el 5 de marzo. Se prevé que el proceso continúe durante una semana más, mientras Meta presenta su defensa antes de que el jurado comience las deliberaciones.
Un elemento central del caso son los documentos internos de la empresa obtenidos por la fiscalía durante la fase de presentación de pruebas, incluidos correos electrónicos entre ejecutivos de Meta que señalan problemas urgentes de explotación en Facebook e Instagram .
“Los datos demuestran que Instagram se había convertido en el principal mercado bilateral para la trata de personas”, afirmaba un correo electrónico enviado a Adam Mosseri, director de Instagram, por un miembro del equipo de producto de Meta en 2019, que fue leído en el tribunal.
Los fiscales han presentado pruebas que, según afirman, demuestran retrasos y deficiencias en la capacidad de Meta para detectar y denunciar los daños sufridos por los niños en sus plataformas, incluida la distribución de material de abuso sexual infantil (fotos y vídeos de la explotación sexual de menores) y la trata de niños.
Tanto en el juicio celebrado en Nuevo México como en los procedimientos judiciales simultáneos en Los Ángeles , las funciones de Facebook e Instagram también han sido objeto de escrutinio por su presunto impacto en la salud mental de los niños. Los demandantes alegan que las redes sociales son intencionalmente adictivas y amplifican contenido que promueve la autolesión, las ideas suicidas y la dismorfia corporal.
La defensa ha rechazado enérgicamente las acusaciones del fiscal general, calificándolas de «argumentos sensacionalistas, irrelevantes y que desvían la atención», y ha afirmado que se esfuerza enormemente por garantizar la seguridad de sus plataformas y que continúa invirtiendo en nuevas funciones de protección para adolescentes. El jurado también ha escuchado a ejecutivos de la compañía, incluidos Mosseri y Mark Zuckerberg , director ejecutivo de Meta, quienes han defendido el historial de seguridad de la empresa. Asimismo, argumentaron que, con miles de millones de usuarios en Facebook e Instagram en todo el mundo, sería imposible prevenir todos los delitos y daños que se producen en ellas .
“Hacemos todo lo posible por mantener Facebook seguro, pero no podemos garantizarlo”, dijo Mosseri, quien viajó a Santa Fe para testificar a favor de la defensa, después de que su declaración en video se reprodujera en el tribunal al inicio del juicio. “La seguridad es sumamente importante para nosotros”.
La demanda surge tras una investigación de dos años realizada por The Guardian, publicada en 2023, que reveló que Meta tenía dificultades para impedir que se utilizaran sus plataformas para el tráfico de menores. Dicha investigación se menciona en varias ocasiones en los documentos presentados en la demanda.
Los dos casos plantean una cuestión existencial para Meta: ¿puede proteger a su próxima generación de usuarios? Si la empresa quiere que sus redes sociales sobrevivan y crezcan, necesita captar usuarios nuevos y más jóvenes. Meta argumenta que sus redes sociales ofrecen entornos más seguros que cualquier otra alternativa. El fiscal general de Nuevo México sostiene que la empresa tecnológica no atiende adecuadamente a los adolescentes que ya utilizan sus sitios y aplicaciones, al igual que los demandantes en el juicio de Los Ángeles , quienes alegan que Meta diseña sus productos para que sean adictivos para los jóvenes. Los defensores de la seguridad infantil que intervinieron en el juicio en Santa Fe afirmaron que el cifrado de Messenger y el enorme retraso en los informes de abuso infantil de Meta han obstaculizado sus investigaciones sobre explotación infantil.
Los documentos de los casos han demostrado hasta qué punto Meta desea atraer a jóvenes a sus plataformas. Un correo electrónico interno dice: «Mark ha decidido que la máxima prioridad de la empresa en 2017 son los adolescentes», refiriéndose a Zuckerberg. El director ejecutivo negó en el estrado que la empresa se dirija a usuarios menores de 13 años, la edad límite para crear una cuenta, aunque afirmó que las restricciones de edad eran difíciles de aplicar.
Meta se enfrenta a un escrutinio regulatorio global tras los dos veredictos en Estados Unidos. Países de todo el mundo siguen el ejemplo de Australia, que prohibió el uso de redes sociales a menores de 16 años. El cuarto país más poblado del mundo ya ha implementado su propio sistema de restricción de edad, al igual que el tercer estado más grande de Estados Unidos . Si los juicios en Nuevo México y Los Ángeles concluyen con una declaración de responsabilidad por trata de menores con fines de abuso sexual y adicción intencional por parte de Meta, podrían influir en más legisladores para que le impidan a la empresa acceder a los usuarios que necesita.
Operación Metafilo
Uno de los pilares fundamentales del caso de Nuevo México es la investigación denominada " Operación MetaPhile ", llevada a cabo por la fiscalía general. Agentes encubiertos, haciéndose pasar por niñas menores de 13 años, fueron contactados por tres sospechosos que supuestamente les ofrecieron favores sexuales tras buscar menores a través de perfiles de Facebook e Instagram. Dos de ellos quedaron con la "niña" en un motel de Gallup, Nuevo México.
Según los documentos presentados ante el tribunal estatal, los agentes no iniciaron ninguna conversación sobre actividad sexual. Una de sus cuentas experimentó un aumento repentino de actividad, con cientos de solicitudes de amistad diarias, y acumuló 7000 seguidores en un mes, según un investigador. A pesar de esta actividad, Meta no cerró la cuenta y, en cambio, le envió información sobre cómo monetizar cuentas y aumentar su número de seguidores, indicaron los investigadores.
El estado también presentó acusaciones de que los algoritmos de Instagram conectan a pedófilos o les ayudan a encontrar vendedores de material de abuso sexual infantil, lo que Mosseri calificó de "injusto".
“Creo que lo que vemos con estos actores particularmente malintencionados es que intentan activamente eludir nuestros sistemas disfrazando las cosas”, dijo Mosseri. “Intentan encontrarse entre sí en nuestra plataforma”.
Exdirectivos de la empresa testificaron en contra de su antiguo empleador.
“No creía en absoluto que la seguridad fuera una prioridad, y esa es la razón principal por la que me fui”, dijo Brian Boland, ex vicepresidente de alianzas de Meta, quien trabajó en la empresa durante 11 años antes de marcharse en 2020.
El servicio de mensajería cifrada bloqueó el acceso a las pruebas de los delitos.
El tribunal de Nuevo México escuchó cómo la decisión de Meta de cifrar Facebook Messenger, que los depredadores han utilizado como herramienta para manipular a menores e intercambiar imágenes de abuso infantil, ha bloqueado el acceso a pruebas cruciales de estos delitos.
En diciembre de 2023, Meta implementó el cifrado de extremo a extremo en Facebook Messenger, su plataforma de mensajería directa. El cifrado garantiza que solo el remitente y el destinatario previsto puedan ver los mensajes, ya que los convierte en un código ilegible que se descifra al recibirlos. El contenido de los mensajes no se almacena en los servidores de Meta y las autoridades no pueden acceder a él.
El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), financiado en parte por Meta, calificó la medida como un "golpe devastador para la protección infantil", y sus representantes se habían reunido con Meta en varias ocasiones para intentar disuadir a la empresa de implementar el cifrado, según se escuchó en el tribunal.
Las empresas de redes sociales con sede en Estados Unidos están obligadas por ley federal a denunciar ante el NCMEC cualquier material de abuso sexual infantil (CSAM, por sus siglas en inglés), presuntas violaciones relacionadas con la trata de menores con fines de explotación sexual y cualquier indicio de coacción o incitación a menores en sus plataformas. El NCMEC, que actúa como centro de coordinación, remite estos informes de ciberdelincuencia a los organismos policiales pertinentes en Estados Unidos y a nivel internacional.
El cifrado de Messenger implica que “se elimina la visibilidad del contenido o las interacciones que se producen. Eso no significa que el abuso cese”, declaró Fallon McNulty, directora ejecutiva de la división de niños explotados del NCMEC.}
Según declaró, Meta presentó 6,9 millones de informes menos al NCMEC en 2024, tras la implementación del cifrado de Messenger, en comparación con el año anterior.
Meta ha defendido anteriormente el cifrado como una medida de seguridad, ya que permite a los usuarios denunciar cualquier interacción inapropiada o abuso que sufran al usar Messenger. Los defensores de la privacidad elogian el cifrado como la protección más eficaz contra la vigilancia policial.
«Utilizamos tecnología sofisticada para identificar de forma proactiva el contenido de explotación infantil en nuestra plataforma. Entre julio y septiembre de 2025, eliminamos más de 10 millones de piezas de contenido de explotación infantil de Facebook e Instagram, de las cuales más del 98 % las detectamos de forma proactiva antes de que se denunciaran», declaró un portavoz de Meta. «Además, ofrecemos herramientas de denuncia integradas en la aplicación, con opciones específicas para que nos informen si el contenido involucra a un menor».
En su testimonio, McNulty destacó que depender de que los niños denuncien los abusos no es un sustituto adecuado para el análisis de mensajes e imágenes ahora que Messenger está cifrado. Según estudios del NCMEC, la mayoría de los niños opta por no denunciar los abusos o amenazas que reciben en estas plataformas.
Mosseri afirmó que los mecanismos de autodenuncia de Instagram no eran muy efectivos en comparación con el análisis tecnológico de la empresa para detectar abusos en la plataforma, a pesar de las propias afirmaciones de Meta sobre el cifrado de Messenger. Habló sobre los planes para cifrar los mensajes directos de Instagram, planes que finalmente se abandonaron. También se determinó que cifrar los mensajes de Instagram dificultaría la protección de los menores en la plataforma, añadió.
Dijo: “Hemos comprobado que el uso de la tecnología parece ser mucho más eficaz que los informes de los usuarios para detectar contenido inapropiado”.
Los retrasos en la presentación de informes y los errores afectaron la seguridad infantil.
El jurado escuchó que, entre mayo de 2017 y julio de 2021, Meta acumuló un retraso de 247 000 informes de ciberdelincuencia sobre posibles daños y abusos, que tenían varias semanas o meses de antigüedad cuando se enviaron al NCMEC. Dado que la información sobre el abuso infantil suele ser urgente, estos retrasos podrían haber supuesto la pérdida de oportunidades para prevenir delitos o identificar a los perpetradores.
Según los documentos presentados como prueba, miles de denuncias cibernéticas fueron clasificadas erróneamente como de baja prioridad. La empresa no proporcionó a NCMEC información sobre la causa de las demoras y la clasificación errónea. NCMEC consideró esta clasificación errónea como «una grave deficiencia que afectó la seguridad infantil», declaró McNulty.
El jurado escuchó cómo las fuerzas del orden se habían frustrado por la falta de detalles en algunos de los informes de Meta, lo que impedía a los agentes tomar medidas adicionales e investigarlos. Agentes de policía que investigan posibles casos de abuso infantil declararon previamente a The Guardian que Meta había saturado el sistema de denuncias cibernéticas con información irrelevante e inútil para la policía, y un agente hizo la misma observación en el estrado. Otras grandes plataformas habían proporcionado información más útil en sus informes, afirmó McNulty en su testimonio.
En 2022, 31 de los 61 grupos de trabajo del país dedicados a los delitos informáticos contra menores (ICAC, por sus siglas en inglés) optaron por no recibir algunos informes de ciberdelincuencia de menor prioridad de Meta porque consideraron que la información era de muy baja calidad para poder tomar medidas, según se escuchó en el juicio.
McNulty afirmó que los problemas de calidad con los consejos cibernéticos de Meta llevaban "años arrastrándose" y que el NCMEC esperaba que se "resuelvieran pronto".
“Nuestro sistema de comparación de imágenes encuentra copias de casos conocidos de explotación infantil a una escala imposible de lograr manualmente, y trabajamos para detectar nuevo contenido de explotación infantil mediante tecnología, informes de nuestra comunidad e investigaciones de nuestros equipos especializados en seguridad infantil”, declaró un portavoz de Meta. “Además, seguimos apoyando al NCMEC y a las fuerzas del orden en la priorización de informes, incluso ayudando a desarrollar la herramienta de gestión de casos del NCMEC y etiquetando las denuncias cibernéticas para que sepan cuáles son urgentes”.
El diario The Guardian ya informó que, debido a la protección de la Cuarta Enmienda, las denuncias generadas por inteligencia artificial que no han sido revisadas por un empleado de la empresa de redes sociales a menudo no pueden ser investigadas por las fuerzas del orden sin una orden judicial . Los abogados que intervienen en estos casos afirman que este paso adicional también puede ralentizar las investigaciones de posibles delitos.
Durante el juicio, se reveló que, en 2022, más de 14 millones de informes de Meta al NCMEC no habían sido revisados por un ser humano, lo que significa que ni el NCMEC ni las fuerzas del orden podían abrirlos sin una orden judicial. McNulty testificó que la prevalencia de informes sin revisar y las consiguientes repercusiones para las fuerzas del orden se le habían comunicado a Meta en varias ocasiones.
Adolescentes, adicción, filtros y contenido autolesivo que afecta la salud mental
En una declaración grabada en vídeo y reproducida en el tribunal, Zuckerberg reconoció que algunos usuarios, incluidos niños, encuentran adictivas las plataformas de Meta , lo cual también es objeto de un juicio aparte que se está llevando a cabo en Los Ángeles.
Documentos internos de Instagram evidenciaron cuánto sabía la compañía sobre sus usuarios preadolescentes y sus problemas, a pesar de su política de acceso restringido a mayores de 13 años, según los abogados del demandante. Una presentación de Instagram de 2018, revelada en el juicio de Los Ángeles, dice: "Si queremos tener un gran éxito con los adolescentes, debemos atraerlos desde la preadolescencia". Otra de 2015 estimaba que alrededor del 30% de los niños de 10 a 12 años en EE. UU. usaban la aplicación para compartir fotos. Otra más detallaba el objetivo de aumentar el tiempo que los niños de 10 años pasaban en Instagram, y una más documentaba la frecuencia con la que los niños de 11 años se conectaban a la aplicación en comparación con personas mayores.
En el juicio celebrado en Nuevo México , Ian Russell, cuya hija Molly se suicidó en 2017 tras ver gran cantidad de contenido dañino en Instagram, testificó en nombre del estado sobre los posibles efectos de la plataforma en la salud mental.
Russell dijo: “Ese flujo ineludible de contenido dañino, el efecto acumulativo que ese contenido habría tenido en un cerebro en desarrollo, en una persona joven, en una niña de 14 años, convirtió a Molly de esa joven brillante y esperanzada en alguien que, increíblemente, pensaba que era una carga y un problema, y que lo mejor que podía hacer era acabar con su vida”.
Entre las pruebas presentadas en el juicio se incluyeron comunicaciones internas sobre los filtros de realidad aumentada de Instagram, que permitían a los usuarios modificar su apariencia, como agrandar los labios o los ojos. Un correo electrónico de un exempleado de Meta a Zuckerberg advertía que los adolescentes que usaran estas funciones correrían un mayor riesgo de sufrir problemas de autoestima y de salud mental.
“Como padre de dos adolescentes, una de las cuales ha sido hospitalizada dos veces por dismorfia corporal, puedo decirles que la presión que sufren ellas y sus compañeros a través de las redes sociales es intensa en lo que respecta a la imagen corporal”, escribió el exempleado.
El jurado escuchó que en octubre de 2019 se impuso una prohibición temporal a las funciones de realidad aumentada, la cual fue levantada por Zuckerberg a mediados de 2020.
“Siempre me ha parecido paternalista que hayamos limitado la capacidad de las personas para presentarse de estas maneras, especialmente cuando no he visto ningún dato que sugiera que hacerlo sea útil o que no hacerlo sea perjudicial, y cuando claramente existe una demanda de este tipo de expresión”, dijo el director ejecutivo sobre su decisión.
“Meta prohíbe aquellas publicaciones que promueven directamente la cirugía estética, los cambios en el color de la piel o la pérdida de peso extrema”, dijo un portavoz de la compañía.
Otros documentos internos presentados ante el tribunal alegaban que Zuckerberg aprobó que menores interactuaran con chatbots de inteligencia artificial a pesar de las advertencias del personal de seguridad de que los bots podrían entablar conversaciones de índole sexual. Los fiscales también alegaron que Meta colocaba anuncios de empresas como Walmart y Match Group junto a contenido que sexualizaba a menores, lo que podría generar ingresos a partir de dicho material.
« Las cuentas de Instagram para adolescentes cuentan con protecciones integradas que limitan quién puede contactarlos y el tipo de contenido que ven. Por defecto, se configuran como cuentas privadas con los ajustes de mensajería más estrictos, de modo que solo pueden recibir mensajes de personas a las que siguen o con las que ya están conectados», explicó un portavoz de Meta. «Los menores de 18 años se crean automáticamente con cuentas para adolescentes, y los menores de 16 necesitarán el permiso de sus padres para modificar cualquiera de estos ajustes».
Arturo Béjar, exdirector de ingeniería de Meta, quien denunció irregularidades cuando su hija recibió mensajes sexualmente inapropiados de desconocidos en Instagram, subió al estrado. Béjar declaró ante el tribunal que el sistema de recomendaciones de la plataforma era "muy eficaz para conectar" a depredadores con menores.
Cuando Béjar informó del problema a la empresa, dijo que entendía que ejecutivos como Zuckerberg y Chris Cox, director de producto, ya sabían que esto era un problema.
“Fue entonces cuando me di cuenta de que el equipo directivo es consciente del daño que está sufriendo el producto y, aun así, opta por no hacer nada al respecto”, dijo Béjar. “No creo que podamos confiarle nuestros hijos a Mark Zuckerberg y a Meta”.



