Clima de época; Facebook y Google pierden dos juicios consecutivos.
El Resumen de Litigios Tecnológicos destaca demandas y decisiones judiciales relevantes en diversos temas relacionados con la tecnología y el derecho.
Dos jurados estadounidenses hicieron historia en marzo al emitir fallos consecutivos contra gigantes de las redes sociales que, en gran medida, habían evitado derrotas en los tribunales.
En Nuevo México, un jurado otorgó 375 millones de dólares en multas civiles a Meta por engañar al público sobre la explotación sexual infantil en sus plataformas, en violación de la ley estatal de protección al consumidor.
Este juicio con jurado fue el primero presentado por un fiscal general estatal contra el gigante de las redes sociales. Días después, un jurado en Los Ángeles se convirtió en el primero en responsabilizar a las empresas de redes sociales por contribuir al daño a la salud mental de una demandante mediante un diseño adictivo. El jurado determinó que Meta y YouTube, propiedad de Google, eran responsables por negligencia y por no advertir sobre la supuesta adicción a las redes sociales de la demandante.
Los casos se desarrollaron bajo dos teorías legales diferentes, pero ambos veredictos respaldaron un enfoque propuesto por académicos y defensores para superar la formidable protección legal de las empresas tecnológicas: centrarse en el diseño, no en el contenido. Si bien las demandas relacionadas con el diseño de plataformas ya han cosechado importantes victorias en los tribunales, estos veredictos del jurado, los primeros de su tipo, representaron triunfos significativos para el enfoque de diseño.
Las empresas tecnológicas se han amparado durante mucho tiempo en dos defensas relacionadas para evitar la responsabilidad legal por sus plataformas: la Sección 230, que generalmente las exime de responsabilidad por el contenido de terceros publicado en sus sitios, y las protecciones de la Primera Enmienda a la libertad de expresión. Sin embargo, a pesar de que las plataformas de redes sociales contienen gran cantidad de contenido y discurso protegidos, estas demandas se centraron en daños que no se basaban en el contenido en sí, sino en el diseño de las plataformas que lo contenían.
La demanda de Nuevo México, por ejemplo, alegaba que los algoritmos de Instagram recomendaban proactivamente cuentas de posibles abusadores a menores en la aplicación. La demanda de Los Ángeles puso de relieve funciones como el desplazamiento infinito, lo que dio lugar a una resolución previa al juicio en la que la jueza Carolyn B. Kuhl escribió: «El hecho de que una función de diseño como el "desplazamiento infinito" impulsara a un usuario a seguir consumiendo contenido que resultó dañino no significa que no pueda haber responsabilidad por los daños derivados de la propia función de diseño». Los tribunales —y ahora los jurados— han coincidido con los defensores en que estos daños derivados del diseño eran distinguibles del contenido de las aplicaciones.
El juicio de K.G.M.: El enfoque del diseño y los agravios por responsabilidad del producto
El veredicto de Los Ángeles provino del primer juicio de referencia en un procedimiento coordinado en California sobre la adicción a las redes sociales. Basándose en la ley de responsabilidad del producto, el caso argumentó que Meta y Google diseñaron negligentemente sus plataformas y no proporcionaron advertencias sobre los riesgos de las mismas, lo que provocó que una demandante, ahora de 19 años y conocida como K.G.M., sufriera adicción a las redes sociales y daños a su salud mental.
Los demandados intentaron repetidamente que se desestimara el caso antes del juicio por motivos relacionados con la Sección 230 o la Primera Enmienda, pero los abogados de la demandante en el procedimiento coordinado superaron esos argumentos centrándose en las características del diseño.
En el juicio, los demandados, Meta y Google, intentaron aprovechar otro posible desafío en los litigios por daños causados por plataformas en el contexto del derecho de responsabilidad civil: demostrar que el supuesto defecto de diseño o la falta de advertencia realmente causaron la lesión de la demandante. Argumentaron que otros aspectos de la vida de la demandante —sus relaciones familiares, sus discapacidades— fueron responsables de sus problemas de salud mental, no las redes sociales. Esta estrategia no fue suficiente: el jurado otorgó 3 millones de dólares en daños compensatorios a ambos demandados y otros 3 millones de dólares en daños punitivos.
El veredicto indica la viabilidad de las demandas por responsabilidad de producto contra las empresas de redes sociales, ya que miles de demandas están pendientes en este procedimiento coordinado, en un litigio federal multidistrital cuyo primer juicio piloto está programado para este verano, y posteriormente. Podrían presentarse más casos. Esto implica que los demandados deberán asumir una responsabilidad financiera a una escala que podría modificar significativamente los incentivos de muchas empresas tecnológicas y resultar en cambios importantes en sus prácticas comerciales.
El resultado del juicio también puede tener implicaciones para un número creciente de demandas por responsabilidad de producto presentadas contra empresas de IA por daños causados por el diseño de chatbots (Tech Justice Law ha presentado varios casos en diversas jurisdicciones). Debido a que los chatbots generan texto basado en modelos de probabilidad en lugar de publicar o seleccionar discurso humano, las empresas de IA carecen de la misma base que tienen las empresas de redes sociales para argumentar que deberían beneficiarse de las protecciones de la Sección 230 y la Primera Enmienda. El único tribunal hasta ahora que consideró si aplicar las protecciones de la Primera Enmienda a las salidas de un chatbot se negó a hacerlo, diciendo que las salidas de los chatbots no son discurso (Tech Justice Law representó al demandante en este caso). Las empresas de IA aún pueden argumentar que otros factores en la vida de un demandante específico causaron lesiones mentales, pero la pérdida de Meta y Google
El caso de KGM sugiere que tales argumentos no siempre prevalecen en un juicio con jurado.
Nuevo México contra Meta: El enfoque de diseño y la aplicación de la ley por parte del fiscal general
En Nuevo México, el veredicto se refería a violaciones de la ley estatal de protección al consumidor; el jurado coincidió con el fiscal general Raúl Torrez en que Meta engañó ilegalmente a los consumidores al afirmar que sus plataformas eran seguras para los niños cuando, según las pruebas presentadas, sus decisiones de diseño priorizaban las ganancias a expensas de la seguridad infantil. Para estas alegaciones, el caso del fiscal general no dependía de demostrar que el diseño de la plataforma de Meta perjudicara a un niño en particular, sino de que las declaraciones de Meta engañaron al público sobre un patrón de daño más amplio.
Si bien las leyes específicas en cuestión son propias de Nuevo México, los 50 estados cuentan con leyes de protección al consumidor que prohíben las prácticas engañosas. Actualmente, existen docenas de demandas pendientes presentadas por fiscales generales estatales contra empresas tecnológicas en virtud de estas leyes, por lo que el alcance de la responsabilidad podría ser considerable.
Nuestro contenido en tu bandeja de entrada.
Suscríbase a nuestro boletín informativo sobre temas e ideas en la intersección de la tecnología y la democracia.
Ingrese su correo electrónico
Suscribirse
Además de las sanciones económicas, como autoridades públicas, los fiscales generales estatales suelen tener mayor autoridad para exigir cambios en las prácticas de las empresas mediante órdenes judiciales. En un segundo juicio en el caso de Nuevo México, que será presidido únicamente por un juez, el fiscal general Torrez ha indicado que planea solicitar medidas cautelares para forzar cambios en la plataforma.
Esta próxima fase del litigio permitirá comprender mejor los tipos de medidas que los tribunales pueden ordenar y, si se conceden medidas cautelares, cuáles resultan efectivas y ejecutables para mejorar la seguridad en línea. También podría revelar diferencias entre los defensores de la responsabilidad tecnológica, ya que el fiscal general Torrez indicó que buscará restringir las funciones de mensajería cifrada que muchos defensores de la privacidad y los derechos humanos valoran por su protección de la libertad de expresión. Si bien el caso Nuevo México contra Meta es la primera demanda de este tipo que llega a esta etapa, los litigios anteriores ofrecen información sobre posibles medidas.
Ese segundo juicio aplicará el enfoque de diseño a otra teoría legal, aún no probada en juicio, sobre los daños causados por las redes sociales: la molestia pública. Las demandas por molestias públicas, también pendientes en otros casos presentados por fiscales generales estatales y municipios, argumentan generalmente que las características de diseño de las empresas de redes sociales generan una interferencia irrazonable con un derecho colectivo, como el derecho a la salud pública. En el caso de Nuevo México, el fiscal general alegó que las plataformas de Meta “interfieren significativamente con la salud, la seguridad, la paz, el bienestar y la comodidad públicos”. Con este juicio programado para comenzar el 4 de mayo, el caso pondrá a prueba cómo se aplica el enfoque de diseño bajo una tercera teoría de responsabilidad.
Otros avances en litigios tecnológicos:
Anthropic obtiene una orden judicial preliminar contra el Departamento de Defensa: Las tensiones entre el Departamento de Defensa y Anthropic por la negativa de la empresa a permitir el uso de su tecnología para armas autónomas letales y vigilancia interna derivaron en una batalla legal sobre la designación de su antiguo contratista como riesgo para la cadena de suministro por parte de la agencia. El caso atrajo una considerable atención de la sociedad civil, con la presentación de varios escritos de amicus curiae (Tech Justice Law presentó un escrito en apoyo de ninguna de las partes). El juez otorgó una orden judicial preliminar que impide que la designación entre en vigor; la decisión está en apelación.
Los litigios relacionados con chatbots se expanden: El creciente campo de los litigios sobre chatbots registró varios hitos este mes. Se presentó la primera demanda por daños causados por Gemini, el chatbot de Google. La demanda de una familia contra OpenAI marca la primera demanda por chatbot interpuesta por víctimas de un suceso con múltiples víctimas, un tiroteo en una escuela de Canadá, donde, según informes, el sospechoso intercambió mensajes violentos con ChatGPT. Finalmente, una compañía de seguros presenta demandas novedosas contra OpenAI tras enfrentar una demanda supuestamente frívola por parte de una mujer que buscó asesoramiento en ChatGPT. La compañía alega ejercicio no autorizado de la abogacía, abuso de procedimiento e interferencia ilícita en un contrato.
Meta demandada por gafas inteligentes: Una demanda colectiva alega que Meta incurrió en publicidad falsa y engañosa al afirmar que sus gafas con IA están "diseñadas para la privacidad", cuando, según la demanda, periodistas de investigación descubrieron que trabajadores humanos en Kenia revisan grabaciones altamente íntimas de las gafas para entrenar los modelos de IA de Meta.
Consecuencias legales para la "desnudez" de xAI: Un tribunal holandés ordenó a X y a su chatbot de IA, Grok, que dejen de generar y distribuir imágenes sexualizadas no consensuales y pornografía infantil generadas por IA. La empresa se enfrenta a multas diarias de 100.000 € por demandado por incumplimiento. Se siguen presentando nuevas demandas en EE. UU., incluyendo una acción de la ciudad de Baltimore y una demanda colectiva contra xAI por licenciar su LLM para su uso en la creación de pornografía infantil generada por IA.
Investigadores de moderación de contenido denuncian prácticas ilegales.
Represalias de EE. UU.: La Coalición para la Investigación Tecnológica Independiente demandó a Marco Rubio y a otros funcionarios federales, argumentando que la Administración Trump está violando los derechos de la Primera y la Quinta Enmienda de los investigadores centrados en plataformas digitales y en la lucha contra la desinformación, así como la Ley de Procedimiento Administrativo, al intentar deportarlos y excluirlos de Estados Unidos.
Grammarly demandada por su función de "revisión experta" con IA: Una demanda colectiva alega que la función de "revisión experta" de Grammarly, que presenta comentarios de escritura generados por IA como si provinieran de escritores profesionales sin el consentimiento de estos, viola el derecho a la propia imagen de los demandantes.
Continúan las batallas legales sobre la regulación tecnológica en EE. UU.: La asociación industrial NetChoice presentó una demanda para bloquear el impuesto de Chicago a las empresas de redes sociales. Mientras tanto, xAI perdió su solicitud de una orden judicial preliminar contra una ley de California que exige a las empresas revelar información sobre los datos utilizados para entrenar sus modelos de IA, después de que un juez concluyera que era improbable que sus impugnaciones basadas en la Primera Enmienda y la Cláusula de Expropiación tuvieran éxito. Un tribunal de Kenia declara que los números de teléfono móvil forman parte de la identidad digital: En un fallo histórico, un tribunal keniano declaró que los números de teléfono móvil forman parte de la identidad digital de las personas, ampliando así los derechos de privacidad asociados a los números de teléfono en el país.v
El Resumen de Litigios Tecnológicos destaca demandas y decisiones judiciales relevantes en diversos temas relacionados con la tecnología y el derecho.
Dos jurados estadounidenses hicieron historia en marzo al emitir fallos consecutivos contra gigantes de las redes sociales que, en gran medida, habían evitado derrotas en los tribunales. En Nuevo México, un jurado otorgó 375 millones de dólares en multas civiles a Meta por engañar al público sobre la explotación sexual infantil en sus plataformas, en violación de la ley estatal de protección al consumidor. Este juicio con jurado fue el primero presentado por un fiscal general estatal contra el gigante de las redes sociales. Días después, un jurado en Los Ángeles se convirtió en el primero en responsabilizar a las empresas de redes sociales por contribuir al daño a la salud mental de una demandante mediante un diseño adictivo. El jurado determinó que Meta y YouTube, propiedad de Google, eran responsables por negligencia y por no advertir sobre la supuesta adicción a las redes sociales de la demandante.
Los casos se desarrollaron bajo dos teorías legales diferentes, pero ambos veredictos respaldaron un enfoque propuesto por académicos y defensores para superar la formidable protección legal de las empresas tecnológicas: centrarse en el diseño, no en el contenido. Si bien las demandas relacionadas con el diseño de plataformas ya han cosechado importantes victorias en los tribunales, estos veredictos del jurado, los primeros de su tipo, representaron triunfos significativos para el enfoque de diseño.
Las empresas tecnológicas se han amparado durante mucho tiempo en dos defensas relacionadas para evitar la responsabilidad legal por sus plataformas: la Sección 230, que generalmente las exime de responsabilidad por el contenido de terceros publicado en sus sitios, y las protecciones de la Primera Enmienda a la libertad de expresión. Sin embargo, a pesar de que las plataformas de redes sociales contienen gran cantidad de contenido y discurso protegidos, estas demandas se centraron en daños que no se basaban en el contenido en sí, sino en el diseño de las plataformas que lo contenían. La demanda de Nuevo México, por ejemplo, alegaba que los algoritmos de Instagram recomendaban proactivamente cuentas de posibles abusadores a menores en la aplicación. La demanda de Los Ángeles puso de relieve funciones como el desplazamiento infinito, lo que dio lugar a una resolución previa al juicio en la que la jueza Carolyn B. Kuhl escribió: «El hecho de que una función de diseño como el "desplazamiento infinito" impulsara a un usuario a seguir consumiendo contenido que resultó dañino no significa que no pueda haber responsabilidad por los daños derivados de la propia función de diseño». Los tribunales —y ahora los jurados— han coincidido con los defensores en que estos daños derivados del diseño eran distinguibles del contenido de las aplicaciones.
El juicio de K.G.M.: El enfoque del diseño y los agravios por responsabilidad del producto
El veredicto de Los Ángeles provino del primer juicio de referencia en un procedimiento coordinado en California sobre la adicción a las redes sociales. Basándose en la ley de responsabilidad del producto, el caso argumentó que Meta y Google diseñaron negligentemente sus plataformas y no proporcionaron advertencias sobre los riesgos de las mismas, lo que provocó que una demandante, ahora de 19 años y conocida como K.G.M., sufriera adicción a las redes sociales y daños a su salud mental.
Los demandados intentaron repetidamente que se desestimara el caso antes del juicio por motivos relacionados con la Sección 230 o la Primera Enmienda, pero los abogados de la demandante en el procedimiento coordinado superaron esos argumentos centrándose en las características del diseño. En el juicio, los demandados, Meta y Google, intentaron aprovechar otro posible desafío en los litigios por daños causados por plataformas en el contexto del derecho de responsabilidad civil: demostrar que el supuesto defecto de diseño o la falta de advertencia realmente causaron la lesión de la demandante. Argumentaron que otros aspectos de la vida de la demandante —sus relaciones familiares, sus discapacidades— fueron responsables de sus problemas de salud mental, no las redes sociales. Esta estrategia no fue suficiente: el jurado otorgó 3 millones de dólares en daños compensatorios a ambos demandados y otros 3 millones de dólares en daños punitivos.
El veredicto indica la viabilidad de las demandas por responsabilidad de producto contra las empresas de redes sociales, ya que miles de demandas están pendientes en este procedimiento coordinado, en un litigio federal multidistrital cuyo primer juicio piloto está programado para este verano, y posteriormente. Podrían presentarse más casos. Esto implica que los demandados deberán asumir una responsabilidad financiera a una escala que podría modificar significativamente los incentivos de muchas empresas tecnológicas y resultar en cambios importantes en sus prácticas comerciales.
El resultado del juicio también puede tener implicaciones para un número creciente de demandas por responsabilidad de producto presentadas contra empresas de IA por daños causados por el diseño de chatbots (Tech Justice Law ha presentado varios casos en diversas jurisdicciones). Debido a que los chatbots generan texto basado en modelos de probabilidad en lugar de publicar o seleccionar discurso humano, las empresas de IA carecen de la misma base que tienen las empresas de redes sociales para argumentar que deberían beneficiarse de las protecciones de la Sección 230 y la Primera Enmienda. El único tribunal hasta ahora que consideró si aplicar las protecciones de la Primera Enmienda a las salidas de un chatbot se negó a hacerlo, diciendo que las salidas de los chatbots no son discurso (Tech Justice Law representó al demandante en este caso). Las empresas de IA aún pueden argumentar que otros factores en la vida de un demandante específico causaron lesiones mentales, pero la pérdida de Meta y Google
El caso de KGM sugiere que tales argumentos no siempre prevalecen en un juicio con jurado.
Nuevo México contra Meta: El enfoque de diseño y la aplicación de la ley por parte del fiscal general
En Nuevo México, el veredicto se refería a violaciones de la ley estatal de protección al consumidor; el jurado coincidió con el fiscal general Raúl Torrez en que Meta engañó ilegalmente a los consumidores al afirmar que sus plataformas eran seguras para los niños cuando, según las pruebas presentadas, sus decisiones de diseño priorizaban las ganancias a expensas de la seguridad infantil. Para estas alegaciones, el caso del fiscal general no dependía de demostrar que el diseño de la plataforma de Meta perjudicara a un niño en particular, sino de que las declaraciones de Meta engañaron al público sobre un patrón de daño más amplio.
Si bien las leyes específicas en cuestión son propias de Nuevo México, los 50 estados cuentan con leyes de protección al consumidor que prohíben las prácticas engañosas. Actualmente, existen docenas de demandas pendientes presentadas por fiscales generales estatales contra empresas tecnológicas en virtud de estas leyes, por lo que el alcance de la responsabilidad podría ser considerable.
Nuestro contenido en tu bandeja de entrada.
Suscríbase a nuestro boletín informativo sobre temas e ideas en la intersección de la tecnología y la democracia.
Ingrese su correo electrónico
Suscribirse
Además de las sanciones económicas, como autoridades públicas, los fiscales generales estatales suelen tener mayor autoridad para exigir cambios en las prácticas de las empresas mediante órdenes judiciales. En un segundo juicio en el caso de Nuevo México, que será presidido únicamente por un juez, el fiscal general Torrez ha indicado que planea solicitar medidas cautelares para forzar cambios en la plataforma.
Esta próxima fase del litigio permitirá comprender mejor los tipos de medidas que los tribunales pueden ordenar y, si se conceden medidas cautelares, cuáles resultan efectivas y ejecutables para mejorar la seguridad en línea. También podría revelar diferencias entre los defensores de la responsabilidad tecnológica, ya que el fiscal general Torrez indicó que buscará restringir las funciones de mensajería cifrada que muchos defensores de la privacidad y los derechos humanos valoran por su protección de la libertad de expresión. Si bien el caso Nuevo México contra Meta es la primera demanda de este tipo que llega a esta etapa, los litigios anteriores ofrecen información sobre posibles medidas.
Ese segundo juicio aplicará el enfoque de diseño a otra teoría legal, aún no probada en juicio, sobre los daños causados por las redes sociales: la molestia pública. Las demandas por molestias públicas, también pendientes en otros casos presentados por fiscales generales estatales y municipios, argumentan generalmente que las características de diseño de las empresas de redes sociales generan una interferencia irrazonable con un derecho colectivo, como el derecho a la salud pública. En el caso de Nuevo México, el fiscal general alegó que las plataformas de Meta “interfieren significativamente con la salud, la seguridad, la paz, el bienestar y la comodidad públicos”. Con este juicio programado para comenzar el 4 de mayo, el caso pondrá a prueba cómo se aplica el enfoque de diseño bajo una tercera teoría de responsabilidad.
Otros avances en litigios tecnológicos:
Anthropic obtiene una orden judicial preliminar contra el Departamento de Defensa: Las tensiones entre el Departamento de Defensa y Anthropic por la negativa de la empresa a permitir el uso de su tecnología para armas autónomas letales y vigilancia interna derivaron en una batalla legal sobre la designación de su antiguo contratista como riesgo para la cadena de suministro por parte de la agencia. El caso atrajo una considerable atención de la sociedad civil, con la presentación de varios escritos de amicus curiae (Tech Justice Law presentó un escrito en apoyo de ninguna de las partes). El juez otorgó una orden judicial preliminar que impide que la designación entre en vigor; la decisión está en apelación.
Los litigios relacionados con chatbots se expanden: El creciente campo de los litigios sobre chatbots registró varios hitos este mes. Se presentó la primera demanda por daños causados por Gemini, el chatbot de Google. La demanda de una familia contra OpenAI marca la primera demanda por chatbot interpuesta por víctimas de un suceso con múltiples víctimas, un tiroteo en una escuela de Canadá, donde, según informes, el sospechoso intercambió mensajes violentos con ChatGPT. Finalmente, una compañía de seguros presenta demandas novedosas contra OpenAI tras enfrentar una demanda supuestamente frívola por parte de una mujer que buscó asesoramiento en ChatGPT. La compañía alega ejercicio no autorizado de la abogacía, abuso de procedimiento e interferencia ilícita en un contrato.
Meta demandada por gafas inteligentes: Una demanda colectiva alega que Meta incurrió en publicidad falsa y engañosa al afirmar que sus gafas con IA están "diseñadas para la privacidad", cuando, según la demanda, periodistas de investigación descubrieron que trabajadores humanos en Kenia revisan grabaciones altamente íntimas de las gafas para entrenar los modelos de IA de Meta.
Consecuencias legales para la "desnudez" de xAI: Un tribunal holandés ordenó a X y a su chatbot de IA, Grok, que dejen de generar y distribuir imágenes sexualizadas no consensuales y pornografía infantil generadas por IA. La empresa se enfrenta a multas diarias de 100.000 € por demandado por incumplimiento. Se siguen presentando nuevas demandas en EE. UU., incluyendo una acción de la ciudad de Baltimore y una demanda colectiva contra xAI por licenciar su LLM para su uso en la creación de pornografía infantil generada por IA.
Investigadores de moderación de contenido denuncian prácticas ilegales.
Represalias de EE. UU.: La Coalición para la Investigación Tecnológica Independiente demandó a Marco Rubio y a otros funcionarios federales, argumentando que la Administración Trump está violando los derechos de la Primera y la Quinta Enmienda de los investigadores centrados en plataformas digitales y en la lucha contra la desinformación, así como la Ley de Procedimiento Administrativo, al intentar deportarlos y excluirlos de Estados Unidos.
Grammarly demandada por su función de "revisión experta" con IA: Una demanda colectiva alega que la función de "revisión experta" de Grammarly, que presenta comentarios de escritura generados por IA como si provinieran de escritores profesionales sin el consentimiento de estos, viola el derecho a la propia imagen de los demandantes.
Continúan las batallas legales sobre la regulación tecnológica en EE. UU.: La asociación industrial NetChoice presentó una demanda para bloquear el impuesto de Chicago a las empresas de redes sociales. Mientras tanto, xAI perdió su solicitud de una orden judicial preliminar contra una ley de California que exige a las empresas revelar información sobre los datos utilizados para entrenar sus modelos de IA, después de que un juez concluyera que era improbable que sus impugnaciones basadas en la Primera Enmienda y la Cláusula de Expropiación tuvieran éxito. Un tribunal de Kenia declara que los números de teléfono móvil forman parte de la identidad digital: En un fallo histórico, un tribunal keniano declaró que los números de teléfono móvil forman parte de la identidad digital de las personas, ampliando así los derechos de privacidad asociados a los números de teléfono en el país.



