23/05/2024
Meta ha visto sorprendentemente poca información errónea generada por la IA en torno a las elecciones de 2024 a pesar de las principales campañas en países como Indonesia, Taiwán y Bangladesh, dijo el presidente de asuntos globales de la compañía, Nick Clegg, el Miércoles.
“Lo interesante hasta ahora— hasta ahora—no es cuánto sino cuán poco contenido generado por IA [hay],” dijo Clegg durante una entrevista en revisión de Tecnología MIT’s EmTech Digital conferencia en Cambridge, Massachusetts.
“Está ahí; es discernible. Realmente no está sucediendo en ... un volumen o un nivel sistémico,” dijo. Clegg dijo que Meta ha visto intentos de interferencia en, por ejemplo, las elecciones taiwanesas, pero que la escala de esa interferencia es de una cantidad “manejable.”
Como los votantes se dirigirán a las urnas este año en más de 50 países, expertos han levantado el alarma sobre la desinformación política generada por la IA y la posibilidad de que los actores maliciosos utilicen la IA generativa y las redes sociales para interferir con las elecciones. Meta se ha enfrentado previamente a críticas sobre sus políticas de moderación de contenido en torno a elecciones pasadas, por ejemplo, cuando falló para prevenir los alborotadores del 6 de enero se organizan en sus plataformas.
Clegg defendió los esfuerzos de la empresa para impedir que se organicen grupos violentos, pero también destacó la dificultad de mantener el ritmo. “Este es un espacio altamente conflictivo. Juegas Whack-a-Mole, con franqueza. Eliminas un grupo, se renombran, se renombran, etc.”, dijo.
Clegg argumentó que, en comparación con 2016, la empresa ahora es “completamente diferente” en lo que respecta a moderar el contenido electoral. Desde entonces, ha eliminado más de 200 “redes de comportamiento no auténtico coordinado”, dijo. La empresa ahora depende de verificadores de datos y tecnología de inteligencia artificial para identificar grupos no deseados en sus plataformas.
A principios de este año, Meta anunció que etiquetaría imágenes generadas por IA en Facebook, Instagram y Threads. Meta ha comenzado a agregar marcadores visibles a dichas imágenes, así como marcas de agua invisibles y metadatos en el archivo de imagen. Las marcas de agua se agregarán a las imágenes creadas utilizando los sistemas de inteligencia artificial generativa de Meta o aquellas que lleven marcadores invisibles estándar de la industria. La compañía dice que sus medidas están en línea con las mejores prácticas establecidas por Partnership on AI, una organización sin fines de lucro de investigación de IA.
Pero al mismo tiempo, Clegg admitió que las herramientas para detectar contenido generado por IA aún son imperfectas e inmaduras. Las marcas de agua en los sistemas de IA no se adoptan en toda la industria y son fáciles de alterar. También son difíciles de implementar de manera sólida en texto, audio y video generados por IA.
En última instancia, eso no debería importar, dijo Clegg, porque los sistemas de Meta deberían poder captar y detectar información errónea y desinformación independientemente de su origen.
"La IA es una espada y un escudo en esto", dijo.
Clegg también defendió la decisión de la compañía de permitir anuncios que afirmaran que las elecciones estadounidenses de 2020 fueron robadas, señalando que este tipo de afirmaciones son comunes en todo el mundo y diciendo que "no es factible" que Meta vuelva a litigar elecciones pasadas. Este mismo mes, ocho secretarios de Estado escribieron una carta al director ejecutivo de Meta, Mark Zuckerberg, argumentando que los anuncios aún podrían ser peligrosos y que tienen el potencial de amenazar aún más la confianza del público en las elecciones y la seguridad de los trabajadores electorales individuales.