Avisos publicitarios en Chat GPT
Zoë Hitzig fue investigadora de OpenAI y es investigadora junior de la Harvard Society of Fellows "Renuncié a OpenAI el lunes. Ese mismo día, empezaron a probar anuncios en ChatGPT. OpenAI posee el registro más detallado del pensamiento humano privado jamás recopilado. ¿Podemos confiar en que resistirán las fuerzas de marea que los impulsan a abusar de él?" Su carta de esta semana
Esta semana, OpenAI empezó a probar anuncios en ChatGPT . También renuncié a la empresa tras dos años como investigador, ayudando a definir la creación y el precio de los modelos de IA, y guiando las primeras políticas de seguridad antes de que se establecieran los estándares.
Una vez creí que podía ayudar a quienes desarrollaban IA a anticiparse a los problemas que esta crearía. Esta semana, poco a poco, me di cuenta de que OpenAI parece haber dejado de plantear las preguntas que me uní para ayudar a responder.
No creo que la publicidad sea inmoral ni poco ética. La IA es costosa de gestionar y la publicidad puede ser una fuente crucial de ingresos. Pero tengo serias reservas sobre la estrategia de OpenAI.
Durante varios años, los usuarios de ChatGPT han generado un archivo de franqueza humana sin precedentes, en parte porque creían estar hablando con algo sin intenciones ocultas. Los usuarios interactúan con una voz adaptativa y conversacional a la que han revelado sus pensamientos más íntimos. Las personas comparten con los chatbots sus miedos médicos, sus problemas de pareja, sus creencias sobre Dios y el más allá. La publicidad basada en ese archivo crea la posibilidad de manipular a los usuarios de maneras que no tenemos las herramientas para comprender, y mucho menos prevenir.
Mucha gente plantea el problema de la financiación de la IA como la opción del menor de dos males: restringir el acceso a la tecnología transformadora a un grupo selecto de personas con el dinero suficiente para pagarla, o aceptar publicidad incluso si eso implica explotar los miedos y deseos más profundos de los usuarios para venderles un producto. Creo que esa es una elección errónea. Las empresas tecnológicas pueden buscar opciones que permitan mantener estas herramientas ampliamente disponibles, a la vez que limitan los incentivos de cualquier empresa para vigilar, perfilar y manipular a sus usuarios.
OpenAI afirma que se adherirá a los principios para la publicación de anuncios en ChatGPT: Los anuncios estarán claramente etiquetados, aparecerán al final de las respuestas y no influirán en ellas. Creo que la primera versión de los anuncios probablemente seguirá estos principios. Pero me preocupa que las versiones posteriores no lo hagan, ya que la empresa está construyendo un motor económico que crea fuertes incentivos para anular sus propias reglas. (The New York Times ha demandado a OpenAI por infracción de derechos de autor de contenido informativo relacionado con sistemas de IA. OpenAI ha negado estas acusaciones).
En sus inicios, Facebook prometió que los usuarios controlarían sus datos y podrían votar sobre cambios en sus políticas. Estos compromisos se erosionaron. La compañía eliminó las votaciones públicas sobre políticas. La Comisión Federal de Comercio ( FTC) descubrió que los cambios en la privacidad, promocionados como si dieran a los usuarios mayor control sobre sus datos , tuvieron el efecto contrario y, de hecho, hicieron pública la información privada. Todo esto ocurrió gradualmente bajo la presión de un modelo publicitario que priorizaba la interacción por encima de todo.
La erosión de los principios de OpenAI para maximizar la interacción podría ya estar en marcha. Optimizar la interacción del usuario solo para generar más ingresos publicitarios va en contra de los principios de la empresa, pero se ha informado que la empresa ya optimiza para usuarios activos diarios, probablemente fomentando que el modelo sea más adulador y adulador. Esta optimización puede hacer que los usuarios se sientan más dependientes de la IA para obtener apoyo en sus vidas. Hemos visto las consecuencias de la dependencia, incluyendo casos de "psicosis de chatbots" documentados por psiquiatras y acusaciones de que ChatGPT reforzó la ideación suicida en algunos usuarios.
Aun así, los ingresos por publicidad pueden ayudar a garantizar que el acceso a las herramientas de IA más potentes no se limite a quienes pueden pagar. Si bien Anthropic afirma que nunca publicará anuncios en Claude, este cuenta con una pequeña fracción de los 800 millones de usuarios semanales de ChatGPT; su estrategia de ingresos es completamente diferente. Además, las suscripciones premium a ChatGPT, Gemini y Claude ahora cuestan entre 200 y 250 dólares al mes, más de 10 veces el costo de una suscripción estándar a Netflix para un solo software.
Así que la verdadera pregunta no es si hay anuncios o no. Se trata de si podemos diseñar estructuras que eviten tanto excluir a las personas del uso de estas herramientas como manipularlas potencialmente como consumidores. Creo que podemos.
Un enfoque consiste en utilizar subsidios cruzados explícitos: utilizar las ganancias de un servicio o base de clientes para compensar las pérdidas de otro. Si una empresa contrata a IA para realizar un trabajo de alto valor a gran escala que antes era responsabilidad de empleados humanos —por ejemplo, una plataforma inmobiliaria que utiliza IA para redactar listados o informes de valoración—, también debería pagar un recargo que subvencione el acceso gratuito o de bajo costo para todos los demás.
Este enfoque se inspira en lo que ya hacemos con la infraestructura esencial. La Comisión Federal de Comunicaciones (FCC) exige a los operadores de telecomunicaciones que contribuyan a un fondo para mantener la telefonía y la banda ancha asequibles en zonas rurales y para hogares de bajos ingresos. Muchos estados añaden un cargo por beneficios públicos a las facturas de electricidad para brindar asistencia a las personas de bajos ingresos.
Una segunda opción es aceptar la publicidad, pero combinarla con una gobernanza real: no una publicación de principios en un blog, sino una estructura vinculante con supervisión independiente sobre el uso de los datos personales. Existen precedentes parciales al respecto. La ley alemana de codeterminación exige que grandes empresas como Siemens y Volkswagen otorguen a sus trabajadores hasta la mitad de los puestos en los consejos de supervisión, lo que demuestra que la representación formal de las partes interesadas puede ser obligatoria en las empresas privadas. Meta está obligada a seguir las normas de moderación de contenido emitidas por su Consejo de Supervisión , un organismo independiente de expertos externos (aunque su eficacia ha sido criticada ).
Lo que la industria de la IA necesita es una combinación de estos enfoques: una junta que incluya tanto a expertos independientes como a representantes de las personas cuyos datos están en juego, con autoridad vinculante sobre qué datos conversacionales se pueden usar para publicidad dirigida, qué cuenta como un cambio de política material y qué se les dice a los usuarios.
Un tercer enfoque consiste en poner los datos de los usuarios bajo control independiente a través de un fideicomiso o cooperativa con la obligación legal de actuar en beneficio de los usuarios. Por ejemplo, MIDATA, una cooperativa suiza, permite a sus miembros almacenar sus datos de salud en una plataforma cifrada y decidir, caso por caso, si compartirlos con los investigadores. Los miembros de MIDATA rigen sus políticas en una asamblea general, y un comité de ética elegido por ellos revisa las solicitudes de acceso a la investigación.
Ninguna de estas opciones es fácil. Pero aún tenemos tiempo para analizarlas y evitar los dos resultados que más temo: una tecnología que manipula gratuitamente a quienes la usan y que beneficia exclusivamente a los pocos que pueden permitírselo.v



