Hace tres años se lanzaba ChatGPT
Los usos que las personas le están dando a la IA generativa. Columna de Big Technology
Casi tres años después del debut de ChatGPT, la IA generativa finalmente se está consolidando como un conjunto básico de casos de uso. Hoy en día, las personas utilizan grandes modelos de lenguaje con tres propósitos principales: 1) Realizar tareas, 2) Desarrollar pensamientos y 3) Amor y compañía.
Los tres casos de uso son extremadamente diferentes, pero todos suelen ocurrir en el mismo producto. Puedes pedirle a ChatGPT que haga algo por ti, que conecte ideas y que se integre con él sin cerrar la ventana.
Con el tiempo, es probable que el campo de la IA diseñe estas necesidades en productos individuales. Pero hasta entonces, es inevitable que sigamos viendo algunas rarezas a medida que empresas como OpenAI determinen qué enfoque adoptar.
Hoy, analizaremos los tres usos principales de la IA Generativa, abordando las ventajas y desventajas de cada uno. Esto nos permitirá contextualizar las decisiones de producto que los laboratorios de IA modernos están abordando a medida que la tecnología avanza.
Agente
Los laboratorios de investigación de IA actuales están obsesionados con desarrollar productos que hagan las cosas por ti, o "IA agente", como se la conoce. Su enfoque tiene sentido, dado que han recaudado miles de millones de dólares prometiendo a los inversores que su tecnología podría algún día complementar o reemplazar la mano de obra humana.
Con GPT-5, por ejemplo, OpenAI adaptó su modelo principalmente a este caso de uso agéntico. «Simplemente hace cosas», escribió el profesor de Wharton Ethan Mollick en una revisión inicial del modelo. GPT-5 está tan adaptado al comportamiento agéntico que, se le solicite o no, suele generar acciones, planes y tarjetas con sus recomendaciones. Mollick, por ejemplo, observó cómo GPT-5 generaba una página, un texto para la página de destino, un esquema de presentación y un plan de 90 días en respuesta a una consulta que no solicitaba ninguna de estas cosas.
Dado el incentivo económico para hacer bien este caso de uso, probablemente veremos que más productos de IA lo adoptan por defecto.
Socio de pensamiento
A medida que los modelos lingüísticos de gran tamaño se vuelven más inteligentes, también se convierten en aliados de pensamiento. Los LLM ahora pueden (con algunas limitaciones) conectar conceptos, ampliar ideas y buscar en la web el contexto faltante. Los avances en razonamiento, donde el modelo piensa un rato antes de responder, lo han hecho posible. Y el modelo de razonamiento o3 de OpenAI, que desapareció tras el lanzamiento de GPT-5, era la tecnología más avanzada para este caso de uso.
El agente busca eficiencia y quiere que usted avance hacia el siguiente paso. El socio de pensamiento está feliz de vivir con usted.
El socio de pensamiento de IA y el agente son dos experiencias completamente diferentes. El agente busca la eficiencia y quiere guiarte hacia el siguiente paso. El socio de pensamiento está dispuesto a detenerse y asegurarse de que comprendas algo completamente.
Sin embargo, el retorno de la inversión (ROI) del socio intelectual no está claro. Suele consumir mucha potencia de procesamiento al pensar mucho, y el resultado es menos tangible económicamente que un bot que trabaja para ti.
Hoy, tras la desaparición de o3, OpenAI ha incorporado un modo de pensamiento en GPT-5, pero aún tiende a centrarse en los usos agénticos. Por ejemplo, cuando le pregunto al modelo sobre los conceptos de mis historias, prefiere reescribirlos y crear calendarios de contenido en lugar de centrarse en las ideas centrales. ¿Es una decisión empresarial? Quizás. Pero a medida que baje el coste de la experiencia del socio de pensamiento, se esperan productos dedicados que satisfagan esta necesidad.
El caso de uso más controvertido (y quizás el más popular ) de la IA generativa es el de la amistad o el amor. Diversas historias recientes, algunas inquietantes , otras no , demuestran que las personas han depositado una enorme confianza y cariño en sus compañeros de IA. Algunas voces destacadas en IA, como Mustafa Suleyman, director ejecutivo de Microsoft AI, creen que la IA se diferenciará completamente en función de la personalidad .
Al desarrollar un producto de IA, parte del problema es que siempre habrá gente que se enamore de él. (Sí, incluso hay fanfiction erótico sobre Clippy ). Y a menos que seas plenamente consciente de esto y lo desarrolles con ello en mente, las cosas saldrán mal.
Los principales laboratorios de IA actuales no han intentado dejar de lado por completo el caso de uso complementario (saben que es una motivación para los usuarios que pagan), pero eventualmente tendrán que decidir si lo quieren y si construirlo como una experiencia dedicada con salvaguardas más concretas.
En suma
A medida que las empresas de IA decidan cuáles de estos casos de uso implementar, espero volver a este marco al evaluar sus opciones. Apuesto a que quienes tengan más claro cuál buscan serán los ganadores. Será una cuestión de enfoque.



