24/07/2025
Los agentes son lo más popular en tecnología en este momento. Principales empresas de Google DeepMind OpenAI y Anthropic se apresuran a aumentar los grandes modelos de lenguaje con la capacidad de realizar tareas por sí mismos. Conocidos como IA agente en la jerga de la industria, estos sistemas se han convertido rápidamente en el nuevo objetivo del revuelo en Silicon Valley. Todos de Nvidia a Salesforce está hablando de cómo van a revolucionar la industria.
“Creemos que, en 2025, podremos ver a los primeros agentes de IA ‘unirse a la fuerza laboral’ y cambiar materialmente la producción de las empresas”, afirmó Sam Altman de Open Ai.
En el sentido más amplio, un agente es un sistema de software que se activa y hace algo, a menudo con una supervisión mínima o nula. Cuanto más compleja sea esa cosa, más inteligente debe ser el agente. Para muchos, los modelos de lenguaje grandes ahora son lo suficientemente inteligentes como para impulsar agentes que pueden realizar una amplia gama de tareas útiles para nosotros, como completar formularios, buscar una receta y agregar los ingredientes a una canasta de comestibles en línea, o usar un motor de búsqueda para realizar una investigación de último momento antes de una reunión y producir un resumen rápido en viñetas.
Anthropic mostró uno de los agentes más avanzados hasta el momento: una extensión de su modelo de lenguaje grande de Claude llamado uso informático. Como sugiere el nombre, te permite indicarle a Claude que use una computadora tal como lo haría una persona, moviendo un cursor, haciendo clic en botones y escribiendo texto. En lugar de simplemente tener una conversación con Claude, ahora puedes pedirle que realice tareas en pantalla por ti.
Anthropic señala que la función sigue siendo engorrosa y propensa a errores. Pero ya está disponible para un puñado de evaluadores, incluidos desarrolladores externos de empresas como DoorDash, Canva y Asana.
El uso de la computadora es un vistazo de lo que les espera a los agentes. Para saber qué viene a continuación, Revisión de tecnología del MIT habló con el cofundador y científico jefe de Anthropic, Jared Kaplan.
Aquí hay cuatro formas en que los agentes mejorarán aún más en 2025.
(Las respuestas de Kaplan han sido ligeramente editadas para mayor extensión y claridad)
1/ Los agentes mejorarán en el uso de herramientas
“Creo que hay dos ejes para pensar de qué es capaz la IA. Una es la cuestión de cuán compleja es la tarea que puede realizar un sistema. Y a medida que los sistemas de IA se vuelven más inteligentes, mejoran en esa dirección. Pero otra dirección que es muy relevante es qué tipos de entornos o herramientas puede utilizar la IA.
“Entonces, si nos remontamos casi 10 años atrás al [modelo de juego Go de DeepMind] AlphaGo, teníamos sistemas de IA que eran sobrehumanos en términos de qué tan bien podían jugar juegos de mesa. Pero si lo único con lo que puedes trabajar es con un juego de mesa, entonces ese es un entorno muy restrictivo. En realidad no es útil, aunque sea muy inteligente. Con los modelos de texto, y luego con los modelos multimodales, y ahora con el uso de computadoras —y quizás en el futuro con la robótica—, estamos avanzando hacia llevar la IA a diferentes situaciones y tareas, y hacerla útil.
“Estábamos entusiasmados con el uso de la computadora básicamente por esa razón. Hasta hace poco, con modelos de lenguaje grandes, era necesario darles un mensaje muy específico, darles herramientas muy específicas y luego restringirlos a un tipo específico de entorno. Lo que veo es que el uso de la computadora probablemente mejorará rápidamente en términos de qué tan bien los modelos pueden realizar tareas diferentes y tareas más complejas. Y también darse cuenta cuando han cometido errores, o darse cuenta cuando hay una pregunta de alto riesgo y es necesario pedirle comentarios al usuario”
2/ Los agentes comprenderán el contexto
“Claude necesita aprender lo suficiente sobre su situación particular y las limitaciones bajo las que opera para ser útil. Cosas como en qué rol particular estás, qué estilos de escritura o qué necesidades tienen tú y tu organización.
“Creo que veremos mejoras allí donde Claude podrá buscar en cosas como tus documentos, tu Slack, etc., y realmente aprender qué es útil para ti. Esto se subestima un poco con los agentes. Es necesario que los sistemas no sólo sean útiles sino también seguros, haciendo lo que se espera.
“Otra cosa es que muchas tareas no requerirán que Claude haga mucho razonamiento. No es necesario sentarse y pensar durante horas antes de abrir Google Docs o algo así. Por eso creo que mucho de lo que veremos no es sólo más razonamiento sino la aplicación del razonamiento cuando sea realmente útil e importante, pero también no perder el tiempo cuando no sea necesario”
3/ Los agentes mejorarán los asistentes de codificación
“Queríamos ofrecer una versión beta muy inicial del uso de la computadora a los desarrolladores para obtener comentarios mientras el sistema era relativamente primitivo. Pero a medida que estos sistemas mejoren, es posible que se utilicen más ampliamente y realmente colaboren con usted en diferentes actividades.
“Creo que DoorDash, Browser Company y Canva están experimentando con diferentes tipos de interacciones del navegador y diseñándolas con la ayuda de la IA.
“Mi expectativa es que también veamos más mejoras en los asistentes de codificación. Esto es algo que ha sido muy emocionante para los desarrolladores. Hay mucho interés en usar Claude 3.5 para codificar, donde no se trata solo de autocompletar como lo era hace un par de años. Realmente se trata de comprender qué está mal con el código, depurarlo —ejecutar el código, ver qué sucede y solucionarlo”
4/ Los agentes deberán estar seguros
“Fundamos Anthropic porque esperábamos que la IA progresara muy rápidamente y [pensamos] que, inevitablemente, las preocupaciones de seguridad iban a ser relevantes. Y creo que eso se volverá cada vez más visceral este año, porque creo que estos agentes se integrarán cada vez más en el trabajo que hacemos. Necesitamos estar preparados para los desafíos, como la inyección rápida.
[La inyección de indicaciones es un ataque en el que una indicación maliciosa se pasa a un modelo de lenguaje grande de maneras que sus desarrolladores no previeron ni pretendieron. Una forma de hacerlo es agregar el mensaje a los sitios web que las modelos puedan visitar.]
“La inyección inmediata es probablemente una de las cosas número uno en las que estamos pensando en términos de un uso más amplio de agentes. Creo que es especialmente importante para el uso de computadoras, y es algo en lo que estamos trabajando muy activamente, porque si el uso de computadoras se implementa a gran escala, entonces podría haber sitios web perniciosos o algo que intente convencer a Claude de hacer algo que no debería hacer.
“Y con modelos más avanzados, simplemente hay más riesgo. Tenemos una política de escalamiento sólida en la que, a medida que los sistemas de IA se vuelven lo suficientemente capaces, sentimos que realmente debemos poder evitar que se utilicen indebidamente. Por ejemplo, si pudieran ayudar a los terroristas—ese tipo de cosas.
“Así que estoy muy entusiasmado con lo útil que será la IA —de hecho, también nos está acelerando mucho internamente en Anthropic, con gente usando a Claude de todo tipo de maneras, especialmente con la codificación. Pero sí, también habrá muchos desafíos. Será un año interesante.”