El 6 de mayo de 2010, a las 2:32 p.m. Hora del este, casi un billón de dólares evaporados del mercado de valores de los EE. UU. En 20 minutos, en el momento, la disminución más rápida de la historia. Luego, casi tan repentinamente, el mercado se recuperó. Patrick Leger
Obtener un LLM para actuar en el mundo real es sorprendentemente fácil. Todo lo que necesita hacer es conectarlo a una “herramienta”, un sistema que puede traducir salidas de texto en acciones del mundo real y decirle al modelo cómo usar esa herramienta. Aunque las definiciones varían, un LLM verdaderamente no agéntico se está convirtiendo en algo más raro y más raro; Los modelos más populares, Chatgpt, Claude y Gemini, pueden usar herramientas de búsqueda web para encontrar respuestas a sus preguntas.
Pero un LLM débil no sería un agente efectivo. Para hacer un trabajo útil, un agente debe poder recibir un objetivo abstracto de un usuario, hacer un plan para lograr ese objetivo y luego usar sus herramientas para llevar a cabo ese plan. Por lo tanto, el razonamiento de LLM, que “piensan” sobre sus respuestas al producir texto adicional para “hablar a sí mismos” a través de un problema, son puntos de partida particularmente buenos para los agentes de construcción. Darle al LLM una forma de memoria a largo plazo, como un archivo donde puede registrar información importante o realizar un seguimiento de un plan de varios pasos, también es clave, al igual que hacer que el modelo sepa qué tan bien está funcionando. Eso podría implicar dejar que la LLM vea los cambios que realiza a su entorno o decirle explícitamente si tiene éxito o falla en su tarea.
En retrospectiva, “terminar el curso lo más rápido posible” habría sido un mejor objetivo. Pero puede que no siempre sea obvio con anticipación cómo los sistemas de IA interpretarán los objetivos que se les da o qué estrategias podrían emplear. Esas son diferencias clave entre delegar una tarea a otro humano y delegarla a una IA, dice Dylan Hadfield-Menell, científico informático del MIT. Pidió que le haga un café lo más rápido posible, un interno probablemente hará lo que espere; Sin embargo, un robot controlado por IA podría cortar groseramente a los transeúntes para afeitarse unos segundos de su tiempo de entrega. Enseñar LLM para internalizar todas las normas que los humanos entienden intuitivamente sigue siendo un desafío importante. Incluso LLM que pueden articular efectivamente los estándares y expectativas sociales, como mantener la información confidencial en privado, puede ir
A pesar de su precaución, Bengio dice que confía bastante en que los agentes de IA no escaparán por completo del control humano en los próximos meses. Pero ese no es el único riesgo que lo preocupa. Mucho antes de que los agentes puedan causar cualquier daño real por su cuenta, lo harán en las órdenes humanas.
A medida que los agentes se vuelven cada vez más capaces, se están convirtiendo en poderosas armas cibernéticas, dice Daniel Kang, profesor asistente de informática en la Universidad de Illinois Urbana-Champaign. Recientemente, Kang y sus colegas Patrick Leger demostrado
Es poco probable que las personas sean los principales consumidores de la tecnología de agentes; Opadai
Publicado Originalme en TechnologyReview.com el 12 de junio de 2025.
Ver Fuente Original