Resumen: El aprendizaje en contexto (ICL) ha demostrado ser muy eficaz en diversas tareas de modelos de lenguaje grande (LLM). Sin embargo, su potencial para mejorar tareas que exigen una deducción lógica paso a paso, como el razonamiento matemático, sigue sin explorarse.
Leer más →
Resumen: Que las máquinas puedan ser conscientes depende no sólo de lo que computan, sino también de emph{cuándo} lo computan. La mayoría de los sistemas artificiales implementados realizan sus funciones mediante actualizaciones secuenciales o multiplexadas en el tiempo. La experiencia consciente aparece unificada y simultánea. Muestro que esta diferencia importa formalmente.
Leer más →
Resumen:Si bien los modelos de lenguaje grande (LLM) permiten un comportamiento autónomo complejo, los agentes actuales siguen limitados por indicaciones estáticas diseñadas por humanos que limitan la adaptabilidad.
Leer más →