Resumen:El desarrollo de grandes modelos de lenguaje (LLM) está limitado por la falta de explicabilidad, la ausencia de una teoría unificadora y costos operativos prohibitivos. Proponemos un marco neuroteórico para el surgimiento de la inteligencia en sistemas que sea funcionalmente robusto y biológicamente plausible.
Leer más →
Resumen: Los modelos de lenguaje grande basados en difusión (dLLM) refinan las generaciones de tokens mediante la eliminación iterativa de ruido, pero las respuestas a menudo se estabilizan antes de que se completen todos los pasos.
Leer más →
Resumen: Los avances recientes en modelos de lenguajes grandes (LLM) han demostrado sólidas capacidades de razonamiento a través del aprendizaje por refuerzo previo y posterior al entrenamiento a gran escala, demostrado por DeepSeek-R1.
Leer más →