Resumen:Si bien el aprendizaje profundo ha mejorado la precisión de la decodificación de la interfaz cerebro-computadora (BCI), la adopción clínica se ve obstaculizada por la naturaleza de “caja negra” de estos algoritmos, lo que genera frustración en el usuario y resultados deficientes en neuroplasticidad.
Leer más →
Resumen: Cuando los sistemas de IA explican su razonamiento paso a paso, los profesionales a menudo suponen que estas explicaciones revelan lo que realmente influyó en la respuesta de la IA. Probamos esta suposición incorporando pistas en las preguntas y midiendo si los modelos las mencionaban. En un estudio de más de 9.
Leer más →
Resumen: Se cree ampliamente que los modelos de lenguaje grande (LLM) poseen capacidades de autocorrección, sin embargo, estudios recientes sugieren que la autocorrección intrínseca, donde los modelos corrigen sus propios resultados sin retroalimentación externa, sigue siendo en gran medida ineficaz.
Leer más →