Resumen: Las arquitecturas cognitivas computacionales son modelos ampliamente alcanzados de la mente humana que combinan diferentes funcionalidades psicológicas (así como a menudo diferentes métodos computacionales para estas diferentes funcionalidades) en un marco unificado. Los estructuran de manera psicológicamente plausible y validada.
Leer más →
Resumen: Los modelos de lenguaje grande (LLM) a menudo generan fundamentos del lenguaje natural: explicaciones de forma libre que ayudan a mejorar el rendimiento en tareas de razonamiento complejas y mejoran la interpretabilidad de los usuarios humanos. Sin embargo, evaluar estos fundamentos sigue siendo desafiante.
Leer más →
Resumen: El aprendizaje en contexto (ICL) en modelos de idiomas grandes (LLM) ha mostrado un rendimiento notable en varias tareas sin requerir el ajuste. Sin embargo, estudios recientes han destacado el riesgo de fuga de datos privados a través del aviso en ICL, especialmente cuando los LLM están expuestos a ataques maliciosos.
Leer más →