Mejora de las arquitecturas cognitivas computacionales con LLM: un estudio de caso

Resumen: Las arquitecturas cognitivas computacionales son modelos ampliamente alcanzados de la mente humana que combinan diferentes funcionalidades psicológicas (así como a menudo diferentes métodos computacionales para estas diferentes funcionalidades) en un marco unificado. Los estructuran de manera psicológicamente plausible y validada.

Leer más →

Comentarios desactivados en Mejora de las arquitecturas cognitivas computacionales con LLM: un estudio de caso

Repensar la evaluación de preferencias humanas de los racionales de LLM

Resumen: Los modelos de lenguaje grande (LLM) a menudo generan fundamentos del lenguaje natural: explicaciones de forma libre que ayudan a mejorar el rendimiento en tareas de razonamiento complejas y mejoran la interpretabilidad de los usuarios humanos. Sin embargo, evaluar estos fundamentos sigue siendo desafiante.

Leer más →

Comentarios desactivados en Repensar la evaluación de preferencias humanas de los racionales de LLM

Datos públicos ayudados diferencialmente en el aprendizaje privado en contexto

Resumen: El aprendizaje en contexto (ICL) en modelos de idiomas grandes (LLM) ha mostrado un rendimiento notable en varias tareas sin requerir el ajuste. Sin embargo, estudios recientes han destacado el riesgo de fuga de datos privados a través del aviso en ICL, especialmente cuando los LLM están expuestos a ataques maliciosos.

Leer más →

Comentarios desactivados en Datos públicos ayudados diferencialmente en el aprendizaje privado en contexto

Fin del contenido

No hay más páginas por cargar