En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Menos es más para el razonamiento lógico de varios pasos de la generalización de LLM mediante eliminación, paráfrasis y compresión de reglas

Menos es más para el razonamiento lógico de varios pasos de la generalización de LLM mediante eliminación, paráfrasis y compresión de reglas

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: En tres familias de modelos representativos: modelos tipo BERT, Qwen2 y LLaMA. Nuestros experimentos revelan un patrón sorprendentemente consistente: todos los modelos logran una precisión perfecta en las tareas básicas y permanecen completamente generalizados para la eliminación de reglas redundantes y todas las reescrituras basadas en equivalencias (leyes únicas o múltiples), pero fallan drásticamente en la eliminación de reglas esenciales (cayendo al 25% de precisión) y colapsan completamente en presencia de contradicciones explícitas (0% de precisión). Estos resultados demuestran que los LLM poseen una invariancia estable ante las transformaciones lógicas que preservan la semántica, pero siguen siendo fundamentalmente frágiles ante evidencia faltante o contradictoria. Nuestro marco proporciona una herramienta de diagnóstico limpia para aislar dichos modos de falla de razonamiento y resalta las brechas persistentes en las capacidades de generalización lógica de los LLM actuales.

Publicado originalmente en export.arxiv.org el 8 de diciembre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web