Resumen: Los modelos de lenguajes grandes (LLM) exhiben fallas lógicas persistentes en el razonamiento complejo debido a la falta de un marco axiomático interno. Proponemos Mathesis, una arquitectura neurosimbólica que codifica estados matemáticos como hipergráficos de orden superior y utiliza un núcleo de razonamiento simbólico (SRK), un motor lógico diferenciable que asigna restricciones a un paisaje energético continuo. Al definir una función de energía global E(G), donde la energía cero implica consistencia lógica, el SRK produce señales basadas en gradientes para entrenar un cerebro transformador hipergráfico, convirtiendo la búsqueda de pruebas en minimización de energía. La deducción de varios pasos se habilita mediante la búsqueda de árbol de Monte Carlo y la búsqueda de prueba evolutiva, guiada por funciones de valores aprendidos y unificación semántica.
Publicado originalmente en export.arxiv.org el 4 de enero de 2026.
Ver fuente original
