Resumen: Los modelos de lenguaje exhiben limitaciones fundamentales (alucinaciones, fragilidad y falta de fundamento formal) que son particularmente problemáticas en campos especializados de alto riesgo que requieren un razonamiento verificable. Investigo si las ontologías de dominio formal pueden mejorar la confiabilidad del modelo de lenguaje a través de la generación de recuperación aumentada. Utilizando las matemáticas como prueba de concepto, implemento una canalización neurosimbólica que aprovecha la ontología OpenMath con recuperación híbrida y reclasificación de codificadores cruzados para inyectar definiciones relevantes en las indicaciones del modelo. La evaluación en el punto de referencia MATH con tres modelos de código abierto revela que el contexto guiado por ontología mejora el rendimiento cuando la calidad de la recuperación es alta, pero el contexto irrelevante lo degrada activamente, destacando tanto la promesa como los desafíos de los enfoques neurosimbólicos.
Publicado originalmente en export.arxiv.org el 22 de febrero de 2026.
Ver fuente original
