En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Pramana: Ajuste de modelos de lenguaje grandes para el razonamiento epistémico a través de Navya-Nyaya

Pramana: Ajuste de modelos de lenguaje grandes para el razonamiento epistémico a través de Navya-Nyaya

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los modelos de lenguaje grandes producen texto fluido pero luchan con el razonamiento sistemático, a menudo alucinando afirmaciones seguras pero infundadas. Cuando los investigadores de Apple añadieron contexto irrelevante a los problemas matemáticos, el rendimiento del LLM se degradó en un 65%, según Apple Machine Learning Research, lo que expuso una frágil coincidencia de patrones bajo un razonamiento aparente. Esta brecha epistémica, la incapacidad de fundamentar las afirmaciones en evidencia rastreable, limita la confiabilidad de la IA en dominios que requieren justificación. Presentamos Pramana, un enfoque novedoso que enseña a los LLM una metodología epistemológica explícita mediante el ajuste de la lógica Navya-Nyaya, un marco de razonamiento indio de 2500 años de antigüedad. A diferencia de las indicaciones genéricas de cadena de pensamiento, Navya-Nyaya aplica un razonamiento estructurado de 6 fases: SAMSHAYA (análisis de dudas), PRAMANA (identificación de la fuente de evidencia), PANCHA AVAYAVA (silogismo de 5 miembros con reglas universales), TARKA (verificación contrafactual), HETVABHASA (detección de falacias) y NIRNAYA (verificación que distingue el conocimiento de la hipótesis). Esta integración de lógica y epistemología proporciona un andamiaje cognitivo ausente en los enfoques de razonamiento estándar. Ajustamos Llama 3.2-3B y DeepSeek-R1-Distill-Llama-8B en 55 problemas lógicos estructurados por Nyaya (satisfacción de restricciones, SAT booleano, deducción de varios pasos). La etapa 1 logra una corrección semántica del 100% en la evaluación retenida a pesar de que solo un 40% de cumplimiento estricto del formato revela que los modelos internalizan el contenido del razonamiento incluso cuando la aplicación estructural es imperfecta. Los estudios de ablación muestran que las indicaciones de formato y la temperatura afectan de manera crítica el rendimiento, con configuraciones óptimas que difieren según la etapa. Publicamos todos los modelos, conjuntos de datos e infraestructura de capacitación en Hugging Face para permitir una mayor investigación sobre los marcos epistémicos para el razonamiento de la IA.

Publicado originalmente en export.arxiv.org el 7 de abril de 2026.
Ver fuente original

admin

Usuario de administración del sitio web