Resumen:La unificación de los enfoques neuronal y simbólico de la inteligencia artificial sigue siendo un desafío central abierto. En este trabajo, introducimos un formalismo de red tensorial, que captura los principios de dispersión que se originan en los diferentes enfoques en las descomposiciones tensoriales. En particular, describimos un esquema de codificación básico para funciones y modelamos descomposiciones neuronales como descomposiciones tensoriales. El formalismo propuesto se puede aplicar para representar fórmulas lógicas y distribuciones de probabilidad como descomposiciones tensoriales estructuradas. Este tratamiento unificado identifica las contracciones de redes tensoriales como una clase de inferencia fundamental y formula algoritmos de razonamiento de escalamiento eficiente, que se originan en la teoría de la probabilidad y la lógica proposicional, como esquemas de paso de mensajes de contracción. El marco permite la definición y entrenamiento de modelos lógicos y probabilísticos híbridos, que llamamos Red Lógica Híbrida. Los conceptos teóricos se acompañan de la biblioteca Python tnreason, que permite la implementación y uso práctico de las arquitecturas propuestas.
Publicado originalmente en export.arxiv.org el 22 de enero de 2026.
Ver fuente original
