Resumen: La innovación central se encuentra en nuestro mecanismo global de agregación matriz-hijo, formalizado como: $$ h_i^{(t + 1)} = sigma big (h_i^{(0)} + w_ {pc} sum _ {(p, c) in e_i} f (h_p^{(t)}, h_c^{(t)})}) $ H_i^{(t)} $ representa el estado oculto del nodo $ i $ en iteración $ T $, $ E_I $ denota todos los bordes de los padres e hijos que involucran el nodo $ i $ y $ F (H_P, H_C) $ es una función de agregación de borde. Esta formulación permite que cada nodo agregue la información progresiva de toda la estructura del árbol a través de $ t $ iteraciones.
Nuestra arquitectura integra mejoras opcionales, incluida la agregación cerrada con pesos de borde aprendibles, conexiones residuales para la estabilidad del gradiente y la propagación bidireccional para capturar dependencias de abajo hacia arriba y de arriba hacia abajo. Evaluamos TreeGPT en el conjunto de datos del Premio ARC 2025, un punto de referencia de razonamiento visual desafiante que requiere reconocimiento de patrones abstractos e inferencia de reglas. Los resultados experimentales demuestran que TreeGPT alcanza la precisión del 96 %, las líneas de base de transformadores superiores a un rendimiento significativo (1.3 %), modelos a gran escala como Grok-4 (15.9 %) y métodos de síntesis de programas especializados como SOAR (52 %) mientras usan solo parámetros de 1,5M. Nuestro estudio integral de ablación revela que la proyección de borde es el componente más crítico, con la combinación de proyección de borde y activación que alcanza el rendimiento óptimo.
Publicado Originalme en export.arxiv.org El 8 de septiembre de 2025.
Ver Fuente Original