Resumen: Aprender a calcular, la capacidad de modelar el comportamiento funcional de un gráfico computacional, es un desafío fundamental para el aprendizaje de representación de gráficos. Sin embargo, el paradigma dominante está arquitectónicamente no coincide con esta tarea. Esta suposición defectuosa, central para los mensajes convencionales que pasan las redes neuronales (MPNN) y sus homólogos convencionales basados en transformadores, evita que los modelos capturen la naturaleza jerárquica del cálculo de la posición consciente de la posición. Para resolver esto, presentamos textbf {traza}, un nuevo paradigma basado en una columna vertebral arquitectónica y un objetivo de aprendizaje de principios. Primero, Trace emplea un transformador jerárquico que refleja el flujo de cálculo paso a paso, proporcionando una red troncal arquitectónica fiel que reemplaza la agregación invariante de permutación defectuosa. En segundo lugar, presentamos textbf {Function Shift Learning}, un objetivo novedoso que desacopla el problema de aprendizaje. En lugar de predecir la función global compleja directamente, nuestro modelo está entrenado para predecir solo el textit {Shift de funciones}, la discrepancia entre la función global verdadera y una aproximación local simple que asume la independencia de la entrada. Validamos este paradigma en los circuitos electrónicos, una de las clases más complejas y económicamente críticas de gráficos computacionales. En un conjunto integral de puntos de referencia, traza sustancialmente supera todas las arquitecturas anteriores. Estos resultados demuestran que nuestra columna vertebral alineada arquitectónica y el objetivo de aprendizaje desacoplado forman un paradigma más robusto para el desafío fundamental de aprender a calcular los gráficos.
Publicado Originalme en export.arxiv.org El 28 de septiembre de 2025.
Ver Fuente Original
