Resumen: Las redes neuronales profundas de salida temprana permiten la inferencia adaptativa al finalizar el cálculo cuando se logra suficiente confianza, lo que reduce el costo de los aceleradores de IA de borde en entornos con recursos limitados. Sin embargo, los métodos existentes se basan en políticas de salida subóptimas, ignoran la dificultad de entrada y optimizan los umbrales de forma independiente. Este artículo presenta DART (Umbral adaptativo consciente de la dificultad de entrada), un marco que supera estas limitaciones. DART introduce tres innovaciones clave: (1) un módulo liviano de estimación de dificultad que cuantifica la complejidad de la entrada con una sobrecarga computacional mínima, (2) un algoritmo de optimización de la política de salida conjunta basado en programación dinámica y (3) un sistema de gestión de coeficientes adaptativo. Los experimentos en diversos puntos de referencia de DNN (AlexNet, ResNet-18, VGG-16) demuestran que DART logra una aceleración de hasta textbf{3.3$times$}, textbf{5.1$times$} menos energía y hasta un textbf{42%} menor potencia promedio en comparación con las redes estáticas, al tiempo que preserva la precisión competitiva. La extensión de DART a Vision Transformers (LeViT) genera ganancias de potencia (5,0$times$) y tiempo de ejecución (3,6$times$), pero también una pérdida de precisión (hasta un 17 por ciento), lo que subraya la necesidad de mecanismos de salida temprana específicos para transformadores. Además, presentamos la puntuación de eficiencia según la dificultad (DAES), una novedosa métrica multiobjetivo, según la cual DART logra una mejora de hasta 14,8 con respecto a las líneas de base, destacando las compensaciones superiores de precisión, eficiencia y solidez.
Publicado originalmente en export.arxiv.org el 15 de marzo de 2026.
Ver fuente original
