Resumen: Apartar redes neuronales (SNN), como un modelo computacional emergente de inspiración biológica, demuestra ventajas significativas de eficiencia energética debido a su mecanismo de procesamiento de información basado en eventos. En comparación con las redes neuronales artificiales tradicionales (ANN), SNNS transmite información a través de señales de pico discretas, lo que reduce sustancialmente el consumo de energía computacional a través de su escaso enfoque de codificación. Sin embargo, el modelo de cálculo de múltiples temporadas aumenta significativamente la latencia y la energía de inferencia, lo que limita la aplicabilidad de los SNN en los escenarios de computación de borde. Proponemos un SNN de tiempo único, que mejora la precisión y reduce el consumo de energía computacional en un solo paso de tiempo al optimizar la generación de picos y los parámetros temporales. Diseñamos un mecanismo de neuronas autónomo, que mejora la capacidad de transporte de información a través del ajuste de umbral dinámico y la supresión selectiva de picos. Además, empleamos la optimización bayesiana para buscar a globalmente parámetros de tiempo y obtener un modo de inferencia eficiente con un solo paso de tiempo. Los resultados experimentales en los conjuntos de datos de la moda-Mnist, CIFAR-10 y CIFAR-100 demuestran que, en comparación con los SNN tradicionales de multi-Timestep, que emplean el modelo de integración y fuego de fugas (LIF), nuestro método logra las precuraciones de clasificación de 93.72%, 92.20%y 69.45%, respectivamente, utilizando solo accesorios de una sola vez, mientras mantiene comparable o incluso Superior. Además, reduce el consumo de energía en un 56%, 21%y 22%, respectivamente.
Publicado Originalme en export.arxiv.org El 17 de agosto de 2025.
Ver Fuente Original