Resumen: El pronóstico de tráfico espacio-temporal es un desafío debido a patrones temporales complejos, estructuras espaciales dinámicas y diversos formatos de entrada. Aunque los modelos basados en transformadores ofrecen un sólido modelado global, a menudo luchan con la codificación temporal rígida y la fusión del tiempo espacial débil. Proponemos STPFORMER, un transformador de patrón espacio-temporal que logra un rendimiento de vanguardia a través del aprendizaje de representación unificado e interpretable. Integra cuatro módulos: agregador de posición temporal (TPA) para la codificación temporal de patrón, agregador de secuencia espacial (SSA) para el aprendizaje espacial secuencial, la coincidencia de gráficos espaciales-temporales (STGM) para la alineación del dominio cruzado y un mezclador de atención para la Fusion a escala múltiple. Los experimentos en cinco conjuntos de datos del mundo real muestran que StPformer establece constantemente nuevos resultados de SOTA, con ablación y visualizaciones que confirman su efectividad y generalización.
Publicado Originalme en export.arxiv.org El 19 de agosto de 2025.
Ver Fuente Original
