Resumen:La simulación de la movilidad humana a gran escala es fundamental para aplicaciones como la planificación urbana, la epidemiología y el análisis del transporte. Trabajos recientes tratan los modelos de lenguajes grandes (LLM) como agentes humanos para simular comportamientos de movilidad realistas utilizando razonamiento estructurado, pero su alto costo computacional limita la escalabilidad. Para abordar esto, diseñamos un marco de caché sensible a la movilidad llamado MobCache que aprovecha los cachés reconstruibles para permitir simulaciones eficientes de movilidad humana a gran escala. Consiste en: (1) un componente de razonamiento que codifica cada paso de razonamiento como una incrustación de espacio latente y utiliza un evaluador de espacio latente para permitir la reutilización y recombinación de pasos de razonamiento; y (2) un componente de decodificación que emplea un decodificador liviano entrenado con destilación restringida por la ley de movilidad para traducir cadenas de razonamiento del espacio latente al lenguaje natural, mejorando así la eficiencia de la simulación y manteniendo la fidelidad. Los experimentos muestran que MobCache mejora significativamente la eficiencia en múltiples dimensiones mientras mantiene un rendimiento comparable a los métodos de última generación basados en LLM.
Publicado originalmente en export.arxiv.org el 19 de febrero de 2026.
Ver fuente original
