Resumen: El desarrollo de la conducción autónoma (AD) de alto nivel está pasando de limitaciones centradas en la percepción a un cuello de botella más fundamental, a saber, un déficit de razonamiento sólido y generalizable. Aunque los sistemas de DA actuales gestionan entornos estructurados, fallan constantemente en escenarios de cola larga e interacciones sociales complejas que requieren un juicio humano. Mientras tanto, la llegada de modelos multimodales y de lenguaje amplio (LLM y MLLM) presenta una oportunidad transformadora para integrar un poderoso motor cognitivo en los sistemas de AD, yendo más allá de la coincidencia de patrones hacia una comprensión genuina. Sin embargo, existe una grave falta de un marco sistemático que oriente esta integración. Para cerrar esta brecha, proporcionamos una revisión integral de este campo emergente y argumentamos que el razonamiento debe elevarse de un componente modular al núcleo cognitivo del sistema. Específicamente, primero proponemos una nueva jerarquía cognitiva para descomponer la tarea de conducción monolítica de acuerdo con su complejidad cognitiva e interactiva. Sobre la base de esto, derivamos y sistematizamos siete desafíos centrales de razonamiento, como el equilibrio entre capacidad de respuesta y razonamiento y el razonamiento de juego social. Además, llevamos a cabo una revisión de doble perspectiva del estado del arte, analizando tanto los enfoques centrados en el sistema para diseñar agentes inteligentes como las prácticas centradas en la evaluación para su validación. Nuestro análisis revela una clara tendencia hacia agentes de “caja de cristal” holísticos e interpretables. En conclusión, identificamos una tensión fundamental y no resuelta entre la naturaleza deliberativa de alta latencia del razonamiento basado en LLM y las demandas críticas para la seguridad del control de vehículos a escala de milisegundos. Para trabajos futuros, un objetivo principal es cerrar la brecha entre lo simbólico y lo físico mediante el desarrollo de arquitecturas neurosimbólicas verificables, razonamiento sólido en condiciones de incertidumbre y modelos escalables para la negociación social implícita.
Publicado originalmente en export.arxiv.org el 12 de marzo de 2026.
Ver fuente original
