En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->¿Debería haber expresado una intención diferente? Generación contrafactual para control autónomo basado en LLM

¿Debería haber expresado una intención diferente? Generación contrafactual para control autónomo basado en LLM

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los agentes basados ​​en modelos de lenguaje grande (LLM) pueden traducir las intenciones de los usuarios de alto nivel en planes y acciones en un entorno. Sin embargo, después de observar un resultado, los usuarios pueden preguntarse: ¿Qué hubiera pasado si hubiera expresado mi intención de manera diferente? Introducimos un marco que permite dicho razonamiento contrafactual en escenarios de control agentes impulsados ​​por LLM, al tiempo que proporciona garantías formales de confiabilidad. Nuestro enfoque modela la interacción de circuito cerrado entre un usuario, un agente basado en LLM y un entorno como un modelo causal estructural (SCM) y aprovecha la escala en el tiempo de prueba para generar múltiples resultados contrafactuales candidatos a través de la abducción probabilística. A través de una fase de calibración fuera de línea, la generación contrafactual conforme (CCG) propuesta produce conjuntos de resultados contrafactuales que garantizan contener el verdadero resultado contrafactual con alta probabilidad. Mostramos el rendimiento de CCG en un caso de uso de control de red inalámbrica, demostrando ventajas significativas en comparación con líneas base de reejecución ingenuas.

Publicado originalmente en export.arxiv.org el 28 de enero de 2026.
Ver fuente original

admin

Usuario de administración del sitio web