En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Un enfoque para verificar la corrección de los sistemas de agente

Un enfoque para verificar la corrección de los sistemas de agente

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Este documento presenta un lenguaje de expresión temporal para monitorear el comportamiento del agente de IA, permitiendo la detección de errores sistemáticos de los sistemas de agente basados ​​en LLM que exhiben salidas variables debido a los procesos de generación estocástica. A partir de las técnicas lógicas temporales utilizadas en la verificación de hardware, este enfoque monitorea las trazas de ejecución de las llamadas de la herramienta de agente y las transiciones de estado para detectar las desviaciones de los patrones de comportamiento esperados. Los enfoques de detección de errores actuales dependen principalmente de la coincidencia de texto de entradas y salidas, lo que resulta frágil debido a la variabilidad del lenguaje natural inherente a las respuestas LLM. En cambio, el método propuesto se centra en la secuencia de acciones de agente, como las invocaciones de herramientas y las comunicaciones entre agentes, lo que permite la verificación del comportamiento del sistema independiente de las salidas textuales específicas. El lenguaje de expresión temporal proporciona afirmaciones que capturan los patrones de comportamiento correctos en múltiples escenarios de ejecución. Estas afirmaciones tienen propósitos duales: validar la ingeniería rápida y la efectividad de la barandilla durante el desarrollo, y proporcionar pruebas de regresión cuando los agentes se actualizan con nuevos LLM o lógica modificada. El enfoque se demuestra utilizando un sistema de tres agentes, donde los agentes se coordinan para resolver tareas de razonamiento de varios pasos. Cuando fueron alimentados por modelos grandes y capaces, todas las afirmaciones temporales se satisfacen en muchas pruebas. Sin embargo, cuando los modelos más pequeños fueron sustituidos en dos de los tres agentes, las ejecuciones violaron las afirmaciones de comportamiento, principalmente debido a la secuenciación inadecuada de la herramienta y las transferencias fallidas de coordinación. Las expresiones temporales marcaron con éxito estas anomalías, lo que demuestra la efectividad del método para detectar regresiones conductuales en los sistemas de producción de la producción. Este enfoque proporciona una base para el monitoreo sistemático de la confiabilidad del agente de IA a medida que estos sistemas se implementan cada vez más en aplicaciones críticas.

Publicado Originalme en export.arxiv.org El 25 de septiembre de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web