Resumen: Los sistemas de modelo de lenguaje grande (LLM) de agente único luchan por soportar simultáneamente diversas funciones conversacionales y mantener la seguridad en la comunicación de salud conductual. Proponemos un marco de LLM de múltiples agentes orquestado por roles y consciente de la seguridad, diseñado para simular un diálogo de apoyo sobre salud conductual a través de agentes coordinados y diferenciados por roles. Las responsabilidades conversacionales se descomponen entre agentes especializados, incluidos roles centrados en la empatía, orientados a la acción y de supervisión, mientras que un controlador basado en indicaciones activa dinámicamente a los agentes relevantes y aplica auditorías de seguridad continuas. Utilizando transcripciones de entrevistas semiestructuradas del corpus DAIC-WOZ, evaluamos el marco con métricas proxy escalables que capturan la calidad estructural, la diversidad funcional y las características computacionales. Los resultados ilustran una clara diferenciación de roles, una coordinación coherente entre agentes y compensaciones predecibles entre la orquestación modular, la supervisión de la seguridad y la latencia de respuesta en comparación con una base de referencia de un solo agente. Este trabajo enfatiza el diseño, la interpretabilidad y la seguridad del sistema, posicionando el marco como una herramienta de simulación y análisis para la informática de salud conductual y la investigación de apoyo a las decisiones en lugar de una intervención clínica.
Publicado originalmente en export.arxiv.org el 1 de abril de 2026.
Ver fuente original
