En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Hada: Arquitectura de alineación de decisiones del agente humano-AI

Hada: Arquitectura de alineación de decisiones del agente humano-AI

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Presentamos HADA (Human-AI AGENT Decision Decision Decision Decision Decisions), una arquitectura de referencia agnóstica de protocolo y marco que mantiene a los agentes del modelo de lenguaje grande (LLM) y los algoritmos heredados alineados con los objetivos y valores organizacionales. HADA envuelve cualquier algoritmo o LLM en agentes de interesados ​​específicos de roles (negocios, ciencia de datos, auditoría, ética y cliente, cada una exponiendo las API conversacionales para que los actores técnicos y no técnicos puedan consultar, dirigir, auditar o disputar cada decisión en horizontes estratégicos, tácticos y a tiempo real. Los objetivos de alineación, los KPI y las limitaciones de valor se expresan en el lenguaje natural y se propagan, registran y versan continuamente, mientras que miles de agentes heterogéneos se ejecutan en diferentes pilas de orquestación. Una prueba de concepto nativa de la nube empaqueta un modelo de puntuación de crédito de producción (getLoandecision) y lo implementa en Docker/Kubernetes/Python; Cinco escenarios de banco minorista con guiones muestran cómo los cambios objetivo, los ajustes de los parámetros, las solicitudes de explicación y la ética desencadenan el flujo de extremo a fin de la arquitectura. La evaluación siguió a la metodología de investigación de la ciencia del diseño. La observación de tutorial y la inspección de registros demostraron una cobertura completa de seis objetivos predefinidos: cada papel podría invocar el control de conversación, trazar KPI y restricciones de valor, detectar y mitigar el sesgo del código postal, y reproducir el linaje de decisión completa, independientemente de la LLM o la biblioteca de agentes LLM subyacente. Contribuciones: (1) Una arquitectura HADA de código abierto, (2) una teoría del diseño de rango medio para la alineación de Human-AI en sistemas de agentes múltiples, y (3) evidencia empírica de que los agentes de las partes interesadas de los protocolos de marco mejoran la precisión, la transparencia y el cumplimiento ético en las tuberías de decisiones de todo el mundo.

Publicado Originalme en rss.arxiv.org El 5 de junio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web