En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->LLM de múltiples agentes como defensores de la ética en sistemas basados en IA

LLM de múltiples agentes como defensores de la ética en sistemas basados en IA

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La incorporación de la ética en el proceso de obtención de requisitos es esencial para crear sistemas alineados éticamente. Aunque provocar los requisitos de ética manual es efectivo, requiere diversos aportes de múltiples partes interesadas, lo que puede ser un desafío debido a las limitaciones de tiempo y recursos. Además, a menudo se le da una baja prioridad en el proceso de obtención de requisitos. Este estudio propone un marco para generar borradores de requisitos de ética mediante la introducción de un agente de defensa de ética en un entorno LLM de múltiples agentes. Este agente critica y proporciona información sobre temas éticos basados en la descripción del sistema. El marco propuesto se evalúa a través de dos estudios de casos de diferentes contextos, lo que demuestra que captura la mayoría de los requisitos de ética identificados por los investigadores durante las entrevistas de 30 minutos e introduce varios requisitos relevantes adicionales. Sin embargo, también destaca los problemas de confiabilidad en la generación de requisitos de ética, enfatizando la necesidad de retroalimentación humana en este dominio sensible. Creemos que este trabajo puede facilitar la adopción más amplia de la ética en el proceso de ingeniería de requisitos, lo que finalmente conduce a productos más éticamente alineados.

Publicado Originalme en export.arxiv.org El 13 de julio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web