En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Explicabilidad en el contexto: un marco multinivel que alinee las explicaciones de IA con las partes interesadas con LLMS

Explicabilidad en el contexto: un marco multinivel que alinee las explicaciones de IA con las partes interesadas con LLMS

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La aplicación creciente de la inteligencia artificial en dominios sensibles ha intensificado la demanda de sistemas que no solo son precisos sino también explicables y confiables. Aunque los métodos explicables de IA (XAI) han proliferado, muchos no consideran las diversas audiencias que interactúan con los sistemas de IA: desde desarrolladores y expertos en dominios hasta usuarios finales y sociedad. Este documento aborda cómo la confianza en la IA está influenciada por el diseño y la entrega de explicaciones y propone un marco multinivel que alinea las explicaciones con las expectativas epistémicas, contextuales y éticas de las diferentes partes interesadas. El marco consta de tres capas: algorítmica y basada en el dominio, centrada en el humano y la explicabilidad social. Destacamos el papel emergente de los modelos de idiomas grandes (LLM) para mejorar la capa social mediante la generación de explicaciones accesibles del lenguaje natural. A través de estudios de casos ilustrativos, demostramos cómo este enfoque facilita la fidelidad técnica, la participación del usuario y la responsabilidad social, reformulando a XAI como un proceso dinámico de construcción de confianza.

Publicado Originalme en rss.arxiv.org El 8 de junio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web