Resumen: La aplicación creciente de la inteligencia artificial en dominios sensibles ha intensificado la demanda de sistemas que no solo son precisos sino también explicables y confiables. Aunque los métodos explicables de IA (XAI) han proliferado, muchos no consideran las diversas audiencias que interactúan con los sistemas de IA: desde desarrolladores y expertos en dominios hasta usuarios finales y sociedad. Este documento aborda cómo la confianza en la IA está influenciada por el diseño y la entrega de explicaciones y propone un marco multinivel que alinea las explicaciones con las expectativas epistémicas, contextuales y éticas de las diferentes partes interesadas. El marco consta de tres capas: algorítmica y basada en el dominio, centrada en el humano y la explicabilidad social. Destacamos el papel emergente de los modelos de idiomas grandes (LLM) para mejorar la capa social mediante la generación de explicaciones accesibles del lenguaje natural. A través de estudios de casos ilustrativos, demostramos cómo este enfoque facilita la fidelidad técnica, la participación del usuario y la responsabilidad social, reformulando a XAI como un proceso dinámico de construcción de confianza.
Publicado Originalme en rss.arxiv.org El 8 de junio de 2025.
Ver Fuente Original