Resumen: La inteligencia artificial (IA) está transformando sectores como la atención médica, las finanzas y los sistemas autónomos, ofreciendo herramientas poderosas para la innovación. Sin embargo, su rápida integración plantea preocupaciones éticas urgentes relacionadas con la propiedad de los datos, la privacidad y el sesgo sistémico. Los problemas como la toma de decisiones opacas, los resultados engañosos y el tratamiento injusto en dominios de alto riesgo subrayan la necesidad de sistemas de IA transparentes y responsables. Este artículo aborda estos desafíos al proponer un marco de evaluación ética modular basada en bloques ontológicos de unidades interpretables e discretas de significado que codifican principios éticos como la equidad, la responsabilidad y la propiedad. Al integrar estos bloques con principios justos (consultables, accesibles, interoperables, reutilizables), el marco admite evaluaciones éticas escalables, transparentes y legalmente alineadas, incluido el cumplimiento de la Ley de AI de la UE. Utilizando un caso de uso del mundo real en el perfil de inversionistas con IA, el documento demuestra cómo el marco permite la clasificación dinámica de riesgos basado en el comportamiento. Los resultados sugieren que los bloques ontológicos ofrecen un camino prometedor hacia la ética de IA explicable y auditable, aunque los desafíos permanecen en la automatización y el razonamiento probabilístico.
Publicado Originalme en rss.arxiv.org El 2 de junio de 2025.
Ver Fuente Original