Resumen: Los sistemas de IA modernos son objetos hechos por el hombre que aprovechan el aprendizaje automático para apoyar nuestras vidas en una miríada de contextos y aplicaciones. A pesar de los extensos debates epistemológicos y éticos, sus bases metafísicas permanecen relativamente exploradas. La visión ortodoxa simplemente sugiere que los sistemas de IA, como artefactos, carecen de identidad bien planteada y condiciones de persistencia: sus tipos metafísicos no son tipos reales. En este trabajo, desafiamos esta perspectiva introduciendo una teoría de la identidad metafísica de los sistemas de IA. Lo hacemos caracterizando sus tipos e introduciendo criterios de identidad, reglas formales que responden las preguntas “¿Cuándo son iguales dos sistemas de IA?” y “¿Cuándo persiste un sistema de IA, a pesar del cambio?” Sobre la base del relato de Carrara y Vermaas de los tipos de artefactos de grano fino, argumentamos que la confiabilidad de la IA proporciona una lente para comprender los tipos de sistemas de IA y formalizar la identidad de estos artefactos al relacionar sus requisitos funcionales con sus maquillajes físicos. Los criterios de identidad de los sistemas de IA están determinados por sus perfiles de confiabilidad: la colección de capacidades que los sistemas deben mantener con el tiempo a lo largo de sus historias de artefactos y su efectividad para mantener estas capacidades. Nuestro enfoque sugiere que la identidad y la persistencia de los sistemas de IA es sensible al contexto socio-técnico de su diseño y utilización a través de su confiabilidad, proporcionando una base metafísica sólida a las discusiones epistemológicas, éticas y legales sobre estos artefactos.
Publicado Originalme en rss.arxiv.org El 4 de junio de 2025.
Ver Fuente Original