En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Atribución humana de causalidad a la IA a través de la agencia, el mal uso y la desalineación

Atribución humana de causalidad a la IA a través de la agencia, el mal uso y la desalineación

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los incidentes relacionados con la IA son cada vez más frecuentes y graves, y van desde fallas de seguridad hasta el uso indebido por parte de actores maliciosos. En situaciones tan complejas, identificar qué elementos causaron un resultado adverso, el problema de la selección de la causa, es un primer paso crítico para establecer la responsabilidad. Este artículo investiga las percepciones populares sobre la responsabilidad causal en las estructuras de cadenas causales cuando los sistemas de IA están involucrados en resultados dañinos. Realizamos experimentos en humanos para examinar juicios de causalidad, culpa, previsibilidad y razonamiento contrafáctico. Nuestros hallazgos muestran que: (1) Cuando la agencia de la IA era moderada (el ser humano establece el objetivo, la IA determina los medios) o alta (la IA establece el objetivo y los medios), los participantes atribuyeron una mayor responsabilidad causal a la IA. Sin embargo, en condiciones de baja agencia de IA (donde un humano establece tanto una meta como unos medios), los participantes asignaron una mayor responsabilidad causal al humano a pesar de su distancia temporal del resultado y a pesar de que ambos agentes lo pretendían, lo que sugiere un efecto de autonomía; (2) Cuando invertimos los roles entre humanos e IA, los participantes juzgaron consistentemente al humano como más causal, incluso cuando ambos agentes realizan la misma acción; (3) El desarrollador, a pesar de estar distante en la cadena, fue juzgado altamente causal, reduciendo las atribuciones causales al usuario humano pero no a la IA; (4) La descomposición de la IA en un modelo de lenguaje grande y un componente agente mostró que la parte agente se consideró más causal en la cadena. En general, nuestra investigación proporciona evidencia sobre cómo las personas perciben la contribución causal de la IA tanto en escenarios de mal uso como de desalineación, y cómo estos juicios interactúan con los roles de los usuarios y desarrolladores, actores clave en la asignación de responsabilidades. Estos hallazgos pueden informar el diseño de marcos de responsabilidad por los daños causados ​​por la IA y arrojar luz sobre cómo los juicios intuitivos dan forma a los debates sociales y políticos en torno a los incidentes relacionados con la IA en el mundo real.

Publicado originalmente en export.arxiv.org el 16 de marzo de 2026.
Ver fuente original

admin

Usuario de administración del sitio web