En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Hacia una inteligencia centrada en el error II: modelos causales estructurados energéticamente

Hacia una inteligencia centrada en el error II: modelos causales estructurados energéticamente

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen:El aprendizaje automático contemporáneo optimiza la precisión predictiva, sin embargo, los sistemas que logran un rendimiento de vanguardia siguen siendo causalmente opacos: sus representaciones internas no proporcionan ningún principio para la intervención. Podemos volver a entrenar tales modelos, pero no podemos editar quirúrgicamente mecanismos específicos mientras mantenemos fijos otros, porque las variables latentes aprendidas carecen de semántica causal. Argumentamos a favor de una reorientación conceptual: la inteligencia es la capacidad de construir y refinar explicaciones, afirmaciones falsables sobre estructuras manipulables que especifican qué cambia y qué permanece invariante bajo intervención. Las explicaciones subsumen la predicción pero exigen más: compromisos causales que puedan ser probados y corregidos de forma independiente al nivel de los mecanismos. Introducimos explicaciones computacionales, mapeos de observaciones a explicaciones causales listas para la intervención. Ejemplificamos estas explicaciones con modelos causales estructurados de energía (ESCM), en los que los mecanismos se expresan como restricciones (funciones de energía o campos vectoriales) en lugar de mapas explícitos de entrada y salida, y las intervenciones actúan mediante cirugía local sobre esas restricciones. Este cambio hace que la estructura interna sea manipulable en el nivel donde viven las explicaciones: qué relaciones deben mantenerse, cuáles pueden cambiar y qué sigue cuando lo hacen. Proporcionamos instancias concretas de los principios estructural-causales LAP e ICM en el contexto ESCM, y también argumentamos que la minimización empírica del riesgo produce sistemáticamente representaciones fracturadas y entrelazadas, una falla que analizamos como ambigüedad de calibre en los pares de energía del codificador. Finalmente, mostramos que en condiciones leves, los ESCM recuperan la semántica estándar de SCM. Partiendo de los principios de la Parte I (LAP, ICM, CAP) y su definición de inteligencia como construcción de explicaciones bajo crítica, este artículo ofrece un lenguaje formal para el razonamiento causal en sistemas que aspiran a comprender, no simplemente a predecir.

Publicado originalmente en export.arxiv.org el 27 de octubre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web