Resumen: Argumentamos que el progreso hacia la AGI está limitado por la teoría y no por los datos o la escala. Basándonos en el racionalismo crítico de Popper y Deutsch, cuestionamos la hipótesis de la representación platónica. Mundos observacionalmente equivalentes pueden divergir bajo las intervenciones, por lo que la adecuación observacional por sí sola no puede garantizar la competencia intervencionista. Comenzamos sentando las bases, definiciones de conocimiento, aprendizaje, inteligencia, competencia contrafactual y AGI, y luego analizamos los límites del aprendizaje observacional que motivan un cambio centrado en el error. Reformulamos el problema en tres preguntas sobre cómo evolucionan los errores explícitos e implícitos bajo las acciones de un agente, qué errores son inalcanzables dentro de un espacio de hipótesis fijo y cómo las conjeturas y las críticas expanden ese espacio. A partir de estas preguntas proponemos la Mecánica Causal, un programa de primeros mecanismos en el que el cambio de espacio de hipótesis es una operación de primera clase y la estructura probabilística se utiliza cuando es útil en lugar de presumir. Avanzamos principios estructurales que hacen que el descubrimiento y la corrección de errores sean manejables, incluido un principio diferencial de localidad y autonomía para intervenciones modulares, una forma invariante de calibre de mecanismos causales independientes para la separabilidad y el principio de autonomía composicional para la preservación de analogías, junto con diagnósticos procesables. El objetivo es un andamio para sistemas que puedan convertir errores inalcanzables en alcanzables y corregirlos.
Publicado originalmente en export.arxiv.org el 19 de octubre de 2025.
Ver fuente original
