Resumen:En este trabajo, reinterpretamos el papel del aprendizaje en el contexto de los agentes de IA, viéndolos como sistemas dinámicos estocásticos con capacidad de computación, y resaltamos el papel del tiempo como un principio fundamental para aprender a razonar. Al hacerlo, proponemos un cambio del aprendizaje inductivo clásico al aprendizaje transductivo, donde el objetivo no es aproximar la distribución de datos pasados, sino capturar su estructura algorítmica para reducir el tiempo necesario para encontrar soluciones a nuevas tareas.
El aprendizaje transductivo sugiere que, contrariamente a la teoría de Shannon, un papel clave de la información en el aprendizaje tiene que ver con la reducción del tiempo más que con la reconstrucción del error. En particular, mostramos que la aceleración óptima que un solucionador universal puede lograr utilizando datos pasados está estrechamente relacionada con su información algorítmica. Usando esto, mostramos una derivación teórica para la escala observada de la ley de potencia del tiempo de inferencia versus el tiempo de entrenamiento. Luego mostramos que escalar el tamaño del modelo puede conducir a comportamientos que, si bien mejoran la precisión en los puntos de referencia, no superan ninguna prueba razonable de inteligencia, y mucho menos de superinteligencia: en el límite del espacio y el tiempo infinitos, los modelos grandes pueden comportarse como sabios, capaces de realizar cualquier tarea con fuerza bruta sin ningún conocimiento. En cambio, sostenemos que la cantidad clave que se debe optimizar al escalar los modelos de razonamiento es el tiempo, cuyo papel crítico en el aprendizaje hasta ahora sólo se ha considerado indirectamente.
Publicado originalmente en export.arxiv.org el 14 de octubre de 2025.
Ver fuente original
