Resumen:Este artículo examina el papel de la lógica de umbral en la comprensión de la inteligencia artificial generativa. Las funciones de umbral, originalmente estudiadas en la década de 1960 en la síntesis de circuitos digitales, proporcionan un modelo estructuralmente transparente de computación neuronal: una suma ponderada de entradas comparadas con un umbral, realizado geométricamente como un hiperplano que divide un espacio. El artículo muestra que esta operación sufre una transición cualitativa a medida que aumenta la dimensionalidad. En dimensiones bajas, el perceptrón actúa como un clasificador lógico determinado, separando clases cuando es posible, según lo decide la programación lineal. Sin embargo, en dimensiones elevadas, un único hiperplano puede separar casi cualquier configuración de puntos (Cover, 1965); el espacio se satura con clasificadores potenciales y el perceptrón pasa de ser un dispositivo lógico a uno de navegación, funcionando como un indicador indexical en el sentido de Peirce. Las limitaciones del perceptrón identificadas por Minsky y Papert (1969) se abordaron históricamente mediante la introducción de arquitecturas multicapa. Este artículo considera un camino alternativo: aumentar la dimensionalidad manteniendo un único elemento de umbral. Sostiene que este cambio tiene implicaciones igualmente significativas para comprender la computación neuronal. El papel de la profundidad se reinterpreta como un mecanismo para la deformación secuencial de múltiples datos a través de operaciones de umbral iteradas, preparándolos para la separabilidad lineal que ya ofrece la geometría de alta dimensión. La explicación triádica resultante (función de umbral como unidad ontológica, dimensionalidad como condición habilitante y profundidad como mecanismo preparatorio) proporciona una perspectiva unificada sobre la IA generativa basada en matemáticas establecidas.
Publicado originalmente en export.arxiv.org el 5 de abril de 2026.
Ver fuente original
