Resumen:A medida que los modelos generativos se vuelven ubicuos, existe una necesidad crítica de un control detallado sobre el proceso de generación. Sin embargo, aunque proliferan los métodos de generación controlada, desde la estimulación hasta el ajuste fino, una pregunta fundamental sigue sin respuesta: ¿son estos modelos realmente controlables en primer lugar? En este trabajo, proporcionamos un marco teórico para responder formalmente a esta pregunta. Enmarcando la interacción humano-modelo como un proceso de control, proponemos un algoritmo novedoso para estimar los conjuntos controlables de modelos en un entorno de diálogo. En particular, proporcionamos garantías formales sobre el error de estimación en función de la complejidad de la muestra: derivamos límites probablemente aproximadamente correctos para estimaciones de conjuntos controlables que no tienen distribución, no empleamos suposiciones excepto la acotación de la salida y trabajamos para cualquier sistema de control no lineal de caja negra (es decir, cualquier modelo generativo). Demostramos empíricamente el marco teórico sobre diferentes tareas en el control de procesos de diálogo, tanto para modelos de lenguaje como para generación de texto a imagen. Nuestros resultados muestran que la controlabilidad del modelo es sorprendentemente frágil y altamente dependiente del entorno experimental. Esto resalta la necesidad de un análisis riguroso de la controlabilidad, cambiando el enfoque de simplemente intentar controlar a comprender primero sus límites fundamentales.
Publicado originalmente en export.arxiv.org el 11 de enero de 2026.
Ver fuente original
