Resumen: Si los modelos de IA pueden introspectar es una pregunta práctica cada vez más importante. Pero no hay consenso sobre cómo se va a definir la introspección. A partir de una definición “ligera” recientemente propuesta, argumentamos para una más gruesa. Según nuestra propuesta, la introspección en la IA es cualquier proceso que produce información sobre los estados internos a través de un proceso más confiable que uno con un costo computacional igual o menor disponible para un tercero. Utilizando experimentos donde LLMS razonan sobre sus parámetros de temperatura interna, mostramos que pueden parecer tener una introspección ligera mientras no logran introspectar de manera significativa según nuestra definición propuesta.
Publicado Originalme en export.arxiv.org El 20 de agosto de 2025.
Ver Fuente Original