Resumen: Los modelos de lenguaje grande (LLM) prometen transformar los juegos interactivos al permitir que personajes no jugadores (NPC) mantengan diálogos sin guión. Sin embargo, aún no está claro si las indicaciones restringidas realmente mejoran la experiencia del jugador. Investigamos esta cuestión a través de The Interview, un juego de detectives basado en voz impulsado por GPT-4o. Un estudio de usabilidad entre sujetos ($N=10$) comparó indicaciones de alta restricción (HCP) y de baja restricción (LCP), y no reveló diferencias experienciales confiables más allá de la sensibilidad a fallas técnicas. Guiados por estos hallazgos, rediseñamos el HCP en un andamio híbrido JSON+RAG y realizamos una evaluación sintética con un juez de LLM, posicionado como un complemento en la etapa inicial de las pruebas de usabilidad. Los resultados descubrieron un patrón novedoso: los efectos de andamiaje dependían del rol: el entrevistador (PNJ que daba la misión) ganó estabilidad, mientras que los NPC sospechosos perdieron credibilidad en la improvisación. Estos hallazgos anulan la suposición de que restricciones más estrictas mejoran inherentemente el juego. Ampliando el andamiaje simbólico difuso, presentamos textit{Juego con andamiaje simbólico}, un marco en el que las estructuras simbólicas se expresan como límites numéricos difusos que estabilizan la coherencia cuando es necesaria y al mismo tiempo preservan la improvisación donde la sorpresa sustenta el compromiso.
Publicado originalmente en export.arxiv.org el 30 de octubre de 2025.
Ver fuente original
