Resumen: los modelos de lenguaje de transformador-decodificador son una innovación central en la inteligencia artificial generativa basada en texto. Estos modelos se están implementando como sistemas de inteligencia de uso general en muchas aplicaciones. El centro de su utilidad es la capacidad de comprender los comandos del lenguaje natural y explotar el razonamiento integrado en los corpus de texto humano para aplicar alguna forma de proceso de razonamiento a una amplia variedad de tareas novedosas. Para comprender las limitaciones de este enfoque para generar razonamiento, argumentamos que debemos considerar las limitaciones arquitectónicas de estos sistemas. La consideración de la estructura variable latente de los modelos de transformador-decodificador nos permite diseñar tareas de razonamiento que deberían probar el límite de su capacidad para razonar. Presentamos Enigme, una biblioteca de código abierto para generar rompecabezas basados en texto que se utilizarán en la capacitación y la evaluación de las habilidades de razonamiento dentro de los modelos de transformadores y las futuras arquitecturas de IA.
Publicado Originalme en rss.arxiv.org El 8 de mayo de 2025.
Ver Fuente Original