Resumen: La explicación e interpretabilidad son los pilares de los sistemas de inteligencia artificial (IA) fronteriza y de próxima generación. Esto es especialmente cierto en los sistemas recientes, como los modelos de idiomas grandes (LLM), y más ampliamente, IA generativa. Por otro lado, la adaptabilidad a nuevos dominios, contextos o escenarios también es un aspecto importante para un sistema exitoso. Como tal, estamos particularmente interesados en cómo podemos fusionar estos dos esfuerzos, es decir, investigar el diseño de sistemas de IA neuroestimbólicos transferibles e interpretables. Específicamente, nos centramos en una clase de sistemas denominados sistemas de “generación de recuperación de agente”, que seleccionan, interpretan y consultan activamente las fuentes de conocimiento en respuesta a las indicaciones del lenguaje natural. En este artículo, evaluamos sistemáticamente cómo las diferentes conceptualizaciones y representaciones del conocimiento, particularmente la estructura y la complejidad, impactan a un agente de IA (en este caso, un LLM) para consultar de manera efectiva una triplista. Reportamos nuestros resultados, que muestran que hay impactos de ambos enfoques, y discutimos su impacto e implicaciones.
Publicado Originalme en export.arxiv.org El 14 de julio de 2025.
Ver Fuente Original