Resumen: Los modelos de lenguaje grande (LLM, por sus siglas en inglés) son pilares prometedores para los sistemas de recomendación generativos, sin embargo, un desafío clave sigue sin explorarse: la verbalización, es decir, convertir registros estructurados de interacción del usuario en entradas efectivas de lenguaje natural. Los métodos existentes se basan en plantillas rígidas que simplemente concatenan campos, generando representaciones subóptimas para la recomendación. Proponemos un marco centrado en datos que aprende a verbalizar para recomendaciones basadas en LLM. Utilizando el aprendizaje por refuerzo, un agente de verbalización transforma historias de interacción sin procesar en contextos textuales optimizados, con la precisión de las recomendaciones como señal de entrenamiento. Este agente aprende a filtrar el ruido, incorporar metadatos relevantes y reorganizar la información para mejorar las predicciones posteriores. Los experimentos en un conjunto de datos de transmisión industrial a gran escala muestran que la verbalización aprendida ofrece hasta un 93 % de mejora relativa en la precisión de las recomendaciones de elementos de descubrimiento con respecto a las líneas de base basadas en plantillas. Un análisis más detallado revela estrategias emergentes como el resumen de los intereses del usuario, la eliminación de ruido y la normalización de la sintaxis, lo que ofrece información sobre la construcción de contexto eficaz para los sistemas de recomendación basados en LLM.
Publicado originalmente en export.arxiv.org el 24 de febrero de 2026.
Ver fuente original
