En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Hacer preguntas aclaratorias para obtener preferencias con modelos de lenguaje grandes

Hacer preguntas aclaratorias para obtener preferencias con modelos de lenguaje grandes

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los modelos de lenguajes grandes (LLM) han hecho posible que los sistemas de recomendación interactúen con los usuarios en interfaces conversacionales abiertas. Para personalizar las respuestas de LLM, es fundamental obtener las preferencias del usuario, especialmente cuando el historial del usuario es limitado. Una forma de obtener más información es presentar preguntas aclaratorias al usuario. Sin embargo, generar preguntas aclaratorias secuenciales efectivas en varios ámbitos sigue siendo un desafío. Para abordar esto, presentamos un enfoque novedoso para capacitar a los LLM para que hagan preguntas secuenciales que revelen las preferencias del usuario. Nuestro método sigue un proceso de dos etapas inspirado en modelos de difusión. A partir de un perfil de usuario, el proceso de reenvío genera preguntas aclaratorias para obtener respuestas y luego elimina esas respuestas paso a paso, sirviendo como una forma de agregar “ruido” al perfil de usuario. El proceso inverso implica entrenar un modelo para “eliminar el ruido” del perfil del usuario aprendiendo a hacer preguntas aclaratorias efectivas. Nuestros resultados muestran que nuestro método mejora significativamente la competencia del LLM para hacer preguntas de embudo y obtener las preferencias del usuario de manera efectiva.

Publicado originalmente en export.arxiv.org el 14 de octubre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web