En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->¿Cómo optimizar automáticamente las indicaciones para las tareas de dominio? Incitación y razonamiento adaptativos a través de la adaptación del conocimiento del dominio evolutivo

¿Cómo optimizar automáticamente las indicaciones para las tareas de dominio? Incitación y razonamiento adaptativos a través de la adaptación del conocimiento del dominio evolutivo

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen:Diseñar indicaciones y procesos de razonamiento óptimos para modelos de lenguaje grandes (LLM) en tareas de dominios específicos es necesario y desafiante en aplicaciones del mundo real. Determinar cómo integrar el conocimiento del dominio, mejorar la eficiencia del razonamiento e incluso proporcionar a los expertos en el dominio sugerencias refinadas para la integración del conocimiento son tareas particularmente cruciales pero aún no resueltas. En esta investigación, proponemos la optimización del gráfico evolutivo para indicaciones (EGO-Prompt), un marco automatizado para diseñar mejores indicaciones, procesos de razonamiento eficientes y proporcionar procesos mejorados con información causal. EGO-Prompt comienza con descripciones iniciales del Gráfico causal semántico (SCG), rápidas y tolerantes a fallas, construidas por expertos humanos, que luego se refinan y optimizan automáticamente para guiar el razonamiento de LLM. Al reconocer que los SCG definidos por expertos pueden ser parciales o imperfectos y que su integración óptima varía entre los LLM, EGO-Prompt integra un novedoso proceso de gradiente textual guiado causal en dos pasos: primero, generar una guía de razonamiento casi determinista del SCG para cada instancia, y segundo, adaptar el LLM para utilizar de manera efectiva la guía junto con la entrada original. El algoritmo de optimización iterativo refina aún más tanto el SCG como el mecanismo de razonamiento utilizando gradientes textuales con verdad fundamental. Probamos el marco en tareas de salud pública, transporte y comportamiento humano del mundo real. EGO-Prompt logra un F1 entre un 7,32 % y un 12,61 % más alto que los métodos de vanguardia y permite que los modelos pequeños alcancen el rendimiento de los modelos más grandes por menos del 20 % del coste original. También genera un SCG refinado y específico de dominio que mejora la interpretabilidad.

Publicado originalmente en export.arxiv.org el 26 de octubre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web