En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Una historia de LLM y pequeños proxies inducidos: agentes escalables para la minería de conocimiento

Una historia de LLM y pequeños proxies inducidos: agentes escalables para la minería de conocimiento

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: en el núcleo de la investigación profunda está la minería de conocimiento, la tarea de extraer información estructurada del texto no estructurado masivo en respuesta a las instrucciones del usuario. Los modelos de lenguaje grande (LLMS) se destacan en la interpretación de tales instrucciones, pero son prohibitivamente costosos de desplegar a escala, mientras que las tuberías tradicionales de clasificadores y extractores siguen siendo eficientes pero quebradizos y no pueden generalizarse a nuevas tareas. Introducimos a Falconer, un marco de colaboración que combina el razonamiento agente de los LLM con modelos proxy livianos para la minería de conocimiento escalable. En Falconer, LLMS actúa como planificadores, descomponiendo las instrucciones del usuario en tuberías ejecutables y como anotadores, generando supervisión para capacitar a pequeños proxies. El marco unifica la clasificación y la extracción en dos operaciones atómicas, obtenga etiqueta y obtenga un tramo, lo que permite un solo modelo de seguimiento de instrucciones para reemplazar múltiples componentes específicos de la tarea. Para evaluar la consistencia entre los modelos proxy incubados por Falconer y las anotaciones proporcionadas por humanos y modelos grandes, construimos nuevos puntos de referencia que cubren la planificación y la ejecución de extremo a extremo. Los experimentos muestran que Falconer coincide estrechamente con LLM de última generación en la precisión de seguimiento de instrucciones, al tiempo que reduce el costo de inferencia en hasta un 90% y acelera la minería de conocimiento a gran escala en más de 20X, ofreciendo una base eficiente y escalable para investigaciones profundas.

Publicado Originalme en export.arxiv.org El 2 de octubre de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web