Resumen: Los avances recientes en modelos de lenguajes grandes (LLM) demuestran que las indicaciones en cadena de pensamiento y el razonamiento profundo mejoran sustancialmente el desempeño en tareas complejas, y los sistemas multiagente pueden mejorar aún más la precisión al permitir debates sobre modelos. Sin embargo, aplicar un razonamiento profundo a todos los problemas es computacionalmente costoso. Para mitigar estos costos, proponemos un sistema de agentes complementario que integre LLM grandes y pequeños. El LLM pequeño primero genera una respuesta inicial, que luego es verificada por el LLM grande. Si es correcta, la respuesta se adopta directamente; de lo contrario, el LLM grande realiza un razonamiento en profundidad. Los resultados experimentales muestran que, para problemas simples, nuestro enfoque reduce el costo computacional del LLM grande en más del 50% con una pérdida de precisión insignificante, al tiempo que mantiene consistentemente un rendimiento sólido en tareas complejas.
Publicado originalmente en export.arxiv.org el 15 de octubre de 2025.
Ver fuente original
