Resumen: Se cree ampliamente que los modelos de lenguaje grande (LLM) poseen capacidades de autocorrección, sin embargo, estudios recientes sugieren que la autocorrección intrínseca, donde los modelos corrigen sus propios resultados sin retroalimentación externa, sigue siendo en gran medida ineficaz.
Leer más →
Resumen: Los grandes modelos de razonamiento (LRM) tienen costos de energía de inferencia heterogéneos según el modelo que se utiliza y cuánto razona. Para reducir la energía, es importante elegir el LRM adecuado y operarlo de la manera correcta.
Leer más →
Resumen: Los modelos de lenguajes grandes (LLM) han avanzado rápidamente y Gemini-3-Pro ha establecido un nuevo hito en rendimiento. En este trabajo, exploramos la inteligencia colectiva como una alternativa al escalamiento monolítico y demostramos que la colaboración de los LLM de código abierto puede superar a Gemini-3-Pro.
Leer más →