Resumen: La capacidad de procesar información de múltiples modalidades y razonar a través de TI paso a paso sigue siendo un desafío crítico para avanzar en la inteligencia artificial.
Leer más →
Resumen: Los modelos de lenguaje grande (LLM) han demostrado considerables habilidades de razonamiento en diversas tareas, como las matemáticas y la codificación. Sin embargo, estudios recientes indican que incluso los mejores modelos carecen de una verdadera comprensión de sus procesos de razonamiento.
Leer más →
Resumen: los modelos de mezcla de expertos (MOE) permiten el cálculo condicional mediante las entradas de enrutamiento a expertos especializados, pero estos expertos dependen de sesgos inductivos idénticos, lo que limita la diversidad representativa.
Leer más →