Resumen: Los avances recientes en modelos de lenguaje grande multimodal (MLLM), particularmente a través del aprendizaje de refuerzo con recompensas verificables (RLVR), han mejorado significativamente sus habilidades de razonamiento. Sin embargo, una brecha crítica persiste: estos modelos luchan con interacciones espaciales dinámicas, una capacidad esencial para aplicaciones del mundo real.
Leer más →
Resumen: La aparición de agentes del Modelo de Lenguaje Gran Autónomo (LLM) capaces de usar herramientas ha introducido nuevos riesgos de seguridad que van más allá del uso indebido de conversación tradicional.
Leer más →
Resumen: Presentamos nuestro Leanabell-Prover-V2, un modelos de lenguaje grande 7B (LLMS) que puede producir pruebas formales del teorema en Lean 4, con una larga cadena de pensamientos (COT) integrada por el verificador. Después de nuestro trabajo anterior Leanabell-Prover-V1, continuamos optando por postrar a los modelos de Prover fuertes existentes para una mayor mejora del rendimiento.
Leer más →