El precio del significado: por qué todo sistema de memoria semántica olvida

Resumen:Dentro de esta clase obtenemos cuatro resultados: (1) las representaciones semánticamente útiles tienen un rango efectivo finito; (2) la dimensión local finita implica una masa competitiva positiva en los barrios de recuperación; (3) bajo una memoria creciente, la retención decae a cero, produciendo curvas de olvido de la ley de potencias según las estadísticas de llegada de la ley de pot

Leer más →

Comentarios desactivados en El precio del significado: por qué todo sistema de memoria semántica olvida

Cuando la verificación duele: efectos asimétricos de la retroalimentación de múltiples agentes en la tutoría de prueba lógica

Resumen: Los modelos de lenguaje grande (LLM) se utilizan cada vez más para la tutoría automatizada, pero su confiabilidad en dominios simbólicos estructurados aún no está clara. Estudiamos la retroalimentación a nivel de paso para pruebas de lógica proposicional, que requieren un razonamiento simbólico preciso alineado con el estado de prueba actual del alumno.

Leer más →

Comentarios desactivados en Cuando la verificación duele: efectos asimétricos de la retroalimentación de múltiples agentes en la tutoría de prueba lógica

FormalProofBench: ¿Pueden los modelos escribir pruebas matemáticas de nivel de posgrado que estén verificadas formalmente?

Resumen:Presentamos FormalProofBench, un punto de referencia privado diseñado para evaluar si los modelos de IA pueden producir pruebas matemáticas formalmente verificadas a nivel de posgrado. Cada tarea combina un problema de lenguaje natural con una declaración formal de Lean~4, y un modelo debe generar una prueba de Lean aceptada por el verificador de Lean 4.

Leer más →

Comentarios desactivados en FormalProofBench: ¿Pueden los modelos escribir pruebas matemáticas de nivel de posgrado que estén verificadas formalmente?

Fin del contenido

No hay más páginas por cargar