Destilando el aprendizaje por refuerzo profundo en reglas difusas interpretables: un marco de IA explicable

Resumen: Los agentes de aprendizaje por refuerzo profundo (DRL) logran un rendimiento notable en el control continuo, pero permanecen opacos, lo que dificulta el despliegue en dominios críticos para la seguridad.

Leer más →

Comentarios desactivados en Destilando el aprendizaje por refuerzo profundo en reglas difusas interpretables: un marco de IA explicable

Cuando se rompe Alpha: incertidumbre de dos niveles para el despliegue seguro de clasificadores de acciones transversales

Resumen: Los modelos de clasificación transversal a menudo se implementan como si las predicciones puntuales fueran suficientes: el modelo genera puntuaciones y la cartera sigue el orden inducido. En condiciones de no estacionariedad, los líderes pueden fallar durante los cambios de régimen.

Leer más →

Comentarios desactivados en Cuando se rompe Alpha: incertidumbre de dos niveles para el despliegue seguro de clasificadores de acciones transversales

ManiBench: un punto de referencia para probar la deriva de la lógica visual y las alucinaciones sintácticas en la generación de código Manim

Resumen: Los puntos de referencia tradicionales como HumanEval y MBPP prueban la lógica y la sintaxis de manera efectiva, pero fallan cuando el código debe producir imágenes pedagógicas y dinámicas.

Leer más →

Comentarios desactivados en ManiBench: un punto de referencia para probar la deriva de la lógica visual y las alucinaciones sintácticas en la generación de código Manim

Fin del contenido

No hay más páginas por cargar