Resumen: Los modelos de lenguaje grande (LLM) han mostrado un potencial significativo en el descubrimiento científico, pero luchan por cerrar la brecha entre el razonamiento teórico y la simulación física verificable.
Leer más →
Resumen:Obtener un modelo de preferencia implica formular a una persona, denominada tomador de decisiones, una serie de preguntas. Suponemos que estas preferencias pueden representarse mediante una función de valor aditivo. En este trabajo, interrogamos simultáneamente a dos tomadores de decisiones con el objetivo de obtener sus respectivas funciones de valor.
Leer más →
Resumen: Las IA se implementan cada vez más con mayor autonomía y capacidades, lo que aumenta el riesgo de que una IA desalineada pueda causar daños catastróficos. El monitoreo no confiable (usar un modelo no confiable para supervisar otro) es un enfoque para reducir el riesgo.
Leer más →