Resumen: Un error de un sistema de IA en un entorno crítico para la seguridad puede costar vidas. A medida que los modelos de lenguaje grande (LLM) se vuelven parte integral de la toma de decisiones en robótica, la dimensión física del riesgo crece; una sola instrucción incorrecta puede poner en peligro directamente la seguridad humana.
Leer más →
Resumen: La inteligencia artificial ahora supera a los humanos en varias tareas científicas y de ingeniería, sin embargo, sus representaciones internas a menudo permanecen opacas. En esta perspectiva, sostenemos que la inteligencia artificial explicable (XAI), combinada con el razonamiento causal, permite {aprender de los alumnos}.
Leer más →
Resumen: Nuestro trabajo lleva a la recomendación de que al establecer la capacidad de un sistema, los resultados deben estratificarse según la probabilidad de la respuesta verdadera, generalmente medida por la tasa de acuerdo de los expertos en verdad básica. La estratificación se vuelve crítica cuando el desempeño general cae por debajo del umbral del 80%.
Leer más →