¿Cuándo podemos confiar en el seguimiento que no es de confianza? Un esbozo de caso de seguridad a través de estrategias de colusión

Resumen: Las IA se implementan cada vez más con mayor autonomía y capacidades, lo que aumenta el riesgo de que una IA desalineada pueda causar daños catastróficos. El monitoreo no confiable (usar un modelo no confiable para supervisar otro) es un enfoque para reducir el riesgo.

Leer más →

Comentarios desactivados en ¿Cuándo podemos confiar en el seguimiento que no es de confianza? Un esbozo de caso de seguridad a través de estrategias de colusión

Caracterización fenomenológica basada en la física del sesgo intermodal en modelos multimodales

Resumen: El término “equidad algorítmica” se utiliza para evaluar si los modelos de IA funcionan de manera justa tanto en contextos comparativos (donde la equidad se entiende como igualdad formal, como “tratar casos similares como similares”) como no comparativos (donde la injusticia surge de la inexactitud, arbitrariedad o inescrutabilidad del modelo).

Leer más →

Comentarios desactivados en Caracterización fenomenológica basada en la física del sesgo intermodal en modelos multimodales

CausalReasoningBenchmark: un punto de referencia del mundo real para la evaluación separada de la identificación y estimación causal

Resumen:Muchos puntos de referencia para la inferencia causal automatizada evalúan el rendimiento de un sistema basándose en un único resultado numérico, como un efecto de tratamiento promedio (ATE).

Leer más →

Comentarios desactivados en CausalReasoningBenchmark: un punto de referencia del mundo real para la evaluación separada de la identificación y estimación causal

Fin del contenido

No hay más páginas por cargar