Resumen: Los modelos de lenguaje grande multimodal (MLLM) todavía funcionan mal en las tareas científicas, particularmente aquellos que requieren razonamiento de múltiples pasos e interpretables.
Leer más →
Resumen: Este informe presenta una taxonomía y ejemplos de posibles eventos omnicidas resultantes de la IA: escenarios en los que todos o casi todos los humanos son asesinados. Estos eventos no se presentan como inevitables, sino como posibilidades que podamos trabajar para evitar.
Leer más →
Resumen: Los agentes de codificación basados en LLM se están implementando rápidamente en el desarrollo de software, sin embargo, sus implicaciones de seguridad siguen siendo poco conocidas. Estos agentes, aunque son capaces de acelerar el desarrollo de software, pueden introducir inadvertidamente prácticas inseguras.
Leer más →