En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Inicio cognitivo: razonamiento agente contra engaños visuales inyectando escepticismo

Inicio cognitivo: razonamiento agente contra engaños visuales inyectando escepticismo

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: A medida que se desarrollan contenidos generados por IA (AIGC), los modelos de lenguajes grandes (LLM) multimodales luchan por identificar las entradas visuales generadas a partir de las reales. Esta deficiencia provoca vulnerabilidad frente a engaños visuales, en los que los modelos son engañados por los contenidos generados y se pone en peligro la fiabilidad de los procesos de razonamiento. Por lo tanto, frente a modelos generativos que emergen rápidamente y una distribución diversa de datos, es de vital importancia mejorar el razonamiento generalizable de los LLM para verificar la autenticidad de las entradas visuales frente a posibles engaños. Inspirándonos en los procesos cognitivos humanos, descubrimos que los LLM exhiben una tendencia a confiar demasiado en las entradas visuales, mientras que inyectar escepticismo podría mejorar significativamente la capacidad cognitiva visual del modelo contra los engaños visuales. Con base en este descubrimiento, proponemos textbf{Inception}, un marco de razonamiento agente totalmente basado en el razonamiento para realizar una verificación de autenticidad generalizable mediante la inyección de escepticismo, donde la lógica de razonamiento de los LLM se mejora de forma iterativa entre agentes escépticos externos y escépticos internos. Hasta donde sabemos, este es el primer marco totalmente basado en el razonamiento contra los engaños visuales del AIGC. Nuestro enfoque logró un amplio margen de mejora del rendimiento con respecto a las líneas de base LLM más sólidas existentes y al rendimiento SOTA en el punto de referencia AEGIS.

Publicado originalmente en export.arxiv.org el 25 de noviembre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web