En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Chispas de racionalidad: ¿Los LLM de razonamiento se alinean con el juicio y la elección humanos?

Chispas de racionalidad: ¿Los LLM de razonamiento se alinean con el juicio y la elección humanos?

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los modelos de lenguajes grandes (LLM, por sus siglas en inglés) se posicionan cada vez más como motores de decisiones para la contratación, la atención médica y el juicio económico, sin embargo, el juicio humano en el mundo real refleja un equilibrio entre la deliberación racional y el sesgo impulsado por las emociones. Si los LLM van a participar en decisiones de alto riesgo o servir como modelos de comportamiento humano, es fundamental evaluar si exhiben patrones análogos de (ir)racionalidades y sesgos. Con este fin, evaluamos múltiples familias de LLM en (i) puntos de referencia que prueban axiomas centrales de elección racional y (ii) dominios de decisión clásicos de la economía del comportamiento y las normas sociales donde se sabe que las emociones dan forma al juicio y la elección. En todos los entornos, mostramos que el “pensamiento” deliberado mejora de manera confiable la racionalidad y empuja los modelos hacia la maximización del valor esperado. Para investigar las distorsiones afectivas similares a las humanas y su interacción con el razonamiento, utilizamos dos métodos de dirección de las emociones: preparación en contexto (ICP) y dirección a nivel de representación (RLS). La PIC induce fuertes cambios direccionales que a menudo son extremos y difíciles de calibrar, mientras que el RLS produce patrones psicológicamente más plausibles pero con menor confiabilidad. Nuestros resultados sugieren que los mismos mecanismos que mejoran la racionalidad también amplifican la sensibilidad a las intervenciones afectivas, y que diferentes métodos de dirección compensan la controlabilidad con el comportamiento alineado con los humanos. En general, esto apunta a una tensión entre el razonamiento y la dirección afectiva, con implicaciones tanto para la simulación humana como para el despliegue seguro de sistemas de decisión basados ​​en LLM.

Publicado originalmente en export.arxiv.org el 1 de febrero de 2026.
Ver fuente original

admin

Usuario de administración del sitio web