En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Hacer que los LLM sean confiables cuando más importa: una arquitectura de cinco capas para decisiones de alto riesgo

Hacer que los LLM sean confiables cuando más importa: una arquitectura de cinco capas para decisiones de alto riesgo

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen:Este informe describe un marco que surge de una evaluación cualitativa sistemática en 7 LLM de vanguardia y 3 viñetas de empresas orientadas al mercado bajo presión de tiempo. Las indicaciones detalladas que especificaban la asociación en la toma de decisiones y las instrucciones explícitas para evitar la adulación, la confabulación, la deriva de la solución y el nihilismo lograron el estado de asociación inicial, pero no lograron mantenerlo bajo presión operativa. Mantener el estado de asociación protectora requirió una secuencia de calibración emergente de 7 etapas, construida sobre un proceso de inicialización de 4 etapas, dentro de una arquitectura de protección de 5 capas que permitía el autocontrol de sesgos, el desafío adversario humano-IA, la verificación del estado de la asociación, la detección de degradación del rendimiento y la protección de las partes interesadas.
Resultaron tres descubrimientos: el estado de asociación se puede lograr mediante una calibración ordenada, pero requiere protocolos de mantenimiento emergentes; la confiabilidad se degrada cuando se alinean la deriva arquitectónica y el agotamiento del contexto; y la disciplina de disolución evita la costosa búsqueda de direcciones fundamentalmente equivocadas. La validación entre modelos reveló diferencias sistemáticas de rendimiento entre las arquitecturas LLM.
Este enfoque demuestra que los equipos humanos-IA pueden lograr una asociación cognitiva capaz de evitar arrepentimientos evitables en decisiones de alto riesgo, abordando las expectativas de retorno de la inversión que dependen de que los sistemas de IA apoyen la toma de decisiones consecuentes sin introducir trampas cognitivas evitables cuando la verificación llega demasiado tarde.

Publicado originalmente en export.arxiv.org el 11 de noviembre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web