En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Alucinación basada en el conocimiento en modelos de idiomas grandes: un estudio empírico sobre el modelado de procesos

Alucinación basada en el conocimiento en modelos de idiomas grandes: un estudio empírico sobre el modelado de procesos

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La utilidad de los modelos de lenguaje grande (LLM) en tareas analíticas se basa en su vasto conocimiento previamente capacitado, lo que les permite interpretar entradas ambiguas e inferir información faltante. Sin embargo, esta misma capacidad introduce un riesgo crítico de lo que llamamos la alucinación impulsada por el conocimiento: un fenómeno donde la producción del modelo contradice evidencia de fuente explícita porque está anulada por el conocimiento interno generalizado del modelo. Este documento investiga este fenómeno mediante la evaluación de LLM en la tarea del modelado de procesos automatizado, donde el objetivo es generar un modelo de proceso de negocio formal a partir de un artefacto de origen dado. El dominio de la gestión de procesos comerciales (BPM) proporciona un contexto ideal para este estudio, ya que muchos procesos comerciales centrales siguen patrones estandarizados, lo que hace que LLMS posea fuertes esquemas previamente capacitados para ellos. Realizamos un experimento controlado diseñado para crear escenarios con conflicto deliberado entre evidencia proporcionada y el conocimiento de antecedentes de la LLM. Utilizamos entradas que describen estructuras de proceso estándar y deliberadamente atípicas para medir la fidelidad de la LLM a la evidencia proporcionada. Nuestro trabajo proporciona una metodología para evaluar este problema de confiabilidad crítica y crear conciencia sobre la necesidad de la validación rigurosa de artefactos generados por IA en cualquier dominio basado en evidencia.

Publicado Originalme en export.arxiv.org El 21 de septiembre de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web