Puntuaciones logarítmicas, descubrimientos de la ley de potencias: desvinculación de la medición de la cobertura en la evaluación basada en agentes

Resumen: Los jueces agentes basados ​​en LLM son un enfoque emergente para evaluar la IA conversacional, sin embargo, persiste una incertidumbre fundamental: ¿podemos confiar en sus evaluaciones y, de ser así, cuántas se necesitan?

Leer más →

Comentarios desactivados en Puntuaciones logarítmicas, descubrimientos de la ley de potencias: desvinculación de la medición de la cobertura en la evaluación basada en agentes

Hacia una estimación de la incertidumbre confiable y alineada con la verdad en modelos de lenguaje grandes

Resumen: La estimación de incertidumbre (UE) tiene como objetivo detectar resultados alucinados de modelos de lenguaje grande (LLM) para mejorar su confiabilidad. Sin embargo, las métricas de UE a menudo muestran un rendimiento inestable en todas las configuraciones, lo que limita significativamente su aplicabilidad.

Leer más →

Comentarios desactivados en Hacia una estimación de la incertidumbre confiable y alineada con la verdad en modelos de lenguaje grandes

Aprendizaje por refuerzo verificado por ejecución para modelado de optimización

Resumen: Automatizar el modelado de optimización con LLM es un camino prometedor hacia la inteligencia de decisiones escalable, pero los enfoques existentes se basan en procesos de agente creados en LLM de código cerrado con alta latencia de inferencia, o afinan LLM más pequeños utilizando una costosa supervisión de procesos que a menudo se adapta a una única API de resolución.

Leer más →

Comentarios desactivados en Aprendizaje por refuerzo verificado por ejecución para modelado de optimización

Fin del contenido

No hay más páginas por cargar