Resumen: Los jueces agentes basados en LLM son un enfoque emergente para evaluar la IA conversacional, sin embargo, persiste una incertidumbre fundamental: ¿podemos confiar en sus evaluaciones y, de ser así, cuántas se necesitan?
Leer más →
Resumen: La estimación de incertidumbre (UE) tiene como objetivo detectar resultados alucinados de modelos de lenguaje grande (LLM) para mejorar su confiabilidad. Sin embargo, las métricas de UE a menudo muestran un rendimiento inestable en todas las configuraciones, lo que limita significativamente su aplicabilidad.
Leer más →
Resumen: Automatizar el modelado de optimización con LLM es un camino prometedor hacia la inteligencia de decisiones escalable, pero los enfoques existentes se basan en procesos de agente creados en LLM de código cerrado con alta latencia de inferencia, o afinan LLM más pequeños utilizando una costosa supervisión de procesos que a menudo se adapta a una única API de resolución.
Leer más →