Resumen: Los sistemas basados en el modelo de lenguaje grande (LLM) presentan nuevas oportunidades para el monitoreo de la salud autónoma en entornos industriales ricos en sensores. Este estudio explora el potencial de los LLM para detectar y clasificar fallas directamente a partir de los datos del sensor, al tiempo que produce resultados inherentemente explicables a través del razonamiento del lenguaje natural. Evaluamos sistemáticamente cómo la arquitectura del sistema LLM (una sola LLM versus multi-LLM), las representaciones de entrada (estadísticas sincronizas versus descriptivas) y el tamaño de la ventana de contexto afectan el rendimiento diagnóstico. Nuestros hallazgos muestran que los sistemas LLM funcionan de manera más efectiva cuando se les proporciona entradas estadísticas resumidas, y que los sistemas con múltiples LLM que utilizan indicaciones especializadas ofrecen una sensibilidad mejorada para la clasificación de fallas en comparación con los sistemas de LLM individuales. Si bien los LLM pueden producir justificaciones detalladas y legibles por humanos para sus decisiones, observamos limitaciones en su capacidad para adaptarse con el tiempo en entornos de aprendizaje continuo, a menudo luchando por calibrar las predicciones durante los ciclos de fallas repetidas. Estas ideas apuntan tanto a la promesa como a los límites actuales de los sistemas basados en LLM como herramientas de diagnóstico transparentes y adaptativas en entornos complejos.
Publicado Originalme en export.arxiv.org El 29 de septiembre de 2025.
Ver Fuente Original