Resumen: Las explicaciones contrafactuales (CFS) ofrecen información centrada en el ser humano sobre las predicciones de aprendizaje automático al resaltar los cambios mínimos necesarios para alterar un resultado. Por lo tanto, el CFS puede usarse como (i) intervenciones para la prevención de la anormalidad y (ii) datos aumentados para capacitar modelos robustos. En este trabajo, exploramos los modelos de idiomas grandes (LLM), específicamente GPT-4O-Mini, para generar CFS en una configuración de disparo cero y tres disparos. Evaluamos nuestro enfoque en dos conjuntos de datos: el conjunto de datos insignia AI-Readi para la predicción del estrés y un conjunto de datos públicos para la detección de enfermedades cardíacas. En comparación con los métodos tradicionales como DICE, CFNOW y Niza, nuestro enfoque basado en LLM de pocos disparos logra una alta plausibilidad (hasta 99%), una fuerte validez (hasta 0.99) y escasez competitiva. Además, el uso de SFC generados por LLM como muestras aumentadas mejora el rendimiento del clasificador aguas abajo (una ganancia de precisión promedio del 5%), especialmente en regímenes bajos. Esto demuestra el potencial de las técnicas generativas basadas en Aviso para mejorar la explicabilidad y la robustez en las tareas de predicción clínica y fisiológica. Base de código: esta url http.
Publicado Originalme en export.arxiv.org El 8 de julio de 2025.
Ver Fuente Original