Resumen:La inteligencia artificial (IA) es muy prometedora para transformar la atención sanitaria. Sin embargo, a pesar de los importantes avances, la integración de las soluciones de IA en la práctica clínica del mundo real sigue siendo limitada. Una barrera importante es la calidad y la equidad de los datos de capacitación, que a menudo se ven comprometidas por prácticas de recopilación de datos sesgadas. Este artículo se basa en conocimientos del proyecto AI4HealthyAging, parte de la iniciativa nacional de I+D de España, donde nuestra tarea era detectar sesgos durante la recopilación de datos clínicos. Identificamos varios tipos de sesgos en múltiples casos de uso, incluidos sesgos históricos, de representación y de medición. Estos sesgos se manifiestan en variables como sexo, género, edad, hábitat, nivel socioeconómico, equipamiento y etiquetado. Concluimos con recomendaciones prácticas para mejorar la equidad y solidez del diseño de problemas clínicos y la recopilación de datos. Esperamos que nuestros hallazgos y experiencia contribuyan a guiar proyectos futuros en el desarrollo de sistemas de IA más justos en la atención sanitaria.
Publicado originalmente en export.arxiv.org el 23 de octubre de 2025.
Ver fuente original
