Resumen: La revisión por pares, la base del avance científico en el aprendizaje automático (ML), se tensa por una crisis de escala. El crecimiento exponencial en las presentaciones de manuscritos a lugares de primer nivel de ML, como Neurips, ICML e ICLR, supera la capacidad finita de los revisores calificados, lo que lleva a las preocupaciones sobre la calidad de la revisión, la consistencia y la fatiga del revisor. Este documento de posición argumenta que la revisión por pares asistida por AI-AI debe convertirse en una prioridad urgente de investigación e infraestructura. Abogamos por un ecosistema integral de AI-AI, aprovechando modelos de idiomas grandes (LLM) no como reemplazos para el juicio humano, sino como colaboradores sofisticados para autores, revisores y presidentes de área (ACS). Proponemos roles específicos para la IA para mejorar la verificación objetiva, guiar el rendimiento del revisor, ayudar a los autores en la mejora de la calidad y apoyar la ACS en la toma de decisiones. De manera crucial, sostenemos que el desarrollo de tales sistemas depende del acceso a datos de revisión por pares más granulares, estructurados y de origen ético. Esbozamos una agenda de investigación, que incluye experimentos ilustrativos, para desarrollar y validar a estos asistentes de IA, y discutir desafíos técnicos y éticos significativos. Hacemos un llamado a la comunidad de ML que construya de manera proactiva este futuro asistido por AI-AI, asegurando la integridad continua y la escalabilidad de la validación científica, al tiempo que mantiene altos estándares de revisión por pares.
Publicado Originalme en rss.arxiv.org El 10 de junio de 2025.
Ver Fuente Original