Resumen: El rápido avance de los modelos de lenguaje grande multimodal (MLLMS) ha desbloqueado nuevas oportunidades para abordar desafíos científicos complejos. A pesar de este progreso, su aplicación para abordar los problemas de ciencias de la tierra, especialmente a nivel de posgrado, permanece subexplorada. Una barrera significativa es la ausencia de puntos de referencia que capturan la profundidad y la complejidad contextual del razonamiento geocientífico. Los puntos de referencia actuales a menudo se basan en conjuntos de datos sintéticos o pares de aplicación de figuras simplistas, que no reflejan adecuadamente el razonamiento intrincado y las ideas específicas del dominio necesarias para las aplicaciones científicas del mundo real. Para abordar estas brechas, presentamos Msearth, un punto de referencia científico multimodal comisariado de publicaciones científicas de alta calidad y acceso abierto. Msearth abarca las cinco esferas principales de la ciencia de la tierra: atmósfera, criosfera, hidrosfera, litosfera y biosfera, con más de 7k figuras con subtítulos refinados. Estos subtítulos se elaboran a partir de los subtítulos de la figura originales y se enriquecen con las discusiones y el razonamiento de los documentos, asegurando que el punto de referencia captura el razonamiento matizado y el contenido intensivo de conocimiento esencial para las tareas científicas avanzadas. Msearth admite una variedad de tareas, incluidos los subtítulos de figuras científicas, preguntas de opción múltiple y desafíos de razonamiento abierto. Al cerrar la brecha en los puntos de referencia a nivel de posgrado, Msearth proporciona un recurso escalable y de alta fidelidad para mejorar el desarrollo y la evaluación de MLLM en el razonamiento científico. El punto de referencia está disponible públicamente para fomentar más investigaciones e innovación en este campo. Los recursos relacionados con este punto de referencia se pueden encontrar en esta URL HTTPS y esta URL HTTPS.
Publicado Originalme en rss.arxiv.org El 27 de mayo de 2025.
Ver Fuente Original