Resumen: El año pasado marcó un punto de inflexión en la evolución y el uso en el mundo real de grandes modelos de lenguaje (LLM). Con el lanzamiento del primer modelo de razonamiento ampliamente adoptado, o1, el 5 de diciembre de 2024, el campo pasó de la generación de patrones de un solo paso a la inferencia de deliberación de varios pasos, acelerando la implementación, la experimentación y nuevas clases de aplicaciones. A medida que este cambio se desarrolló a un ritmo rápido, nuestra comprensión empírica de cómo se han utilizado estos modelos en la práctica se ha quedado atrás. En este trabajo, aprovechamos la plataforma OpenRouter, que es un proveedor de inferencia de IA en una amplia variedad de LLM, para analizar más de 100 billones de tokens de interacciones de LLM del mundo real en tareas, geografías y tiempos. En nuestro estudio empírico, observamos una adopción sustancial de modelos de peso abierto, la enorme popularidad de los juegos de roles creativos (más allá de las tareas de productividad que muchos suponen dominantes) y las categorías de asistencia a la codificación, además del aumento de la inferencia agencial. Además, nuestro análisis de retención identifica cohortes fundamentales: usuarios tempranos cuya participación persiste por mucho más tiempo que las cohortes posteriores. A este fenómeno lo denominamos efecto Cenicienta “Zapatilla de cristal”. Estos hallazgos subrayan que la forma en que los desarrolladores y usuarios finales interactúan con los LLM “en la naturaleza” es compleja y multifacética. Discutimos las implicaciones para los creadores de modelos, los desarrolladores de IA y los proveedores de infraestructura, y describimos cómo una comprensión del uso basada en datos puede informar un mejor diseño e implementación de los sistemas LLM.
Publicado originalmente en export.arxiv.org el 15 de enero de 2026.
Ver fuente original
