RESUMEN EJECUTIVO
Actualmente, la mayoría de los grandes modelos de lenguaje dividen el texto en miles de pequeñas unidades llamadas tokens. Esto convierte el texto en representaciones que los modelos pueden entender. Sin embargo, estos tokens rápidamente se vuelven costosos de almacenar y calcular a medida que las conversaciones con los usuarios finales se hacen más largas. Cuando un usuario chatea con una IA durante períodos prolongados, este desafío puede hacer que la IA olvide cosas que le han dicho y confunda la información, un problema que algunos llaman “pudrición del contexto”.
Publicado originalmente en technologyreview.com el 29 de octubre de 2025.
Ver fuente original
