En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Hypertokens: memoria asociativa holográfica en LLM tokenizados

Hypertokens: memoria asociativa holográfica en LLM tokenizados

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: los modelos de lenguaje grande (LLMS) exhiben capacidades notables pero sufren una pérdida de precisión aparente, reflexionado aquí como propagación de información. Este replanteamiento cambia el problema de la precisión computacional a un problema de comunicación teórica de información. Abordamos el problema de memoria K: V y V: K en LLMS mediante la introducción de HDRAM (memoria de acceso aleatorio definido holográficamente), un marco de memoria simbólica que trata el espacio latente del transformador como un canal de espectro de propagación. Construidos sobre hipertokens, códigos simbólicos estructurados que integran códigos clásicos de corrección de errores (ECC), computación holográfica y búsqueda de inspiración cuántica, HDRAM recupera la información distribuida a través de la descendencia de principios. Estas direcciones de memoria coherente de fase permiten operaciones eficientes de valor clave y búsqueda de estilo Grover en el espacio latente. Al combinar la gramática ECC con la detección comprimida y la alineación del subespacio de Krylov, HDRAM mejora significativamente la recuperación asociativa sin cambios arquitectónicos, lo que demuestra cómo los principios clásicos inspirados en el quantón (CHQ) pueden fortalecer las arquitecturas del transformador.

Publicado Originalme en export.arxiv.org El 1 de julio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web