En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Los LLM pueden ocultar texto en otro texto de la misma longitud.ipynb

Los LLM pueden ocultar texto en otro texto de la misma longitud.ipynb

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Un texto significativo puede esconderse dentro de otro texto, completamente diferente pero aún así coherente y plausible, de la misma extensión. Por ejemplo, un tuit que contenga una dura crítica política podría incluirse en un tuit que celebre al mismo líder político, o una reseña ordinaria de un producto podría ocultar un manuscrito secreto. Esta extraña situación ahora es posible gracias a los modelos de lenguaje grandes, y en este artículo presentamos un protocolo simple y eficiente para lograrlo. Mostramos que incluso los modestos LLM de código abierto de 8 mil millones de parámetros son suficientes para obtener resultados de alta calidad, y un mensaje tan largo como este resumen se puede codificar y decodificar localmente en una computadora portátil en segundos. La existencia de tal protocolo demuestra una disociación radical entre el texto y la intención del autor, erosionando aún más la confianza en la comunicación escrita, ya sacudida por el auge de los chatbots LLM. Ilustramos esto con un escenario concreto: una empresa podría implementar de forma encubierta un LLM sin filtrar codificando sus respuestas dentro de las respuestas compatibles de un modelo seguro. Esta posibilidad plantea preguntas urgentes sobre la seguridad de la IA y desafía nuestra comprensión de lo que significa que un modelo de lenguaje grande sepa algo.

Publicado originalmente en export.arxiv.org el 23 de octubre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web