Resumen: Desde la rápida expansión de los grandes modelos de lenguaje (LLM), la gente ha comenzado a confiar en ellos para recuperar información. Mientras que los motores de búsqueda tradicionales muestran listas clasificadas de fuentes determinadas por la optimización de motores de búsqueda (SEO), la publicidad y la personalización, los LLM suelen proporcionar una respuesta sintetizada que se siente singular y autorizada. Si bien ambos enfoques conllevan riesgos de sesgo y omisión, los LLM pueden amplificar el efecto al fusionar múltiples perspectivas en una sola respuesta, lo que reduce la capacidad o inclinación de los usuarios para comparar alternativas. Esto concentra el poder sobre la información en unos pocos proveedores de LLM cuyos sistemas moldean efectivamente lo que se recuerda y lo que se pasa por alto. Como resultado, ciertas narrativas, individuos o grupos, pueden ser suprimidas de manera desproporcionada, mientras que otras se elevan de manera desproporcionada. Con el tiempo, esto crea una nueva amenaza: la eliminación gradual de aquellos con presencia digital limitada y la amplificación de aquellos que ya son prominentes, lo que está reconfigurando los colectivos. esta URL http Para abordar estas preocupaciones, este documento presenta un concepto de Derecho a ser recordado (RTBR, por sus siglas en inglés) que abarca minimizar el riesgo de omisión de información impulsada por la IA, abrazar el derecho a un trato justo y, al mismo tiempo, garantizar que el contenido generado sea lo más veraz posible.
Publicado originalmente en export.arxiv.org el 20 de octubre de 2025.
Ver fuente original
