Resumen: Los grandes modelos de lenguaje funcionan cada vez más como razonadores artificiales: evalúan argumentos, asignan credibilidad y expresan confianza. Sin embargo, su comportamiento de formación de creencias está gobernado por políticas epistémicas implícitas y no inspeccionadas. Este artículo aboga por una constitución epistémica para la IA: metanormas explícitas y discutibles que regulen cómo los sistemas forman y expresan creencias. El sesgo de atribución de fuentes proporciona el caso motivador: muestro que los modelos de frontera refuerzan la coherencia entre identidad y postura, penalizando los argumentos atribuidos a fuentes cuya posición ideológica esperada entra en conflicto con el contenido del argumento. Cuando los modelos detectan pruebas sistemáticas, estos efectos colapsan, revelando que los sistemas tratan la sensibilidad a la fuente como un sesgo para suprimir en lugar de una capacidad para ejecutar bien. Distingo dos enfoques constitucionales: el platónico, que exige la corrección formal y la independencia de la fuente por defecto desde un punto de vista privilegiado, y el liberal, que rechaza tal privilegio, especificando normas procesales que protegen las condiciones para la investigación colectiva y al mismo tiempo permiten una atención a la fuente basada en principios y basada en la vigilancia epistémica. Defiendo el enfoque liberal, esbozo un núcleo constitucional de ocho principios y cuatro orientaciones, y propongo que la gobernanza epistémica de la IA requiere la misma estructura explícita y discutible que ahora esperamos para la ética de la IA.
Publicado originalmente en export.arxiv.org el 21 de enero de 2026.
Ver fuente original
