Resumen: Arte. 50 II de la Ley de Inteligencia Artificial de la UE exige una doble transparencia para el contenido generado por IA: los resultados deben etiquetarse en forma comprensible para humanos y legible por máquina para su verificación automatizada. Este requisito, que entrará en vigor en agosto de 2026, choca con las limitaciones fundamentales de los actuales sistemas de IA generativa. Utilizando la generación de datos sintéticos y la verificación automatizada de datos como casos de uso de diagnóstico, demostramos que el cumplimiento no se puede reducir a un etiquetado post hoc. En los procesos de verificación de hechos, el seguimiento de la procedencia no es factible en flujos de trabajo editoriales iterativos y resultados de LLM no deterministas; Además, la exención de la función de asistencia no se aplica, ya que dichos sistemas asignan activamente valores de verdad en lugar de respaldar la presentación editorial. En la generación de datos sintéticos, el marcado persistente en modo dual es paradójico: las marcas de agua que sobreviven a la inspección humana corren el riesgo de ser aprendidas como características espurias durante el entrenamiento, mientras que las marcas adecuadas para la verificación mecánica son frágiles bajo el procesamiento de datos estándar. En ambos dominios, tres brechas estructurales obstruyen el cumplimiento: (a) ausencia de formatos de marcado multiplataforma para resultados entrelazados de IA humana; (b) desalineación entre el criterio de “confiabilidad” de la regulación y el comportamiento del modelo probabilístico; y (c) falta de orientación para adaptar las divulgaciones a la experiencia heterogénea de los usuarios. Cerrar estas brechas requiere que la transparencia se trate como un requisito de diseño arquitectónico, lo que exige una investigación interdisciplinaria que abarque la semántica jurídica, la ingeniería de inteligencia artificial y el diseño centrado en el ser humano.
Publicado originalmente en export.arxiv.org el 30 de marzo de 2026.
Ver fuente original
