Una nueva técnica llamada Lightshed hará que sea más difícil para los artistas utilizar las herramientas de protección existentes para evitar que su trabajo sea ingerido para la capacitación de IA. Es el siguiente paso en un juego de gato y ratón: tecnología de across, ley
Para ser claros, los investigadores detrás de Lightshed no están tratando de robar el trabajo de los artistas. Simplemente no quieren que las personas tengan una falsa sensación de seguridad. “No estará seguro de si las empresas tienen métodos para eliminar estos venenos, pero nunca le dirán”, dice Hanna Foerster, estudiante de doctorado de la Universidad de Cambridge y autora principal de un artículo sobre el trabajo. Y si lo hacen, puede ser demasiado tarde para solucionar el problema.
“Es un elemento disuasorio”, dice Shan, una forma de advertir a las compañías de IA que los artistas se toman en serio sus preocupaciones. El objetivo, como él dice, es colocar tantos obstáculos como sea posible para que las compañías de IA encuentren más fácil trabajar con artistas. Él cree que “la mayoría de los artistas entienden que esta es una solución temporal”, pero que crear esos obstáculos contra el uso no deseado de su trabajo sigue siendo valioso.
Publicado Originalme en TechnologyReview.com el 10 de julio de 2025.
Ver Fuente Original