La IA generativa ha permitido que la producción de imágenes de abuso sexual infantil se dispare. Ahora, el principal investigador de explotación infantil en los Estados Unidos está experimentando con el uso de AI para distinguir las imágenes generadas por IA del material que representan víctimas reales, según una nueva presentación del gobierno.
Para detectar CSAM, Hive ofrece una herramienta creada con Thorn, una organización sin fines de lucro de seguridad infantil, que las empresas pueden integrar en sus plataformas. Esta herramienta utiliza un sistema de “hash”, que asigna IDS únicos al contenido conocido por los investigadores para ser CSAM, y bloquea ese material para que se cargue. Esta herramienta, y otras similares, se han convertido en una línea de defensa estándar para las empresas tecnológicas.
Publicado Originalme en TechnologyReview.com EL 26 de septiembre de 2025.
Ver Fuente Original
