Una técnica conocida como “desaprendizaje de máquinas” podría enseñar a los modelos de IA a olvidar voces específicas, un paso importante para detener el aumento de los profundos de audio, donde se copia la voz de alguien para llevar a cabo fraudes o estafas.
Las compañías de IA generalmente mantienen un apretón de sus modelos para desalentar el mal uso. Por ejemplo, si le pide a ChatGPT que le dé el número de teléfono o las instrucciones de alguien para hacer algo ilegal, es probable que le diga que no puede ayudarlo. Sin embargo, como han demostrado muchos ejemplos con el tiempo, ingeniería o modelo de inmediato. Muestra de voz de ajuste de un altavoz que debe olvidar el modelo. El audio de texto a voz generado del modelo original utilizando lo anterior como un aviso. El audio de texto a voz generado usando el mismo aviso, pero ahora desde el modelo donde se olvidó el altavoz.
Publicado Originalme en TechnologyReview.com el 15 de julio de 2025.
Ver Fuente Original