NeuroGenPoisoning: ataques guiados por neuronas en la recuperación aumentada de LLM mediante la optimización genética del conocimiento externo
Resumen: La generación aumentada de recuperación (RAG) permite que los modelos de lenguaje grande (LLM) integren dinámicamente el conocimiento externo durante la inferencia, mejorando su precisión fáctica y adaptabilidad. Sin embargo, los adversarios pueden inyectar conocimiento externo envenenado para anular la memoria interna del modelo.
Leer más →