En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Falsas alarmas, daño real: ataques adversos utilizando modelos basados ​​en LLM en sistemas de inteligencia de amenazas cibernéticas basadas en texto

Falsas alarmas, daño real: ataques adversos utilizando modelos basados ​​en LLM en sistemas de inteligencia de amenazas cibernéticas basadas en texto

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La inteligencia de amenazas cibernéticas (CTI) se ha convertido en un enfoque vital complementario que opera en las primeras fases del ciclo de vida de la amenaza cibernética. CTI implica recopilar, procesar y analizar datos de amenazas para proporcionar una comprensión más precisa y rápida de las amenazas cibernéticas. Debido al gran volumen de datos, la automatización a través del aprendizaje automático (ML) y los modelos de procesamiento del lenguaje natural (PNL) es esencial para una extracción efectiva de CTI. Estos sistemas automatizados aprovechan la inteligencia de código abierto (OSINT) de fuentes como redes sociales, foros y blogs para identificar indicadores de compromiso (COI). Aunque la investigación previa se ha centrado en los ataques adversos en modelos ML específicos, este estudio amplía el alcance al investigar las vulnerabilidades dentro de varios componentes de toda la tubería CTI y su susceptibilidad a los ataques adversos. Estas vulnerabilidades surgen porque ingieren entradas textuales de varias fuentes abiertas, incluido el contenido real y potencialmente falso. Analizamos tres tipos de ataques contra las tuberías de CTI, incluida la evasión, las inundaciones y el envenenamiento, y evaluamos su impacto en las capacidades de selección de información del sistema. Específicamente, en la generación de texto falso, el trabajo demuestra cómo las técnicas de generación de texto adversas pueden crear un texto falso de ciberseguridad y similares a la ciberseguridad que engañe a los clasificadores, degrada el rendimiento e interrumpe la funcionalidad del sistema. La atención se centra principalmente en el ataque de evasión, ya que precede y permite ataques de inundación y envenenamiento dentro de la tubería CTI.

Publicado Originalme en export.arxiv.org El 9 de julio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web