En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Los modelos de idiomas grandes son defensores cibernéticos autónomos

Los modelos de idiomas grandes son defensores cibernéticos autónomos

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La respuesta de incidentes rápida y efectiva es esencial para prevenir los ataques cibernéticos adversos. La defensa cibernética autónoma (ACD) tiene como objetivo automatizar la respuesta de incidentes a través de agentes de inteligencia artificial (IA) que planean y ejecutan acciones. La mayoría de los enfoques de ACD se centran en escenarios de un solo agente y apalancamiento de aprendizaje de refuerzo (RL). Sin embargo, los agentes entrenados con ACD RL dependen de una capacitación costosa, y su razonamiento no siempre es explicable o transferible. Los modelos de idiomas grandes (LLM) pueden abordar estas preocupaciones proporcionando acciones explicables en contextos de seguridad generales. Los investigadores han explorado los agentes de LLM para ACD, pero no los han evaluado en escenarios de múltiples agentes o interactuando con otros agentes de ACD. En este artículo, mostramos el primer estudio sobre cómo se desempeñan los LLM en entornos ACD de múltiples agentes al proponer una nueva integración al entorno Cyborg Cage 4. Examinamos cómo los equipos ACD de los agentes LLM y RL pueden interactuar proponiendo un nuevo protocolo de comunicación. Nuestros resultados destacan las fortalezas y debilidades de LLM y RL y nos ayudan a identificar direcciones prometedoras de investigación para crear, entrenar y desplegar futuros equipos de agentes ACD.

Publicado Originalme en rss.arxiv.org El 8 de mayo de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web