Resumen: Los modelos de lenguaje grande de código se entrenan con frecuencia en conjuntos de datos masivos que contienen código fuente con licencia restrictiva. Esto crea desafíos urgentes en materia de gobernanza de datos y derechos de autor. Los ataques de inferencia de membresía (MIA) pueden servir como mecanismo de auditoría para detectar el uso de datos no autorizados en los modelos.
Leer más →
Resumen: El razonamiento automatizado es fundamental en ámbitos como el derecho y la gobernanza, donde verificar las afirmaciones frente a los hechos en los documentos requiere precisión e interpretabilidad. Trabajos recientes adoptan canales de razonamiento estructurados que traducen el lenguaje natural en lógica de primer orden y delegan la inferencia a solucionadores automatizados.
Leer más →
Resumen: La generación aumentada de recuperación visual (VRAG) mejora los modelos de lenguaje-visión (VLM) al incorporar documentos visuales externos para abordar una consulta determinada.
Leer más →