Descubriendo sesgos latentes en la clasificación del departamento de emergencias basada en LLM a través de variables proxy

Resumen: Los avances recientes en modelos de lenguaje grande (LLM) han permitido su integración en la toma de decisiones clínicas; sin embargo, persisten prejuicios ocultos contra los pacientes de distintos orígenes raciales, sociales, económicos y clínicos.

Leer más →

Comentarios desactivados en Descubriendo sesgos latentes en la clasificación del departamento de emergencias basada en LLM a través de variables proxy

Atención dispersa cerrada: combinación de eficiencia computacional con estabilidad de entrenamiento para modelos de lenguaje de contexto largo

Resumen: La carga computacional de la atención en modelos de lenguaje de contexto largo ha motivado dos líneas de trabajo en gran medida independientes: mecanismos de atención dispersa que reducen la complejidad al atender a tokens seleccionados y variantes de atención cerrada que mejoran la estabilidad del entrenamiento y al mismo tiempo mitigan el fenómeno del sumidero de atención.

Leer más →

Comentarios desactivados en Atención dispersa cerrada: combinación de eficiencia computacional con estabilidad de entrenamiento para modelos de lenguaje de contexto largo

Fin del contenido

No hay más páginas por cargar