Colapso del contexto: aprendizaje en contexto y colapso del modelo

Resumen: Esta tesis investiga dos fenómenos clave en los modelos de lenguaje grande (LLM): el aprendizaje en contexto (ICL) y el colapso del modelo. Estudiamos ICL en un transformador lineal con pesos vinculados entrenados en tareas de regresión lineal y mostramos que minimizar la pérdida en contexto conduce a una transición de fase en los parámetros aprendidos.

Leer más →

Comentarios desactivados en Colapso del contexto: aprendizaje en contexto y colapso del modelo

Autocuestionamiento contrafactual para la optimización de políticas estables en modelos lingüísticos

Resumen:Trabajos recientes sobre la superación personal de modelos lingüísticos muestran que los modelos pueden refinar su propio razonamiento mediante la reflexión, la verificación, el debate o las recompensas autogeneradas.

Leer más →

Comentarios desactivados en Autocuestionamiento contrafactual para la optimización de políticas estables en modelos lingüísticos

Fin del contenido

No hay más páginas por cargar