Resumen: La adaptación de bajo rango (LORA) tiene un ajuste fino eficiente de parámetros significativamente avanzado de grandes modelos previos a la aparición. Lora aumenta los pesos previamente capacitados de un modelo agregando el producto de dos matrices más pequeñas que juntas forman una actualización de matriz de bajo rango.
Leer más →
Resumen: Grandes modelos de idiomas (LLM) tienen educadores y aprendices virtuales avanzados, unir PNL con AI4Education. El trabajo existente a menudo carece de escalabilidad y no puede aprovechar el contenido diverso del curso a gran escala, con marcos limitados para evaluar la calidad pedagógica.
Leer más →
Resumen: Las explicaciones contrafactuales (CFS) ofrecen información centrada en el ser humano sobre las predicciones de aprendizaje automático al resaltar los cambios mínimos necesarios para alterar un resultado. Por lo tanto, el CFS puede usarse como (i) intervenciones para la prevención de la anormalidad y (ii) datos aumentados para capacitar modelos robustos.
Leer más →