Resumen: La edición de conocimiento permite que los modelos de lenguaje grande (MLLM) multimodal (MLLM) actualicen eficientemente información anticuada o incorrecta. Sin embargo, los puntos de referencia existentes enfatizan principalmente las modificaciones a nivel cognitivo, al tiempo que carecen de un enfoque en los procesos meta-cognitivos más profundos.
Leer más →
Resumen: En la codificación médica, los expertos mapean notas clínicas no estructuradas a los códigos alfanuméricos para diagnósticos y procedimientos. Introducimos código como humanos: un nuevo marco de agente para la codificación médica con modelos de idiomas grandes.
Leer más →
Resumen: Los modelos de lenguaje grande están cada vez más alineados con las preferencias humanas a través del aprendizaje de refuerzo de la retroalimentación humana (RLHF) y los métodos relacionados como la optimización de preferencia directa (DPO), la IA constitucional y el RLAIF.
Leer más →