Hacia la edición de conocimiento meta-cognitivo para LLM multimodales

Resumen: La edición de conocimiento permite que los modelos de lenguaje grande (MLLM) multimodal (MLLM) actualicen eficientemente información anticuada o incorrecta. Sin embargo, los puntos de referencia existentes enfatizan principalmente las modificaciones a nivel cognitivo, al tiempo que carecen de un enfoque en los procesos meta-cognitivos más profundos.

Leer más →

Comentarios desactivados en Hacia la edición de conocimiento meta-cognitivo para LLM multimodales

Código como humanos: una solución de múltiples agentes para la codificación médica

Resumen: En la codificación médica, los expertos mapean notas clínicas no estructuradas a los códigos alfanuméricos para diagnósticos y procedimientos. Introducimos código como humanos: un nuevo marco de agente para la codificación médica con modelos de idiomas grandes.

Leer más →

Comentarios desactivados en Código como humanos: una solución de múltiples agentes para la codificación médica

Murphys Leyes de alineación de AI: por qué la brecha siempre gana

Resumen: Los modelos de lenguaje grande están cada vez más alineados con las preferencias humanas a través del aprendizaje de refuerzo de la retroalimentación humana (RLHF) y los métodos relacionados como la optimización de preferencia directa (DPO), la IA constitucional y el RLAIF.

Leer más →

Comentarios desactivados en Murphys Leyes de alineación de AI: por qué la brecha siempre gana

Fin del contenido

No hay más páginas por cargar