Un modelo para criticarlos a todos: recompensar el uso de herramientas agentes mediante un razonamiento eficiente

Resumen: Los modelos de recompensa (RM) desempeñan un papel fundamental a la hora de alinear los modelos de lenguaje grande (LLM) con las preferencias humanas. Sin embargo, en el ámbito del aprendizaje de herramientas, la falta de RM diseñados específicamente para tareas de llamada de funciones ha limitado el progreso hacia una IA agente más capaz.

Leer más →

Comentarios desactivados en Un modelo para criticarlos a todos: recompensar el uso de herramientas agentes mediante un razonamiento eficiente

Estimación de sesgos cognitivos con planificación inversa consciente de la atención

Resumen: Las conductas de las personas dirigidas a objetivos están influenciadas por sus sesgos cognitivos, y los sistemas autónomos que interactúan con las personas deben ser conscientes de ello. Por ejemplo, la atención de las personas a los objetos de su entorno estará sesgada de manera que afecte sistemáticamente la forma en que realizan tareas cotidianas, como conducir al trabajo.

Leer más →

Comentarios desactivados en Estimación de sesgos cognitivos con planificación inversa consciente de la atención

Recuperación de vehículos autónomos de inmovilización asistida por modelos de lenguaje grande

Resumen:A pesar de los avances significativos en las últimas décadas, los vehículos autónomos (AV) continúan enfrentando desafíos al navegar en ciertos escenarios de tráfico donde los conductores humanos sobresalen. En tales situaciones, los vehículos autónomos suelen quedar inmovilizados, interrumpiendo el flujo general del tráfico.

Leer más →

Comentarios desactivados en Recuperación de vehículos autónomos de inmovilización asistida por modelos de lenguaje grande

Fin del contenido

No hay más páginas por cargar