Resumen: ¿Pueden los agentes del modelo de lenguaje grande (LLM) reproducir las complejas dinámicas sociales que caracterizan el comportamiento humano en línea, moldeadas por la homofilia, la reciprocidad y la validación social, y qué mecanismos de memoria y aprendizaje permiten que surjan tales dinámicas?
Leer más →
Resumen: La restricción de precedente es uno de los fundamentos del razonamiento basado en casos en IA y derecho. Generalmente se supone que el conjunto subyacente de precedentes debe ser consistente. Para relajar este supuesto, se ha introducido una noción generalizada de modelo de razón.
Leer más →
Resumen:Este estudio examina el desempeño de ChatGPT con un experimento en el ámbito legal. Comparamos el resultado con una línea de base utilizando expresiones regulares (Regex), en lugar de centrarnos únicamente en la evaluación del desempeño humano.
Leer más →