Resumen:Este estudio examina el desempeño de ChatGPT con un experimento en el ámbito legal. Comparamos el resultado con una línea de base utilizando expresiones regulares (Regex), en lugar de centrarnos únicamente en la evaluación del desempeño humano. El estudio revela que incluso si ChatGPT tiene acceso a los conocimientos y competencias necesarios, no puede reunirlos, razonarlos, de una manera que conduzca a un resultado exhaustivo. Esto revela una limitación importante de ChatGPT. La inteligencia abarca la capacidad de analizar problemas complejos y abordarlos de acuerdo con múltiples competencias requeridas, brindando una solución unificada e integral. En el ámbito jurídico, una de las tareas más cruciales es leer decisiones jurídicas y extraer pasajes clave condensados de los principios del derecho (PoL), que luego se incorporan en fallos posteriores de los jueces o en documentos de defensa de los abogados. Al realizar esta tarea, la inteligencia artificial carece de una comprensión y un razonamiento que lo abarquen todo, lo que la hace inherentemente limitada. La inteligencia genuina sigue siendo un rasgo exclusivamente humano, al menos en este campo en particular.
Publicado originalmente en export.arxiv.org el 22 de octubre de 2025.
Ver fuente original
