Resumen:La adopción de la IA generativa en las profesiones comerciales y jurídicas ofrece ganancias dramáticas de eficiencia; sin embargo, para el derecho en particular, introduce un modo de falla peligroso en el que la IA fabrica jurisprudencia, estatutos y decisiones judiciales ficticias que parecen completamente auténticas. Los abogados que, sin saberlo, presentan tales mentiras enfrentan sanciones profesionales, exposición a malas prácticas y daños a su reputación, mientras que los tribunales enfrentan una nueva amenaza a la integridad del proceso contradictorio. Este modo de falla comúnmente se descarta como una “alucinación” aleatoria, pero un análisis reciente basado en la física del mecanismo central del Transformer revela un componente determinista: el estado interno de la IA puede cruzar un umbral calculable, haciendo que su producción pase de un razonamiento legal confiable a una fabricación que suena autoritaria. Aquí presentamos esta ciencia en un entorno de la industria legal, recorriendo un escenario simulado de redacción breve. Nuestro análisis sugiere que el riesgo de fabricación no es una falla anómala sino una consecuencia previsible del diseño de la tecnología, con implicaciones directas para el deber cambiante de la competencia tecnológica. Proponemos que los profesionales del derecho, los tribunales y los reguladores reemplacen el obsoleto modelo mental de “caja negra” con protocolos de verificación basados en cómo fallan realmente estos sistemas.
Publicado originalmente en export.arxiv.org el 25 de marzo de 2026.
Ver fuente original
