Introducción breve: resumen del texto
El artículo examina cómo algunos jueces —principalmente en EE. UU.— han comenzado a utilizar herramientas de IA generativa, como ChatGPT, para redactar borradores de fallos, resumir documentos y buscar precedentes de forma experimental y sin protocolos oficiales. Aunque esto mejora la eficiencia frente a sistemas judiciales sobrecargados, conlleva riesgos como “alucinaciones” (errores falsos en contenido jurídico), responsabilidad legal difusa y falta de supervisión. Contrasta esta situación con prácticas más reguladas en Reino Unido (desde 2023, los jueces sólo pueden usar IA para borradores, asumiendo total responsabilidad) y Estonia (algoritmos solo para disputas menores, siempre con revisión humana). Concluye que, aunque la IA automatiza tareas, la decisión y responsabilidad judicial siguen siendo humanos.
Análisis filosófico
• Creatividad (Bergson, Whitehead)
-
Bergson enfatiza la intuición y espontaneidad como fuentes de creatividad auténtica. La IA, al redactar borradores basados en patrones preexistentes, sugiere una creatividad mecánica, carente de esa intuición que emerge del entendimiento profundo.
-
Whitehead, por su parte, habla de “creatividad actual” como constante transformación. La IA, al replicar estereotipos jurídicos, podría inhibir esta creatividad, impidiendo adaptaciones innovadoras en los fallos.
• Disrupción o poder (Deleuze, Foucault)
-
Foucault analizaría el uso de IA como ejercicio de poder disciplinario: la automatización puede invisibilizar decisiones jerárquicamente, erosionando la transparencia. Si un fallo surge de “una caja negra”, se debilita la autoritas judicial.
-
Deleuze, desde su perspectiva sobre sociedades de control, vería en esta práctica una digitalización del poder judicial: los textos y decisiones circulan y se filtran como flujos, pero sin control humano evidente, generando un espacio de poder difuso y menos responsabilizable.
• Ética y responsabilidad (Hans Jonas)
-
Jonas advierte sobre actuar bajo la promesa de eficiencia sin prever consecuencias a largo plazo. Aquí, al delegar tareas en IA sin regulación, se descuida la ética de responsabilidad, arriesgando errores que pueden afectar derechos fundamentales sin que haya claridad sobre quién responde.
• Sistemas complejos (Luhmann, Morin)
-
Luhmann vería al sistema judicial como un sistema autorreferencial que debe mantener su lógica interna. La IA introduce elementos opacos que pueden perturbar esta autoregulación, al inyectar decisiones en formatos que el sistema no comprende completamente.
-
Morin insistiría en la “ecología del conocimiento”: la justicia es un sistema complejo donde cada fragmento (contexto, precedentes, matices) importa. La IA, omitidora de esos matices, puede desestabilizar este tejido cognitivo.
• Tecnología, transparencia, autoexplotación (Byung-Chul Han)
-
Byung-Chul Han habla del burnout y la autoexplotación bajo el imperativo de la eficiencia: los jueces, sobrecargados, se exponen voluntariamente a usar IA como si fuera una calculadora, acentuando esa lógica de rendimiento que erosiona su libertad interna.
-
Además, Han critica el opaco funcionamiento tecnológico. Usar IA sin protocolos implica una opacidad que socava la transparencia, un valor esencial para la justicia.
Identificación de oportunidades y riesgos
Oportunidades constructivas:
- Alivio de carga administrativa para jueces sobrecargados, permitiéndoles enfocarse en aspectos interpretativos y humanos del fallo.
- Posible impulso inicial hacia modernización tecnológica si se regula adecuadamente.
Riesgos y problemas:
- Fallos con errores (“alucinaciones”) que se firman sin claridad de autoría.
- Falta de regulaciones y protocolos que garanticen responsabilidad y revisión.
- Riesgo ético al delegar sin transparencia ni supervisión.
- Posible erosión de la confianza pública si se percibe que la justicia se automatiza sin control.
Conclusión: síntesis filosófica
Este artículo revela una tensión filosófica clave entre eficiencia tecnológica y responsabilidad ética en la justicia. Bajo la presión de sistemas judiciales sobrecargados, la IA ofrece soluciones tentadoras, pero introduce grietas en la transparencia, creatividad y legitimidad del poder judicial. Sin estructuras reguladoras, se corre el riesgo de deshumanizar la justicia, transformándola en un proceso de autoplicasión tecnológica opaca. Sin embargo, con una regulación consciente, crítica y filosóficamente informada, podría surgir un equilibrio donde la IA apoye sin sustituir la humanidad del juicio.