Realizan un simulacro de juicio con un jurado constituido por la Inteligencia Artificial

Fuente y enlace 


1. Introducción breve: resumen del texto

El artículo describe un simulacro judicial llevado a cabo en Madrid en el que un jurado compuesto exclusivamente por inteligencias artificiales (IA) participó en un juicio ficticio de homicidio. Esta iniciativa fue promovida por el Instituto de Ingeniería del Conocimiento (IIC) y el Consejo General del Poder Judicial, con el fin de evaluar la capacidad de la IA para asumir funciones deliberativas propias del jurado popular. Se exploraron distintas tecnologías de IA generativa entrenadas en derecho penal y se examinó su desempeño frente a cuestiones complejas como el razonamiento moral, la interpretación de pruebas o el entendimiento del contexto humano de los delitos.


2. Análisis filosófico por categorías

A. Ética y responsabilidadHans Jonas

  • Responsabilidad hacia el futuro: El uso experimental de IAs para juicios plantea el principio de responsabilidad extendido: si eventualmente las decisiones de vida o muerte pueden quedar en manos de sistemas no humanos, ¿quién asume la responsabilidad moral?

  • Ética del diseño tecnológico: La programación de estos sistemas requiere una ética anticipatoria. Jonas subraya que cualquier tecnología con poder de afectar vidas humanas debe prever consecuencias a largo plazo. ¿Puede una IA calibrar el sufrimiento o la intención humana desde un código?

B. Poder y conocimientoMichel Foucault

  • Producción de verdad judicial: Foucault advertiría que los algoritmos judiciales no son neutrales. Representan una nueva forma de “discurso jurídico automatizado” que legitima ciertos tipos de saber sobre el crimen, el castigo y la moralidad.

  • Regímenes de verdad: Este simulacro reproduce un régimen en el que la IA es tratada como voz válida de interpretación legal. ¿Quién define lo que es “verdad” para una máquina? ¿Qué discursos quedan fuera?

C. Disrupción y diferenciaGilles Deleuze

  • Devenir-máquina de la justicia: El juicio con IAs no-humanas representa una línea de fuga respecto del modelo tradicional humano del juicio. Este experimento marca un devenir tecnológico del sistema jurídico.

  • Diferencia radical: El pensamiento deleuziano sugiere que introducir inteligencias artificiales no implica solo sustituir un agente por otro, sino introducir una diferencia ontológica: la IA no “comprende”, sino que opera bajo otros códigos.

D. Filosofía de los sistemas complejosNiklas Luhmann y Edgar Morin

  • Sistema jurídico como sistema autopoiético: Luhmann propondría que el derecho es un sistema que opera por sus propias reglas internas. Al introducir IA, se está observando el sistema desde fuera, pero también redefiniendo sus mecanismos internos de decisión.

  • Pensamiento complejo: Morin advertiría sobre los riesgos de reducir decisiones humanas complejas a lógicas computacionales lineales. La justicia no puede ser descompuesta en binarios, requiere ambigüedad, emociones, narrativas.

E. Tecnología, autoexplotación, transparenciaByung-Chul Han

  • Transparencia del algoritmo vs. opacidad del juicio humano: La IA promete decisiones más “transparentes”, pero Han subraya que esta transparencia puede ser ilusoria y conducir a una pérdida de profundidad ética y relacional.

  • Riesgo de autoexplotación: Se podría estar promoviendo una visión hiperfuncional del juicio, donde lo humano es reemplazado por eficiencia, pero sin considerar los aspectos simbólicos, culturales y existenciales del juzgar.

F. Simulación y realidadJean Baudrillard

  • Juicio como simulacro: El juicio realizado no es real, pero genera un efecto de realidad. En términos de Baudrillard, podríamos estar ante un “simulacro de justicia” donde las formas se reproducen pero el sentido se desvanece.

  • Pérdida del referente: ¿Qué ocurre cuando la deliberación moral —acto profundamente humano— es simulada por una entidad sin experiencia del dolor, la culpa o la compasión?


3. Conclusión: riesgos, oportunidades y hallazgos conceptuales

Oportunidades:

  • Exploración de límites éticos y tecnológicos: Este simulacro permite pensar críticamente el rol de la IA en la sociedad, no para adoptarla sin reservas, sino para entender sus capacidades y limitaciones.

  • Innovación en evaluación del sistema judicial: Introducir IAs en contextos experimentales podría servir para detectar sesgos, evaluar patrones de decisión humana o proponer mejoras procesales.

Riesgos:

  • Deshumanización de la justicia: La justicia no es solo lógica; es un arte ético y narrativo. Delegar el juicio a máquinas implica asumir que lo humano puede ser completamente formalizado.

  • Régimen tecnocrático de verdad: Existe el riesgo de consolidar una “hegemonía algorítmica” donde las decisiones justas sean las decisiones “eficientes”, desplazando el debate moral.

  • Simulación sin experiencia: La IA no posee experiencia del mundo. En el juicio, no basta con procesar datos: hay que interpretar dolores, contextos, motivaciones. Ese abismo ontológico no puede ser reducido a una red neuronal.