¿Y si el próximo juez que te juzga no fuera humano?
Lo que hasta hace poco parecía ciencia ficción acaba de ponerse a prueba en un auditorio universitario de Carolina del Norte (EE. UU.): tres inteligencias artificiales —ChatGPT, Grok y Claude— asumieron el papel de jurado y juez en un simulacro de juicio real por robo.
El experimento, que formó parte del festival jurídico Converge-Con, buscaba responder una pregunta inquietante:
“¿Podrá la IA impartir justicia con más objetividad que los humanos?”
Un juicio con algoritmos en el estrado
El ejercicio, ambientado en el año 2036, simulaba un juicio penal en el que un joven era acusado de hurto.
La Facultad de Derecho de la Universidad de Carolina del Norte organizó el evento con estudiantes, juristas y expertos en datos.
El objetivo: evaluar si los algoritmos podían deliberar basándose únicamente en hechos, sin sesgos emocionales ni prejuicios sociales.
Y el resultado sorprendió a todos:
Los modelos de IA declararon “no culpable” al acusado, mientras que en un caso real similar un jurado humano lo habría condenado.
Según los organizadores, las IAs fueron más precisas en los detalles del caso, pero insensibles a los matices humanos que suelen definir una sentencia.
Frialdad y precisión: el veredicto de las máquinas
Las inteligencias artificiales no se contradijeron, no se dejaron influir y citaron las leyes con una exactitud quirúrgica.
Sin embargo, los expertos que observaron el simulacro destacaron un punto débil:
“La IA entiende los hechos, pero no la emoción ni el lenguaje corporal”, explicó uno de los profesores del evento.
Los algoritmos no pueden leer el tono de voz de un testigo ni captar un gesto de nerviosismo.
Para algunos juristas, esa falta de empatía convierte su “imparcialidad” en algo potencialmente peligroso.
Relacionado:
Riesgos de usar la IA como psicólogo
Internacional – Estados Unidos
El dilema moral: justicia sin alma
El ejercicio no pretendía imponer un modelo judicial automatizado, sino provocar un debate ético:
¿Queremos que los algoritmos decidan sobre la libertad de las personas?
¿O solo los usamos para asistir, sin reemplazar, al juez humano?
Los organizadores admitieron que la IA puede ser útil en procesos civiles, donde la carga emocional es menor y la automatización podría acelerar trámites y reducir costes judiciales.
Pero en el ámbito penal, la deshumanización del juicio podría ser un riesgo real.
“No hay justicia sin comprensión humana”, resumió uno de los expertos tras el simulacro.
Una justicia del futuro… ¿o una amenaza del presente?
La discusión llega en un momento en el que las inteligencias artificiales están irrumpiendo en todos los ámbitos: desde la redacción de sentencias hasta la evaluación de contratos y los sistemas predictivos de reincidencia.
Ya existen tribunales en Asia y Europa que utilizan IA como apoyo jurídico, aunque aún no se permite que decidan de manera autónoma.
En Estados Unidos, el debate se intensifica: mientras unos ven una revolución para reducir errores humanos y sesgos ideológicos, otros alertan de que una “justicia algorítmica” podría amplificar desigualdades si los modelos no son transparentes.








