Saltar el contenido

Alerta en los juzgados: la Inteligencia Artificial empieza a inventarse sentencias y leyes y jueces la aceptan como válidas

La inteligencia artificial ha irrumpido en los juzgados españoles con la fuerza de un tsunami, prometiendo agilizar trámites y modernizar una administración de justicia anclada en el siglo XX. Sin embargo, tras la fachada de eficiência digital, se esconde un peligro latente que asociaciones como **Internautas.org** llevan meses denunciando: la creación de una «jurisprudencia fantasma». Jueces, fiscales y abogados están empezando a utilizar herramientas de IA generativa para redactar escritos y fundamentar sentencias, abriendo la puerta a un escenario distópico donde las decisiones legales se basan en precedentes que nunca existieron.

El fenómeno, conocido técnicamente como «alucinaciones» de la IA, no es ciencia ficción. Recientemente, un abogado de Melilla elevó una queja al Consejo General del Poder Judicial (CGPJ) tras detectar que un magistrado de Ceuta había fundamentado un auto en sentencias del Tribunal Supremo totalmente inventadas. La investigación reveló que el texto original provenía de un escrito del Ministerio Fiscal, redactado presuntamente con la ayuda de una herramienta tipo ChatGPT, que «alucinó» jurisprudencia para dar solidez a sus argumentos. El juez, confiando en la fiscalía o utilizando herramientas similares sin verificación, incorporó esos falsos precedentes a su resolución, vulnerando flagrantemente el derecho a la tutela judicial efectiva.

La «caja negra» de la justicia algorítmica

La Asociación de Internautas es tajante. La modernización no puede avanzar sacrificando la seguridad jurídica. Al adherirse a las Directrices Universales para la Inteligencia Artificial, el colectivo exige reglas claras. Cualquier sistema de IA usado en el ámbito público debe ser transparente. Debe poder auditarse. Y, sobre todo, debe estar bajo control humano.

El problema de los Modelos de Lenguaje Grande no es menor. Estos sistemas no razonan. No interpretan el Derecho. Solo predicen la siguiente palabra más probable. Cuando alguien les pide un precedente para justificar una condena, la IA responde como sabe. Si encuentra un caso real, lo cita. Si no lo encuentra, lo fabrica. Lo hace con un lenguaje técnico. Preciso

Este riesgo de sesgo y error no se limita a inventar sentencias. Existe el peligro real de que los algoritmos perpetúen discriminaciones históricas o sociales al ser entrenados con bases de datos sesgadas.

Si un juez utiliza una IA para evaluar el riesgo de reincidencia de un detenido (como ya ocurre en algunos estados de EE.UU. con el sistema COMPAS), y el algoritmo tiene un sesgo racial o de clase, la justicia deja de ser ciega para convertirse en una máquina de prejuicios automatizados.

En España, la opacidad de estos sistemas —la llamada «caja negra»— impide a los abogados defensores saber por qué la máquina ha sugerido una determinada decisión, dejándolos indefensos ante el algoritmo.

Casos reales y la respuesta del sector

El caso de Ceuta demuestra que el problema no es aislado. En Estados Unidos, el caso Mata vs. Avianca saltó a la escena mundial cuando dos abogados presentaron un escrito plagado de citas judiciales inexistentes que habían obtenido de ChatGPT, lo que les valió una sanción.

En Argentina y en otros países de Latinoamérica, los tribunales ya han detectado episodios similares. Ante esta situación, los colegios de abogados y el propio CGPJ reaccionan con lentitud, pero con un mensaje claro: la responsabilidad final recae siempre en las personas. El letrado que no verifica sus fuentes asume la negligencia; la máquina no sirve de excusa.

Para reducir estos riesgos, especialistas como Ofelia Tejerina, de la Asociación de Internautas, defienden el uso de herramientas de “IA ética” y especializada, como Justicio, un buscador jurídico que trabaja exclusivamente con fuentes oficiales y verificadas y evita la creatividad peligrosa de los chats generalistas. La tecnología debe asistir al jurista, no reemplazar su criterio.

La justicia avanzará inevitablemente hacia la digitalización, pero no puede hacerlo a costa de la verdad. Si permitimos que la jurisprudencia —la base del Estado de derecho— se contamine con ficciones digitales, construiremos un sistema legal de cartón piedra, donde la libertad de un ciudadano dependerá de la “alucinación” de un servidor en Silicon Valley. La abogacía y la judicatura afrontan ahora un desafío decisivo: dominar a la bestia digital antes de que devore las garantías procesales.

Deja tu respuesta