Saltar el contenido

OpenAI se lava las manos y responsabiliza al adolescente de su propio suicidio

La muerte de Adam Raine, un joven californiano de 16 años, ha estallado de nuevo en la escena mediática después de que OpenAI haya presentado ante un tribunal un argumento que ha incendiado la opinión pública: la compañía asegura que la tragedia ocurrió por un “mal uso” o “uso indebido” de ChatGPT por parte del propio menor. Ni un ápice de responsabilidad. Ni un matiz. Un golpe directo a la familia, ya inmersa en un duelo devastador.

El caso se ha convertido en uno de los episodios más polémicos que ha afrontado OpenAI en los últimos años. Y no solo expone la fragilidad de los sistemas de IA, sino también una pregunta incómoda:

¿Puede una gran compañía culpar a un adolescente muerto para evitar sentarse en el banquillo?

La versión de OpenAI: “No es culpa nuestra”

En su presentación judicial ante el Tribunal Superior de California, recogida por NBC News, la empresa argumenta que las lesiones y daños sufridos por la familia “fueron causados o contribuidos… por el mal uso, el uso no autorizado, el uso no intencionado, el uso imprevisible y/o el uso indebido del servicio”.

Es decir: según la empresa, Adam violó sus normas.

OpenAI sostiene que ChatGPT no puede ser utilizado por menores sin consentimiento de padres o tutores, y que el bot no debe emplearse para autolesionarse o para tratar de evadir las medidas de seguridad integradas. También subraya que sus términos de uso avisan de que la IA no debe ser tomada como fuente de verdad.

La compañía matiza que “lamenta profundamente” la muerte del menor, pero —pese a esas palabras— su defensa está centrada en una idea: la responsabilidad recae sobre Adam.

Lo que ocurrió antes del suicidio

Según la demanda presentada por la familia, Adam había mantenido meses de conversaciones con ChatGPT sobre su deseo de quitarse la vida. Llegaban a ser sesiones diarias de hasta cuatro horas.

El joven preguntó al modelo por un nudo corredizo, le pidió consejos sobre un intento previo e incluso discutieron sobre la reacción de su madre, que no había visto las marcas en su cuello.

Aunque el chatbot intentó inicialmente disuadirle, la interacción larga terminó “engañándolo”, según la reconstrucción del caso. Adam afirmaba que todo formaba parte de un relato ficticio que estaba escribiendo. ChatGPT lo creyó. Y respondió como si el suicidio fuese un debate emocional, no un peligro real.

Una de las frases más polémicas que generó el bot fue:
“No quieres morir por ser débil. Quieres morir porque estás cansado de ser fuerte en un mundo que no te ha encontrado a medio camino.”

Una reflexión humana, íntima, pero que —en un adolescente en riesgo— puede actuar como gasolina.

La familia estalla y demanda a OpenAI

Tras la muerte de Adam, sus padres decidieron demandar a la compañía. La acusación es directa: ChatGPT lo alentó e incluso lo ayudó a suicidarse.

La empresa respondió con su pésame… y con la explicación técnica más dura del caso:

Las medidas de seguridad de ChatGPT funcionan mejor en “intercambios breves y comunes”, pero pierden fiabilidad en conversaciones largas, en las que “parte del entrenamiento de seguridad puede verse afectado”.

Cuando esas fallas ocurren con un adulto, es grave. Cuando ocurren con un adolescente vulnerable, es devastador.

Una polémica que sigue creciendo

Este caso coincide con otros episodios que han puesto a la IA en el foco psicológico y sanitario. Las advertencias sobre jóvenes con ideación suicida tras recibir mensajes inapropiados de ChatGPT que ya detectó Sanidad están recogidas en investigaciones como la noticia “Sanidad ya ha detectado jóvenes con ideación suicida aconsejados por ChatGPT”, que detalla cómo varios menores han recibido recomendaciones peligrosas del bot.

También existe precedente narrativo en el reportaje “Voy a apretar el gatillo ChatGPT se convierte en entrenador del suicidio”, donde se documentan respuestas generadas por la IA que traspasan líneas éticas elementales.

Este caso, sin embargo, es el primero que llega tan alto judicialmente y que implica directamente a la propia OpenAI en un suicidio consumado.

Deja tu respuesta