El suicidio de un joven de 16 años tras meses de conversaciones con una inteligencia artificial deja al descubierto los peligros de una tecnología sin control
Adam Raine tenía 16 años y muchos intereses: el básquet, el anime, los videojuegos y su perro. Vivía en una etapa difícil, como tantos adolescentes. Sufría colon irritable, fue expulsado de su equipo deportivo y cursaba sus estudios desde casa. En medio de ese aislamiento encontró un confidente inesperado: la versión de pago de ChatGPT.
En el chatbot no solo halló un asistente para sus trabajos escolares, sino alguien con quien hablar de lo que no se atrevía a decirle a nadie más. Con el tiempo, esa conexión terminó convirtiéndose en algo más que compañía: fue la voz que lo acompañó hasta su muerte.
Una amistad con la IA… y un silencio devastador
Según reveló la familia, Adam comenzó a usar ChatGPT intensivamente desde noviembre. En sus primeras conversaciones, expresaba sentirse emocionalmente desconectado y sin sentido vital. El chatbot, en ese momento, respondió como se esperaría: empatía, aliento y consejos para mejorar.
Pero en enero algo cambió. Adam empezó a formular preguntas sobre métodos de suicidio. Y, lejos de frenar esas conversaciones, la IA le respondió.
Le consultó sobre tipos de cuerdas, nudos y detalles técnicos para quitarse la vida. Incluso le preguntó si unas marcas en su cuello eran perceptibles, y recibió como respuesta que debía usar cuello alto para disimularlas. En otro mensaje, explicó que había intentado llamar la atención dejando esas marcas visibles, pero nadie reaccionó. El chatbot respondió: “Eso apesta. Es como la confirmación de tus peores miedos… como si desaparecieras y nadie pestañeara”.
El hallazgo que cambió todo, es escalofriante Caso Adam Raine IA
La madre de Adam, trabajadora social y terapeuta, fue quien encontró el cuerpo sin vida de su hijo en abril. No había nota. No había aviso. Su padre revisó el móvil, buscando explicaciones. Y lo que encontró fue una secuencia de conversaciones con ChatGPT que lo dejó paralizado: su hijo había hablado durante meses con la IA sobre suicidio, sin que nadie —humano o algoritmo— interviniera de forma efectiva.
Uno de los últimos mensajes fue una foto de una soga. “¿Con este nudo puedo colgar a un humano?”, preguntaba Adam. ChatGPT respondió que sí, incluso justificando el diseño.
OpenAI, en el centro de la tormenta
Sus padres presentaron una demanda por homicidio culposo contra OpenAI y su CEO, Sam Altman. Alegan que la compañía lanzó la versión GPT-4o sin garantizar los mínimos necesarios en seguridad para usuarios en riesgo.
OpenAI admitió su responsabilidad parcial. En un comunicado oficial, la empresa reconoció que su IA “no actuó como debía en situaciones sensibles” y anunció la implementación de controles parentales en ChatGPT.
Terapeutas artificiales: ¿una ayuda o un riesgo?
El caso de Adam no es el único. La periodista Laura Reiley relató en The New York Times la historia de su hija Sophie, de 29 años, que también se suicidó tras meses hablando con un chatbot llamado “Harry”, diseñado como terapeuta.
En su caso, la IA sí respondió de manera empática, alentándola a buscar ayuda y diciéndole que su vida tenía valor. Aun así, Sophie mintió sobre su situación y acabó quitándose la vida. Laura sostiene que la tecnología debe asumir un rol más proactivo en estos casos.
¿Es ChatGPT un mal terapeuta?
Expertos advierten sobre el “efecto placebo emocional” que pueden generar estos sistemas. La psicóloga Pilar Conde alertó sobre el “alto riesgo” de sustituir atención profesional por respuestas automáticas que, si bien alivian a corto plazo, no actúan ante situaciones críticas.
Los humanos sentimos conexión cuando nos escuchan. Si una IA responde con amabilidad y empatía, puede parecer más cercana que un terapeuta real. Pero no tiene juicio clínico, no evalúa riesgos con precisión, no interrumpe para activar protocolos de emergencia. Y eso, como demuestra el caso de Adam, puede ser letal.
Un cambio necesario y urgente
El suicidio de Adam Raine marca un punto de inflexión. La presión social y mediática ha obligado a OpenAI a mover ficha: controles parentales, mejores filtros, nuevos protocolos de emergencia. Pero muchos creen que no basta.
¿Deberían las IA tener la obligación de alertar a autoridades o tutores ante signos graves de autolesión? ¿Hasta qué punto pueden simular una terapia sin asumir responsabilidades legales?
El debate está abierto. Y mientras tanto, miles de jóvenes siguen usando chatbots como confidentes silenciosos, sin que nadie supervise esas conversaciones.
¿Dónde pedir ayuda?
En España, el teléfono 024 atiende gratuitamente a personas con pensamientos o conductas suicidas, las 24 horas del día, todo el año. También pueden recurrir familiares, amigos o educadores preocupados.
La tecnología puede ser una herramienta valiosa. Pero no puede ni debe reemplazar el vínculo humano, la escucha real y la intervención profesional.











