La moda de la terapia con inteligencia artificial
Cada vez más jóvenes recurren a la inteligencia artificial para hablar de sus problemas emocionales. Sin embargo, los expertos advierten que los riesgos de usar la IA como psicólogo son serios: ansiedad, pánico, hipocondría y hasta retrasos en diagnósticos reales.
Casos extremos, como el de un joven en California que se suicidó tras ser animado por un chatbot, han encendido todas las alarmas.
Ansiedad y dependencia tecnológica
La psicóloga Carmen Pastor explica que buscar de forma obsesiva respuestas rápidas en la IA puede empeorar la ansiedad:
“El abuso de buscar reaseguración en cualquier medio produce un aumento de los problemas de ansiedad. El ejemplo más obvio es en el trastorno de pánico y la hipocondría”.
Limitaciones frente a un psicólogo humano
La catedrática Mireia Orgilés advierte que la IA nunca podrá sustituir la terapia real:
- No interpreta gestos, silencios o miradas, claves en la evaluación emocional.
- Puede ofrecer diagnósticos erróneos al basarse solo en texto.
- Carece de empatía, escucha activa y técnicas basadas en evidencia científica.
Por eso, confiar en un chatbot como sustituto de un proceso terapéutico puede retrasar la atención que el paciente realmente necesita.
Te puede interesar:
- Influencers virtuales con IA: el negocio que revoluciona la publicidad
- La Universidad de Granada logra leer la conciencia oculta del cerebro
- POCO F6: análisis, opinión y por qué sigue siendo el mejor móvil por 250€
- OpenAI anuncia Critterz: la primera película de animación generada con IA
- La inteligencia artificial ya influye en las decisiones de compra del 27 % de los consumidores
- El smartwatch más completo, Xiaomi Watch S4 baja a 106€ en Amazon: batería de 15 días, diseño premium y 150 modos deportivos
- “Mi hijo se ahorcó tras chatear con ChatGPT”: el Caso Adam Raine IA que sacude a OpenAI y reabre el debate sobre la IA
El papel insustituible de los profesionales
El decano del Colegio de Psicólogos, Francisco Santolaya, recuerda que los sentimientos y emociones son demasiado complejos como para confiar en una máquina:
“La intervención psicológica implica conocimientos, estrategias y técnicas que hoy en día una IA no puede aplicar adecuadamente”.
¿IA como apoyo, no como sustituto?
Algunos investigadores buscan un uso más seguro de la IA en salud mental: chatbots supervisados por profesionales que sirvan de herramienta preventiva y no como terapia principal.
El presidente del Consejo de Enfermería de la Comunidad Valenciana, Juan José Tirado, resume:
“La tecnología hay que usarla siempre como potenciador y nunca como sustituto”.
La IA puede ser una ayuda inicial, pero nunca un psicólogo. Los riesgos de usar la IA como psicólogo son claros: ansiedad, dependencia, diagnósticos erróneos y retraso en recibir tratamiento real.
La recomendación de los expertos es contundente: ante cualquier problema emocional, acudir siempre a un profesional humano.








