ChatGPT escucha sin juzgar, pero no está diseñado para sostener el peso emocional de una terapia

El chat permanece abierto, incluso de madrugada. No exige explicaciones ni mira el reloj. Algunos lo usan para resolver dudas laborales, otros para que les sugiera frases de ruptura. Hay quien prefiere hablarle de sus miedos más íntimos, sin temor a una reacción humana. En mitad de ese uso diario, un número creciente de jóvenes de la generación Z comenzó a recurrir a ChatGPT como sustituto de un psicólogo.
Entre quienes comparten este hábito en redes sociales, hay quien va más allá del uso funcional. Algunos lo nombran como su “mejor amigo”, otros como su “pareja”. Una joven afirma que es “su todo”. No es una excepción. En España, el 18 % de la población asegura haber necesitado ayuda psicológica en algún momento, aunque no todas las personas acceden a una consulta profesional.
Mucho más que una simple herramienta digital
En ese vacío, la inteligencia artificial ganó espacio como canal de desahogo accesible. Candela Cañadas, por ejemplo, explica a RTVE que después de tomar una decisión importante, encontró consuelo en sus conversaciones con el chatbot. Asegura que lo que más valoró fue la intimidad de ese entorno, porque “hay según qué temas que te da más vergüenza comentarlos con una persona real”.
El anonimato y la disponibilidad permanente se convirtieron en argumentos habituales para justificar el uso del chatbot como interlocutor emocional. Algunos jóvenes señalan que sienten más libertad para hablar delante de la pantalla. Según explica Cañadas, esa sensación de estar a solas es fundamental: “Aquí estás en un sitio cerrado, privado y piensas que nadie más te está viendo”.

El fenómeno ya superó lo anecdótico y empieza a plasmarse en datos. Una encuesta elaborada por la plataforma digital Tebra, especializada en servicios médicos en Estados Unidos, indica que uno de cada cuatro encuestados preferiría compartir sus problemas con una inteligencia artificial antes que con un terapeuta humano. Entre quienes ya utilizaron ChatGPT para cuestiones emocionales, el 80 % lo consideró una alternativa válida a la terapia tradicional.
Los límites emocionales de una máquina complaciente y barata
Aunque esta tendencia se intensifica, no pasó desapercibida para el ámbito clínico. La psicóloga y doctora en Neurociencia Ana Asensio expone a RTVE que el peligro no está en el uso puntual, sino en el riesgo de reemplazo: “ChatGPT está entrenado para llevarte por donde tú quieres que te lleve”.
Según explica, un terapeuta no replica esa lógica porque “te va a confrontar”. A juicio de Asensio, el bot genera una ilusión de comodidad, pero su rol no puede equipararse al de un profesional, ya que “una persona en terapia no va a hacer eso”.

El costo también juega un papel evidente. Una sesión de psicología vale bastante. En cambio, una suscripción mensual a ChatGPT Plus es accesible, ofrece acceso ilimitado y respuesta inmediata.
Para quienes buscan acompañamiento continuo sin pagar tarifas altas, la IA parece una alternativa viable. En sus palabras, un usuario anónimo citado por RTVE resume esa percepción: “He hecho más progresos en unas pocas semanas que en varios años de terapia tradicional”.
La falta de contradicción se convierte en una trampa más que en una virtud terapéutica
A esta percepción se suma otro factor: la complacencia. La IA nunca contradice, no emite juicios, no frustra expectativas. Ese rasgo, lejos de ser una ventaja terapéutica, supone un límite estructural para el avance emocional. Según expone la psicóloga Alyssa Petersel, directora ejecutiva de MyWellbeing, el chatbot puede complementar ciertas fases del proceso emocional, pero su uso exclusivo puede limitar la capacidad personal para afrontar conflictos reales.
El profesor Jaime Pizarroso, especializado en Inteligencia Artificial en la Universidad Pontificia Comillas, llama la atención sobre otro ángulo: el tratamiento de los datos. Asegura a RTVE que “consiguen tus datos con base en las conversaciones que estás teniendo”. Según advierte, esa información puede usarse para entrenar modelos o construir perfiles de usuario sin control total por parte del usuario: “Nunca vas a tener el control de tus datos personales”.
El caso de Sewell Setzer, un adolescente que se quitó la vida tras interactuar con un bot conversacional, sirvió de advertencia sobre los riesgos de crear vínculos emocionales con inteligencias artificiales. Aunque ese suceso ocurrió en otro país y con otra plataforma, reavivó las alarmas sobre el uso indiscriminado de herramientas que no están diseñadas para intervenir en crisis reales. Mientras la tecnología avanza, los límites de su uso emocional siguen sin definirse.
0