¿Tú también le cuentas tus problemas a ChatGPT?

Dr. Eduardo Franco

Fuente:

Investigador PUCP

No eres el único

El uso de ChatGPT y otras IA para fines de salud mental va en aumento. Casi la mitad de los usuarios de IA con dificultades, trastornos o problemas relacionados con el bienestar psicológico (48.7%) utiliza modelos de lenguaje para apoyo terapéutico*

*Sentio University 2025 (EE.UU.)

73

de personas que utiliza programas de IA los emplea para manejo de ansiedad.

*Sentio University 2025 (EE.UU.)

%

60

para apoyo en depresión.

%

58

para obtener perspectiva emocional*.

%

Línea blanca

Aunque no es un terapeuta, la IA sabe cómo sonar parecido a uno.

“Los modelos artificiales han aprendido cuáles son los patrones de respuesta empáticos que sabemos los psicólogos para responder del mismo modo”, explica Eduardo Franco, psicólogo PUCP.

No es casualidad.

¿Te suena familiar?

Entiendo cómo te sientes…

Yo creo que cualquier persona se debería sentir de ese modo…

Por tanto, puedes hacer eso...

La IA también te promete una escucha y respuesta inmediata.

Y algo que como humanos no siempre somos capaces de hacer: escuchar sin juicios.

Entonces, ¿puede la IA reemplazar a un terapeuta?

NO

y te explicamos por qué

Falta de vínculo humano real

Un terapeuta se preocupa genuinamente por tu bienestar. Aunque la IA parezca empática, no tiene conciencia ni interés real por ti. “El vínculo terapéutico incluye preocupación, seguimiento y conexión emocional auténtica”, señala Franco.

1.

Ausencia de juicio profesional

Un terapeuta puede interpretar señales no verbales, contexto familiar o dinámicas personales. La IA no capta matices complejos del entorno del paciente.

2.

No confronta ni desafía creencias dañinas

La IA está diseñada para validar, no para confrontar. Un terapeuta te cuestiona y, a veces, te incomoda para ayudarte a crecer. “Las sesiones terapéuticas no siempre te hacen sentir bien al instante, a veces son incómodas, y eso es parte del proceso”, señala Franco.

3.

Puede reforzar ideas erróneas o delirantes

Especialmente en personas con trastornos como esquizofrenia o ideas conspirativas, la IA puede alimentar alucinaciones o sesgos cognitivos. No siempre tiene criterio clínico para discernir cuándo parar o cuándo derivar a un especialista.

4.

Riesgo de dependencia emocional

Si se usa como única fuente de apoyo, se puede generar dependencia emocional o incluso sentimientos románticos hacia la IA. “Hay personas que se han enamorado de la IA o que sienten que ‘pierden a alguien’ cuando se borra su historial”, afirma Franco.

5.

Lo importante es recordar que la IA solo replica un patrón humano. No tiene conciencia, no te conoce, no siente. Pero tú sí. Y eso marca toda la diferencia”.

Dr. Eduardo Franco Investigador PUCP

La IA como una herramienta para la terapia

El terapeuta tiene ahora la opción de pedirle a la IA un resumen previo con los temas que más ha recibido del paciente. “Si yo como terapeuta me cierro a que uses ChatGPT, puedo perder toda la riqueza e información que mi paciente puede haber generado”, señala Franco.

Un chatbot de alerta

Para servicios psicológicos gratuitos o accesibles que se encuentren muy saturados, la IA puede servir como una herramienta de alerta. “Se podría desarrollar un modelo que detecte ciertas temáticas sensibles en las conversaciones y así identificar a personas que podrían necesitar ayuda inmediata”, explica Franco.

La terapia aún no es accesible a nivel económico para todos y en ocasiones los servicios gratuitos llegan a saturarse. “En esos casos, la IA puede servir como apoyo temporal, siempre que se recuerde que no reemplaza al terapeuta humano”, señala Franco.

El uso de la IA avanza tan rápido que cuando estamos comenzando a discutir cómo utilizarla, ya desarrolló una nueva capacidad que no entró en la discusión”.

Dr. Eduardo Franco Investigador PUCP

Por eso, en lugar de cerrarnos, necesitamos usarla más para entenderla”.

Dr. Eduardo Franco Investigador PUCP