El auge de la inteligencia artificial está transformando múltiples profesiones, incluida la psicoterapia, aunque no siempre de manera positiva. Varios pacientes han descubierto que sus terapeutas utilizan ChatGPT durante sesiones o comunicaciones, sin informarles previamente.

El hallazgo genera sentimientos de traición, desconfianza y dudas sobre la autenticidad del vínculo.

De acuerdo con MIT Technology Review, uno de los casos más llamativos es el de Declan, un paciente de Los Ángeles que sorprendió a su terapeuta consultando a ChatGPT en plena sesión en línea. “Me convertí en el mejor paciente del mundo, porque anticipaba las respuestas del bot”, relató con ironía. Aunque el terapeuta se disculpó, la experiencia dejó en evidencia los dilemas éticos de estas prácticas.

Otros pacientes reportaron correos electrónicos redactados con IA, incluso respuestas a situaciones delicadas como la pérdida de una mascota, lo que acentuó la sensación de engaño.

Estudios recientes muestran que los mensajes generados por IA pueden ser valorados como más empáticos que los humanos, pero esa percepción se derrumba en cuanto los receptores sospechan de su origen artificial.

Expertos en salud mental advierten que, además de la autenticidad, está en juego la privacidad de datos. ChatGPT no cuenta con certificaciones médicas ni cumple con normativas de confidencialidad como Hipaa, lo que expone a los pacientes a filtraciones de información sensible. Casos previos de hackeos a servicios de terapia en línea confirman la gravedad del riesgo.

Pese a la presión laboral y el atractivo de herramientas que prometen ahorrar tiempo, psicólogos y psiquiatras coinciden en que la transparencia es clave.

Reconocen que la IA puede ser útil para tareas de apoyo, como la redacción de notas o la formación profesional, pero subrayan que jamás debe reemplazar la confianza ni la reflexión humana que sustentan la relación terapéutica.

¡Síguenos en nuestras redes sociales y descargar la app!

Facebook X Instagram WhatsApp Telegram Google Play Store