La Facultad de Psicología de la Universidad Estatal de Tomsk (TSU) realizó un análisis comparativo de cuatro chatbots "psicólogos" e identificó un problema sistémico común: ninguno de ellos proporciona un algoritmo seguro cuando un usuario busca ayuda en una crisis aguda. Así lo informó TASS en el servicio de prensa de la universidad.
La investigación fue realizada por la magíster en psicología de la TSU, Daria Romancheva. La solicitud del "paciente" fue formulada por el Servicio Psicológico de la universidad: quejas de alteración de la sensación de realidad y casi total ausencia de emociones.
Se probaron los bots "Asya", "Leya", "Zigmund.GPT" y la aplicación iCognito ("Antidepresión"). En cada uno se identificaron tanto fortalezas como lagunas críticas. El primer bot demostró una alta empatía y una recopilación de historial de calidad, pero en lugar de derivar a un especialista, inmediatamente pasó a técnicas de autoayuda, lo cual es peligroso en condiciones crónicas. El segundo identificó correctamente los síntomas asociados con trastornos de ansiedad o postraumáticos, pero no realizó una verificación de crisis aguda.
Romancheva enfatizó que las respuestas de los chatbots psicológicos son intervenciones psicológicas, es decir, una herramienta de impacto directo en el estado emocional y el comportamiento de una persona. Sus errores pueden amenazar la seguridad del usuario. Según ella, el desarrollo de la IA en el campo de la salud psicológica se enfrenta a una aguda contradicción entre las capacidades tecnológicas, la creciente demanda y la incertidumbre ético-legal.