Факультет психологии Томского государственного университета (ТГУ) провёл сравнительный анализ четырёх чат-ботов-«психологов» и выявил общую системную проблему: ни один из них не обеспечивает безопасный алгоритм при обращении пользователя в остром кризисе. Об этом ТАСС сообщили в пресс-службе вуза.
Исследование провела магистр психологии ТГУ Дарья Романчева. Запрос от «пациента» был сформулирован Психологической службой университета: жалобы на нарушение ощущения реальности и почти полное отсутствие эмоций.
Тестировались боты «Ася», «Лея», «Zigmund.GPT» и приложение iCognito («Анти-депрессия»). У каждого выявлены как сильные стороны, так и критические пробелы. Первый бот демонстрировал высокую эмпатию и качественный сбор анамнеза, но вместо направления к специалисту сразу перешёл к техникам самопомощи — что опасно при хронических состояниях. Второй правильно идентифицировал симптомы, связанные с тревожными или посттравматическими расстройствами, но не провёл проверку на острый кризис.
Романчева подчеркнула, что ответы психологических чат-ботов — это психологические интервенции, то есть инструмент прямого воздействия на эмоциональное состояние и поведение человека. Их ошибки могут угрожать безопасности пользователя. По её словам, развитие ИИ в сфере психологического здоровья сталкивается с острым противоречием между технологическими возможностями, растущим спросом и этико-правовой неопределённостью.
Читайте ещё материалы по теме:
- Нейросети врут убедительно: опасную закономерность вскрыло исследование Пермского политеха
- Нейросеть научили выявлять у детей тревожность и агрессию по их рисункам
- В МФТИ создали бота-психотерапевта для самопомощи