Мошенники начали использовать нейросети для создания текстового, визуального и аудиовизуального контента, чтобы под видом близких людей или доверенных лиц убеждать жертв переводить деньги или раскрывать персональные данные. Об этом сообщила официальный представитель МВД РФ Ирина Волк.
По ее словам, генеративные модели позволяют создавать правдоподобный контент, который воспринимается потерпевшими как подлинный. Злоумышленники могут имитировать родственников, сотрудников банков, представителей госорганов или публичных лиц.
Волк привела пример: неизвестный получил доступ к чужому аккаунту в иностранном мессенджере и с помощью нейросети сгенерировал аудиосообщение с голосом владельца аккаунта. Получатель, решив, что просьба исходит от родной сестры, перевел 35 тыс. рублей через систему быстрых платежей. Деньги в итоге оказались у мошенников.