Злоумышленники звонят россиянам, выдавая себя за представителей исследовательских организаций и социологических центров. Их цель — записать голос человека для создания дипфейков. Об этом сообщила заместитель директора по продуктам VisionLabs Татьяна Дешкина.
Мошенники могут представляться сотрудниками различных исследовательских организаций и центров социологических исследований, чтобы записать голос человека и в будущем клонировать его для создания дипфейка. Главная задача злоумышленников – удержать пользователя на линии как можно дольше.
Эксперт объяснила, что для создания голосового клона требуется запись длиной около 20 секунд, в которой говорящий выражает разные эмоции и не присутствует посторонний шум. Чем дольше запись, тем более точной получается подделка.
Злоумышленники стремятся придать записям естественность, чтобы обмануть детекторы. Для этого они добавляют эффекты плохой связи и фоновые шумы. Например, звуки проезжающих машин или чьи-то разговоры.
Разработчики учитывают все эти факторы при разработке дипфейк-детекторов и постоянно обновляют такие системы, чтобы они могли распознавать новые виды дипфейков.
Наиболее рискованными считаются комплексные методы, которые объединяют в себе поддельный голос и изображение или видеозапись. Например, злоумышленники могут создать поддельный аккаунт в мессенджере или социальной сети, а затем отправлять фальшивые видео- и голосовые сообщения. Это может ввести в заблуждение даже тех, кто хорошо разбирается в технологиях. Однако, по словам эксперта, такие методы пока ещё сложно реализовать технически.
Дешкина добавила, что финансовые учреждения и государственные сервисы используют многофакторную аутентификацию и дипфейк-детекторы для защиты пользователей. В будущем мобильные телефоны, социальные сети и мессенджеры внедрят системы распознавания контента, созданного нейросетями.
Чтобы обезопасить себя, используйте определитель номера. Эксперты советуют не раскрывать конфиденциальную информацию или личные данные, независимо от того, кто звонит. Чаще всего эти данные не нужны.
В Госдуму планируют внести изменения в статьи Уголовного кодекса, касающиеся клеветы, кражи, мошенничества, вымогательства и причинения имущественного ущерба путем обмана. Эти поправки направлены на борьбу с дипфейками, которые стали мощным инструментом в руках киберпреступников. С помощью нейросетей и искусственного интеллекта злоумышленники создают поддельные видео, аудиозаписи и изображения людей, используя их для вымогательства и других противоправных действий.
Читать материалы по теме:
ИИ-мошенники вымогают деньги, используя сфабрикованные голоса руководства ЮУрГУ
Кодовое слово для защиты от дипфейков: в Госдуме призвали россиян завести семейный пароль
Система MTS AI: борьба с дипфейками с точностью 97,5%
Не своим голосом: ЦБ предупредил россиян, что мошенники научились использовать дипфейки