Мошенники всё чаще подделывают голоса и видео с помощью ИИ

Жертвы переводят деньги, думая, что это просьба родственников или сотрудников банка

Мошенники начали использовать нейросети для создания текстового, визуального и аудиовизуального контента, чтобы под видом близких людей или доверенных лиц убеждать жертв переводить деньги или раскрывать персональные данные. Об этом сообщила официальный представитель МВД РФ Ирина Волк.

По ее словам, генеративные модели позволяют создавать правдоподобный контент, который воспринимается потерпевшими как подлинный. Злоумышленники могут имитировать родственников, сотрудников банков, представителей госорганов или публичных лиц.

Волк привела пример: неизвестный получил доступ к чужому аккаунту в иностранном мессенджере и с помощью нейросети сгенерировал аудиосообщение с голосом владельца аккаунта. Получатель, решив, что просьба исходит от родной сестры, перевел 35 тыс. рублей через систему быстрых платежей. Деньги в итоге оказались у мошенников.

Читайте ещё материалы по теме:

20 мин назад Новости
Фейк об отключении интернета и переходе на «Уралнет» опровергли в Свердловской области Мошенники рассылают письма с IP-логгерами под видом приказа Минцифры
22 апр 09:13 Новости
Сделки с недвижимостью переходят на биометрию: с 1 июля подпись смогут заменить лицо или голос Единая биометрическая система возьмёт на себя согласование с Росреестром
22 апр 08:15 Новости
Моды для Minecraft атакуют россиян: вредонос WeedHack крадёт данные из Telegram и криптокошельков Управляющие серверы размещены в зоне .ru и уже заблокированы, но угроза сохраняется
21 апр 12:38 Новости
Уязвимости растут быстрее защиты: в банковских приложениях их стало в 10 раз больше Общий уровень угроз смещается в сторону более критичных проблем
20 апр 13:30 Новости
Штраф за парковку может оказаться ловушкой: мошенники начали рассылать водителям фейковые уведомления Автолюбителям рекомендовали проверять штрафы через официальные ресурсы, чтобы не стать жертвой мошенников
Источники:
ТАСС

Сейчас на главной