Не своим голосом: ЦБ предупредил россиян, что мошенники научились использовать дипфейки

Мошенники стали чаще использовать дипфейки, чтобы выманить деньги у россиян

Мошенники для хищения денег в России стали чаще применять дипфейк-технологии. С помощью нейросети аферисты создают реалистичное видеоизображение человека, от лица которого совершают рассылки его родственникам и друзьям, сообщила пресс-служба Центробанка.

На удочку злоумышленников попадаются даже известные артисты. Так, недавно мошенники с помощью дипфейка Ларисы Долиной взяли кредит на 50 миллионов рублей.

В регуляторе подчеркнули, что сообщение от знакомого с просьбой о финансовой помощи зачастую может быть уловкой мошенников, а также составили список рекомендаций, чтобы на нее не попасться:

  • обязательно позвонить тому, от чьего лица просят деньги, и проверить информацию
  • если возможности позвонить нет, задать в сообщении личный вопрос, ответ на который знает только этот знакомый
  • проверить видеосообщение на предмет дефектов звука, монотонной речи собеседника, неестественной мимики, это наиболее заметные признаки дипфейка

Ранее стало известно, что злоумышленники начали маскировать под приложения на основе нейросетей для изменения голоса вредоносные файлы. Такое фейковое ИИ-приложение для смены голоса у россиян крадет их личные данные и дает мошенникам доступ к смартфону или иному устройству. 

Читать материалы по теме:

ИИ-мошенники вымогают деньги, используя сфабрикованные голоса руководства ЮУрГУ

Взлом Telegram с помощью ИИ — как мошенники в России используют ваш голос и паспорт. Просьбы перевести деньги зазвучат вашим голосом — и им, скорее всего, поверят

Центробанк и МВД хотят создать антифрод-платформу для борьбы с мошенниками. А операторы связи боятся потерять деньги

Этот сайт использует куки