Современные технологии всё чаще становятся инструментом мошенников. С помощью искусственного интеллекта аферисты подделывают голоса и лица, чтобы обманывать людей и выманивать деньги. Рассказываем, как отличить дипфейки и не дать мошенникам использовать ваш образ для обмана.

«Папа, помоги!»
«Папа, я попала в аварию, помоги!» — после этих слов прервалась связь. Хотя номер телефона на экране не определился, 84-летний москвич не сомневался, что слышал голос своей дочери. Не успел он прийти в себя, как раздался новый звонок.
Незнакомец представился свидетелем ДТП и сообщил, что дочь пенсионера стала виновницей аварии, в результате которой пострадали люди. За это ей грозит десятилетний срок. Передать ей трубку он отказался, заявив, что виновница аварии уже без сознания. Он потребовал действовать быстро: если возместить ущерб до составления протокола, тюрьмы можно избежать.
Пенсионер рассказал, что дома у него хранится почти полтора миллиона рублей. «Этого хватит», — ответил голос в трубке. Вскоре в квартире пенсионера появился «помощник следователя», которому хозяин отдал пакет с деньгами.
Через несколько часов пенсионер позвонил дочери, и она рассказала, что не попадала ни в какие аварии. Только тогда мужчина осознал, что стал жертвой мошенничества.
Как стало известно из сообщения московской прокуратуры, злоумышленники использовали новую технологию — дипфейк, то есть подделку голоса или изображения с помощью нейросетей. Этот метод позволяет им обманывать не только пожилых людей, но и других людей.

Звонок от начальства
Ещё одна популярная схема мошенничества с использованием дипфейка — звонки от имени руководства. Так, Анатолий Козлачков, президент Ассоциации банков России, рассказал, что его голосом, сгенерированным компьютером, «пугали один очень солидный банк». А некоторым топ-менеджерам звонили от его имени с просьбой дать денег взаймы.
Участники IT-рынка сообщали о схожих случаях: в некоторых компаниях лжеруководители пытались получить деньги от рядовых сотрудников.
Не только в России, но и за её пределами сталкиваются со знаменитостями, которые становятся жертвами мошенников. Недавно стало известно, что злоумышленники пытались получить доступ к средствам известных итальянских бизнесменов, включая модельера Джорджо Армани и председателя Prada Патрицио Бертелли.

Как распознать дипфейк?
Раньше было легко отличить подделку, но с развитием нейросетей это стало очень сложно. Однако даже современные программы не идеальны. В некоторых случаях обман можно увидеть невооружённым глазом.
Один из главных признаков низкокачественных и быстро созданных дипфейков — это рассинхронизация речи и движений губ. Также на искусственное происхождение видео могут указывать неестественные движения зрачков и моргание, объяснила команда специалистов отдела верификации видеоагентства Ruptly.
Кроме того, у дипфейков могут быть и другие аномалии: деформация анатомии лица (разлет бровей, расположение носа), рук (появление шестого пальца или отсутствие одного из пяти), а также изменение родимых пятен или неестественный вид растительности на лице.
Екатерина Корнюшина, основатель проекта по выявлению дипфейк-контента www.aIDeepFake.ru, рекомендует обратить внимание на следующие моменты: правильно ли отражается свет на окружающих предметах, естественен ли цвет кожи.
Если человек резко повернул голову, закрыл часть лица рукой или только что появился в кадре, дипфейковая маска часто исчезает на мгновение или смазывается. Иногда элементы маски попадают на другие предметы — и это сразу заметно.
Специалист предлагает воспользоваться следующим советом: если у вас возникли подозрения, что ваш собеседник ненастоящий, попросите его перейти на другое устройство. Возможно, на нём не будет установлено специальное программное обеспечение.
Существуют программы, которые помогают выявлять дипфейки. К ним относятся McAfee Deepfake Detector, Sensity AI и Deepware для видео. Эти системы обучены на обширных базах данных с дипфейками и могут определить, является ли изображение или видео подделкой. Однако они не могут гарантировать стопроцентную точность.

Основная защита — критическое мышление
Однако главным инструментом по-прежнему остаётся критическое мышление. В процессе онлайн-общения не следует принимать поспешных решений. Мошенники часто стремятся создать стрессовую ситуацию и поторопить вас, чтобы вы не успели заметить подлог. Если вы чувствуете давление со стороны собеседника, возьмите паузу и не торопитесь с выводами. Всегда старайтесь перезвонить сами через другой канал связи, чтобы убедиться, что ваш собеседник действительно существует, советует Щербанич.
Люди, чьи изображения использовались для создания дипфейков, тоже могут пострадать. Чтобы дипфейк выглядел убедительно, злоумышленникам нужно иметь много исходного материала. Именно поэтому дипфейки с участием актёров и других публичных личностей получаются настолько правдоподобными.
Чтобы избежать возможной подделки голоса и лица, специалисты рекомендуют не загружать свои фотографии и видео в социальные сети или хотя бы ограничить доступ к ним.
Таким образом, в эпоху искусственного интеллекта соблюдение цифровой гигиены вступает в противоречие с самой сутью социальных сетей, созданных для того, чтобы делиться с окружающими фотографиями и видео. Возможно, пользователям придётся пересмотреть свои привычные модели поведения в интернете, которые стали неотъемлемой частью их жизни.
Использование поддельных звонков стало одним из самых опасных методов мошенничества. По оценкам VisionLabs, в 2024 году было зафиксировано десятки тысяч таких атак. Ожидается, что в 2025 году их число вырастет в десятки раз.
Читать материалы по теме:
ИИ-мошенники вымогают деньги, используя сфабрикованные голоса руководства ЮУрГУ
Сбер и МВД начнут совместную борьбу с дипфейками
Обман нового уровня: дипфейки стали использовать для обмана на сайтах знакомств
Не своим голосом: ЦБ предупредил россиян, что мошенники научились использовать дипфейки
Мошенники с помощью дипфейка Ларисы Долиной взяли кредит на 50 миллионов рублей
История редактирования комментария