В Госдуму готовятся внести поправки в статьи Уголовного кодекса РФ («Клевета», «Кража», «Мошенничество», «Вымогательство», «Причинение имущественного ущерба путем обмана или злоупотребления доверием»), связанные с применением дипфейков. Их более года стали активно использовать киберпреступники, создавая через нейросети и благодаря ИИ поддельные видео, записи голоса, изображений граждан. Их используют для вымогательства и других преступлений.

Как отмечают «Известия», чья редакция ознакомилась с законопроектом, предлагается дополнить ряд статей УК РФ дополнительным квалифицирующим признаком. Это совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и биометрических данных. Признанным виновным в таких преступлениях будут грозить штрафы до 1,5 млн рублей и до семи лет лишения свободы.

Развитие компьютерных технологий привело к расширению возможностей по созданию видео- и аудиоматериалов на основе образцов изображений и голоса человека, искусственно воссоздающих несуществующие события. Современные программно-аппаратные комплексы, а также использование нейросетей и искусственного интеллекта (технологии «дипфейк», «цифровые маски» и так далее) позволяют создавать подделки, отличить которые от реальности неспециалисту практически невозможно.
Пояснительная записка к законопроекту о поправках в УК РФ в части незаконного использования дипфейков

Сейчас в российском законодательстве нет точной формулировки того, что же такое дипфейк. Ответственности в виде штрафа или уголовной ответственности за их использование в преступных целях,  в российском законодательстве тоже нет. Этот пробел предлагают ликвидировать, как пояснил «Известиям» автор законопроекта.

Мы предлагаем ввести более серьезную ответственность по ряду уголовных статей за использование этой технологии. То, что она активно используется, уже было доказано на встрече с президентом в конце прошлого года на прямой линии. Есть много примеров, когда люди остаются без всего из-за подделок их голоса. Поэтому в УК предлагается предусмотреть современные реалии.
Ярослав Нилов, автор законопроекта, глава комитета Госдумы по труду, социальной политике и делам ветеранов

Впрочем, от желания скрыть или заменить свой голос для разных целей уже страдают и сами россияне, которые хотят создать дипфейки для разных целей: как для противозаконных действий, так и для розыгрышей. Недавно выяснилось, что злоумышленники начали маскировать под приложения на основе нейросетей для изменения голоса вредоносные файлы. Такое фейковое ИИ-приложение для смены голоса у россиян крадет их личные данные и дает мошенникам доступ к смартфону или иному устройству.

Читать материалы по теме:

ИИ-мошенники вымогают деньги, используя сфабрикованные голоса руководства ЮУрГУ

Взлом Telegram с помощью ИИ — как мошенники в России используют ваш голос и паспорт. Просьбы перевести деньги зазвучат вашим голосом — и им, скорее всего, поверят

Центробанк и МВД хотят создать антифрод-платформу для борьбы с мошенниками. А операторы связи боятся потерять деньги

Источники :
«Известия»

Сейчас на главной