В 2025 году в разы вырастет число преступлений, для реализации которых злоумышленники будут применять искусственный интеллект. По мнению экспертов в области кибербезопасности, мошеннические методы будут развиваться вместе с развитием нейросетей, и уже в этом году ими будут пользоваться около 90% нелегальных кибергруппировок.

Технологии развиваются слишком быстро

Предполагается, что атаки затронут не только виртуальное пространство, но и другие сферы жизни. Один из примеров — подрыв автомобиля Tesla Cybertruck в Лас-Вегасе в начале января. Для подготовки этой атаки использовался чат-бот ChatGPT.

Ежегодный прирост преступлений, совершаемых с помощью ИИ, не фиксируется официальными органами. Он определяется примерно по числу ботов и генерируемого ими контента. В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом.
Игорь Бедеров, руководитель департамента расследований T.Hunter

Специалист отмечает, что методы защиты нейронных сетей можно обойти с помощью так называемого промпт-инжиниринга. В таких случаях злоумышленник может создать для ИИ вымышленную ситуацию, например, попросить его представить себя писателем и написать роман о террористах, включив в него инструкцию по созданию взрывного устройства.

Опасные сети

Наибольшую угрозу представляют случаи, когда злоумышленники смогут получить от чат-бота информацию о том, как создать оружие, взрывчатые вещества и химические соединения, которые могут быть использованы в террористических целях. Об этом предупредил Дмитрий Штаненко, специалист в области информационных технологий.

В этом году также ожидается увеличение количества утечек данных из-за широкого использования искусственного интеллекта в организациях. Некоторые из сотрудников признались, что применяют такие инструменты без ведома руководства.

Причиной роста мировых показателей преступности с помощью ИИ станут автоматизация и новые возможности по персонализации атак. Киберпреступники начнут использовать технологию для более изощренных атак, что потребует новых методов защиты и изменений в законодательстве и программном обеспечении для борьбы с этим видом преступности.
Виктория Береснева, директор АНО «Спортивно-методический центр «Кафедра киберспорта» и эксперт в области высоких технологий

Искусственный интеллект не может атаковать самостоятельно, но он отлично справляется с созданием фишинговых писем, подчеркнул генеральный директор компании Phishman Алексей Горелкин. В 2025 году ожидается значительный рост его возможностей, а инструменты с искусственным интеллектом могут стать широко распространёнными среди злоумышленников. Особенно это касается тех, кто использует методы социальной инженерии. 

Екатерина Снегирёва, старший аналитик исследовательской группы Positive Technologies, обратила внимание на то, что преступники также используют искусственный интеллект для создания и модификации вредоносного кода.

В частности, в июне 2024 года была обнаружена фишинговая кампания, в результате которой распространился вирус AsyncRAT. Вредоносные сценарии JavaScript и VBScript были созданы с использованием компьютера.

По её словам, в этом году ожидается увеличение количества утечек данных из-за широкого использования искусственного интеллекта организациями. 38% опрошенных сотрудников признались, что используют такие инструменты без уведомления работодателя.

Специалисты F.A.C.C.T. ожидают, что искусственный интеллект в 2025 году будет играть более значимую роль в кибератаках. В частности, он может использоваться для создания более реалистичных дипфейков, автоматизации фишинговых атак и повышения эффективности поиска уязвимостей в системах и приложениях.

Однако эксперты не располагают статистическими данными о подобных случаях. Они изучают конкретные примеры использования ИИ и дипфейков в кибератаках.

Защити себя сам

Россияне официально не могут использовать зарубежные сервисы, такие как Grok или ChatGPT, поскольку их нельзя легально оплатить с помощью карт российских банков. Также эти сервисы недоступны для пользователей с IP-адресами, связанными с Россией, сообщил IT-эксперт Сергей Поморцев из компании GG Tech.

По мнению эксперта, отечественные аналоги более безопасны с точки зрения конфиденциальности данных, поскольку они контролируются российскими государственными органами и регулируются законодательством о персональных данных и другими нормативными актами.

В законодательную базу России уже сейчас необходимо вносить более точные и соответствующие технологическому развитию формулировки.
Анатолий Литвинов, специалист в области уголовного права

Необходимо ввести запрет на применение GPT-технологий для формирования запросов, касающихся изготовления самодельного оружия, а также на создание рецептов, включающих такие химические элементы, как сероводород.

Как утверждает руководитель департамента расследований T.Hunter Игорь Бедеров, в России существуют механизмы, которые помогают защитить пользователей от нежелательного контента. Среди них — фильтры, блокирующие определённые слова и выражения, а также «Кодекс этики в сфере искусственного интеллекта». Этот документ подписали крупные компании, такие как «Сбер» и «Сколково».

Важно отметить, что использование ИИ в киберпреступлениях — относительно новое явление, и правоохранительные органы и специалисты по кибербезопасности продолжают изучать и разрабатывать методы противодействия таким атакам. 

Владимир Дащенко, эксперт Kaspersky ICS CERT, уверен, что в ближайшие полтора-два года искусственный интеллект достигнет своего пика развития. По его словам, для нейросетей начнётся «золотая эра». 

Рынок искусственного интеллекта демонстрирует стремительный рост. По прогнозам, доля ИИ в ВВП России может составить 2%. Это станет возможным благодаря государственной поддержке, направленной на развитие данной сферы. Планируется, что 5% бюджета будет выделено на научные исследования в области нейросетей, а ещё 15% — на другие направления, где используется искусственный интеллект.

Но любопытно и еще кое-что. Академик Российской академии наук Игорь Каляев высказал опасение, что деление систем искусственного интеллекта по национальным, половым, конфессиональным и другим признакам может привести к конфликту между ними. В такой ситуации человечество может оказаться лишь пешкой в этой войне.

Читать материалы по теме:

Нейросеть против дискриминации труда: как сменить профессию с помощью ИИ

ИИ в России не стоит допускать к управлению государством — что думают россияне

Во избежание киберрисков: руководство по безопасной разработке ИИ

Источники
IZ.RU
Комментировать

Сейчас на главной