Компания «Лаборатория Касперского» представила руководство по безопасному созданию и внедрению систем на основе искусственного интеллекта. Его цель — помочь организациям избежать киберрисков, связанных с использованием технологий ИИ.

В первую очередь руководство предназначено для разработчиков, системных администраторов и DevOps-команд. В нём содержатся подробные практические рекомендации по предотвращению и устранению технических проблем и операционных рисков.

Это руководство, созданное при участии ведущих специалистов, содержит ценную информацию о ключевых аспектах разработки, внедрения и обеспечения безопасности систем искусственного интеллекта. В нём особое внимание уделяется защите моделей ИИ, в частности тех, которые используют системы сторонних производителей. Это позволяет избежать утечек данных и нанесения ущерба репутации.

Информирование о киберугрозах и обучение

Как отметили в «Лаборатории Касперского», руководители компаний должны быть в курсе потенциальных рисков, связанных с применением искусственного интеллекта, и регулярно организовывать специализированные тренинги для своих сотрудников.

Работники компании должны знать о методах, которые используют злоумышленники для атак на системы нейросетей. Кроме того, необходимо регулярно обновлять обучающие программы, чтобы информация была актуальной.

Моделирование угроз и оценка рисков

Моделирование потенциальных угроз позволяет заранее обнаруживать и минимизировать риски. Этот инструмент помогает выявлять и устранять уязвимости на ранних стадиях разработки искусственного интеллекта.

Специалисты «Лаборатории Касперского» советуют использовать уже существующие методики оценки рисков, например STRIDE и OWASP, чтобы выявить потенциальные угрозы, связанные с искусственным интеллектом. 

Безопасность облачной инфраструктуры

Искусственный интеллект часто используется в облачных средах, и это требует надёжных мер безопасности. Среди них — шифрование, разделение сети на сегменты и двухфакторная аутентификация.

«Лаборатория Касперского» рекомендует использовать принцип нулевого доверия, то есть не доверять по умолчанию ни пользователям, ни устройствам. Также важно применять защищённые каналы связи и регулярно обновлять инфраструктуру, чтобы не допустить взлома.

Защита цепочки поставок и данных

«Лаборатория Касперского» обращает внимание на потенциальные угрозы, которые могут возникнуть при использовании внешних компонентов и моделей искусственного интеллекта. Среди них — возможность утечки данных и их последующая продажа злоумышленниками.

Чтобы предотвратить подобные ситуации, необходимо строго следовать политике конфиденциальности и правилам безопасности для всех участников цепочки поставок.

Тестирования и проверки

Для обеспечения стабильной работы систем искусственного интеллекта необходимо регулярно проверять их работу. «Лаборатория Касперского» советует регулярно проверять эффективность работы моделей и собирать отчёты об уязвимостях. Такой подход позволит своевременно выявлять и устранять проблемы, связанные с изменениями в данных, которые используются в модели, а также предотвращать потенциальные атаки злоумышленников.

Чтобы минимизировать риски, важно следить за актуальностью наборов данных и проверять логику принятия решений.

Защита от угроз, специфичных для ИИ-моделей

Для обеспечения безопасности ИИ-систем необходимо принимать меры по защите от потенциальных угроз. В частности, следует предотвращать внедрение вредоносных запросов, отравление обучающих данных и другие подобные атаки.

Один из способов снизить риски — намеренно включать в процесс обучения нерелевантные данные, чтобы модель научилась распознавать их. Также рекомендуется применять системы обнаружения аномалий и методы дистилляции знаний. Эти инструменты обеспечивают эффективную обработку информации и помогают сделать её более устойчивой к возможным манипуляциям.

Регулярное обновление

Для обеспечения безопасности и эффективности систем искусственного интеллекта (ИИ) необходимо регулярно обновлять библиотеки и фреймворки. Это позволяет своевременно устранять выявленные уязвимости.

Для повышения надёжности систем рекомендуется участвовать в программах Bug Bounty, которые предполагают вознаграждение за обнаружение уязвимостей. Также важно регулярно обновлять облачные модели ИИ, учитывая их быстрое развитие.

Соответствие международным стандартам

Соблюдение международных стандартов, применение современных методов работы и проверка систем искусственного интеллекта на соответствие правовым нормам позволят компаниям обеспечить соблюдение этических принципов и защиту конфиденциальности данных. Это, в свою очередь, способствует укреплению доверия и повышению прозрачности бизнеса.

Растущее использование инструментов на основе искусственного интеллекта делает обеспечение безопасности уже не просто желательным, а обязательным условием. Мы принимаем участие в многостороннем диалоге в этой сфере, чтобы выработать стандарты, которые помогут безопасно внедрять инновации и защититься от новых киберугроз.
Юлия Шлычкова, вице-президент по связям с государственными органами «Лаборатории Касперского» 

Ранее компании «К2 Кибербезопасность» и «Лаборатория Касперского» провели исследование, чтобы выяснить, как киберугрозы влияют на российский бизнес. Оказалось, что 22% крупных компаний хотя бы раз сталкивались с критичными киберугрозами, которые привели к утечкам данных. А у 15% опрошенных компаний после подобных инцидентов возникли серьёзные проблемы.

Во втором квартале 2024 года в сфере промышленности по всему миру было зафиксировано 35 случаев кибератак, что на 16% больше, чем в предыдущем квартале. Как выяснилось, многие компании не успевают обновлять свои системы безопасности и сталкиваются с трудностями в выявлении киберугроз.

Читайте ещё по теме:

Хакеры не дремлют: обнаружен новый троян, который крадёт данные и скрытно майнит криптовалюту

Мошенники взялись за российских блогеров: они воруют их личные данные одним хитрым способом

Хакеры атакуют российские воинские части, предприятия ОПК и фонды поддержки военных

Комментировать

Сейчас на главной