Потенциальная опасность: в России официально классифицировали ИИ как источник киберугроз

Модели ИИ и датасеты теперь входят в перечень потенциально опасных технологий ФСТЭК

Федеральная служба по техническому и экспортному контролю (ФСТЭК) впервые включила в банк данных угроз информационной безопасности риски, связанные с искусственным интеллектом. Об этом сообщается на сайте регулятора 23 декабря 2025 года в Москве.

В перечне указаны специфические технологии ИИ, уязвимости которых могут использовать злоумышленники. Среди них модели машинного обучения, наборы обучающих данных (датасеты), RAG (Retrieval Augmented Generation — генерация ответа на основе внешних данных) и LoRA-адаптеры (Low-Rank Adaptation — адаптация больших моделей под конкретные задачи).

Кроме того, описаны возможные векторы атак: эксплуатация уязвимостей в фреймворках для ИИ, модификация системных промптов или конфигураций агентов, а также DoS-атаки, направленные на исчерпание квоты запросов.

Теперь организации, обязанные по законодательству защищать свои информационные системы, должны использовать банк ФСТЭК для разработки модели угроз. Разработчики программного обеспечения для госструктур и объектов критической инфраструктуры обязаны учитывать эти данные при создании и внедрении решений.

Статистики по использованию ИИ в кибератаках на российском рынке пока нет. По данным исследования SlashNext, с марта 2023 года, после выхода ChatGPT-4, количество фишинговых рассылок в мире выросло на 1265% за счет массового применения больших языковых моделей для генерации таких писем.

Читать материалы по теме:

Источники
«Ведомости»

Сейчас на главной