В Госдуме обсуждают законопроект «О регулировании систем искусственного интеллекта (ИИ) в России», который предусматривает запрет систем с «неприемлемым уровнем риска» и введение ответственности разработчиков за вред, нанесённый нейросетями.

Законопроект разработан для реализации «Национальной стратегии развития искусственного интеллекта до 2030 года», утверждённой в феврале 2024 года.
Андрей Свинцов предлагает начать регулирование ИИ с обязательной маркировки контента.
Контроль за ИИ-контентом — неизбежная мера, требующая оперативного обсуждения.
Кроме обязательной маркировки ИИ-систем, проект также включает классификацию нейронок по уровням риска, обязательную государственную сертификацию, введение ответственности за причинение вреда жизни, здоровью или имуществу, определение авторских прав.
Специалисты из области выражают обеспокоенность тем, что поспешное и строгое регулирование может негативно повлиять на развитие ключевой технологической сферы, ограничить возможности компаний и пользователей, а также привести к технологическому регрессу.
Читайте ещё материалы по теме:
Нейросети московских больниц теперь могут определять патологии по 39 направлениям
Пара минут вместо полугода: фреймворк PyFitIt учёных ЮФУ ускоряет расшифровку рентгеновских спектров
История редактирования комментария