Новую систему распознавания голосовых фейков «Сипуха» создали учёные МИФИ

Разработка призвана разоблачать поддельные аудиозаписи

Сотрудники и студенты кафедры криптологии и кибербезопасности НИЯУ МИФИ создали систему «Сипуха», способную определять поддельные аудиозаписи (голосовые дипфейки). Проект, разработанный под руководством доцента Дмитрия Ефанова, победил в конкурсе «Новатор Москвы».

Система основана на нейросети, обученной на более чем 200 тыс. аудиозаписей, включая как реальные голоса, так и дипфейки, сгенерированные разными алгоритмами. Анализ проводится с помощью кепстральных коэффициентов — математических характеристик звука, вычисляемых для коротких фрагментов записи.

Разработка началась в 2022 году как научный проект при поддержке Фонда содействия инновациям. К 2024 году технология стала востребованной из-за роста числа мошенничеств с поддельными голосами. «Сипуха» вошла в число финалистов акселератора МИФИ и «Росатома».

Сейчас команда работает над облачным сервисом для интеграции системы в колл-центры и мессенджеры. Интерес к проекту проявили компании «ТБанк» и «Информзащита». В дальнейшем планируется создать лабораторию для постоянного улучшения алгоритмов. Разработчики рассчитывают на поддержку Правительства Москвы.

Читайте ещё материалы по теме:

ИИ-фейки не пройдут: сервис для маркировки созданного с помощью нейросетей контента создают в России

Нейросети показывают высокую уникальность: более 80% сгененированных текстов проходят проверку

Сделано ИИ: маркировку сгенерированных нейросетью продуктов предложили ввести в России

13:01 Новости
ИИ научили анализировать параметры мочеиспускания по видео со смартфона Разработка принадлежит учёным СПбГУ
06:31 Новости
ИИ в предвыборной агитации разрешили в России — но с важным условием Новые нормы вводят обязательное согласие на применение цифровых образов в избиратльной кампании
06:26 Новости
Одна игра на телефоне — минус миллионы рублей: как мошенники обманывают россиян Аферисты маскируют предложения под «госпрограммы» и убеждают переводить средства
29 апр 07:41 Новости
Эксперты предупреждают о риске утраты навыков самостоятельного мышления из-за ИИ Нейросети меняют образование и повышают требования к студентам
29 апр 07:05 Новости
Исследователи из «Т-Технологий» нашли способ сделать ИИ менее склонным к соглашательству Модели GPT, DeepSeek и Qwen ошибались в логических задачах в половине случаев, соглашаясь с неверной постановкой задачи

Сейчас на главной