Дипфейк может разойтись по соцсетям быстрее, чем человек или компания успеют доказать, что на видео, фото или в аудио всё сфальсифицировано. Поэтому Главный радиочастотный центр Роскомнадзора предложил платформам самим выявлять подозрительные материалы и ограничивать их распространение ещё до проверки сведений у тех, кто в них упоминается. Инициативу озвучили на форуме, посвящённом технологиям доверенного искусственного интеллекта.
В Роскомнадзоре считают, что для регулирования дипфейков нужны понятные механизмы быстрого реагирования. Смысл в том, чтобы соцсети могли временно останавливать распространение подозрительного контента, пока его достоверность не подтверждена.
Среди дополнительных мер также обсуждаются маркировка сгенерированных материалов и создание базы технологических угроз. При этом участники рынка обращают внимание, что у соцсетей пока нет надёжного инструмента, который безошибочно определял бы весь ИИ-контент.
По мнению представителей отрасли, современные генеративные модели быстро обходят детекторы. Кроме того, ошибочные блокировки могут приводить к конфликтам с пользователями и брендами.
Эксперты считают, что наиболее реалистичным вариантом может стать гибридная схема. Сначала автоматические фильтры будут отсеивать подозрительные материалы, а затем самые спорные случаи придётся проверять вручную.
По оценке экспертов, полностью автоматизировать такую систему будет сложно. Но частично запустить её на базе уже существующих решений возможно.