Во имя безопасности: инструменты для контроля галлюцинаций ИИ создадут в МГУ

Чат-боты могут выдумывать факты, отвечая на вопросы пользователей

Исследовательский центр искусственного интеллекта МГУ им. Ломоносова, ставший одним из победителей третьей волны конкурса, разрабатывает инновационное решение для борьбы с галлюцинациями больших языковых моделей. Это позволит безопасно использовать ИИ в бизнесе, банковской сфере и государственных услугах. Об этом заявил директор центра Григорий Боков.

Галлюцинации чат-ботов — это способность языковых моделей придумывать факты при ответах на вопросы пользователей. В координационном центре правительства России объявили победителей третьей волны отбора исследовательских центров в сфере ИИ. Мероприятие организовал вице-премьер Дмитрий Чернышенко. В конкурсе участвовали 15 вузов, и теперь выбранные центры получат гранты на развитие.

Работа подразделения МГУ была представлена на этом мероприятии.

[Вместе с индустриальными партнерами будет реализован проект по обеспечению] устранения [так называемых] галлюцинаций [ИИ-систем] для повышения безопасности применения больших языковых моделей в бизнесе, банковской сфере и госуслугах.
Григорий Боков

Ранее www1.ru сообщал о типичных ошибках, которые пользователи совершают при работе с искусственным интеллектом. Нейросети часто считают просто поисковиками, не замечая их способности генерировать сложные и контекстуальные ответы. Чтобы добиться точности, важно грамотно сформулировать запрос.

Читайте ещё по теме:

Каждый второй россиянин использует нейросети

Сделано ИИ: маркировку сгенерированных нейросетью продуктов предложили ввести в России

Взломы ИИ-аккаунтов в России выросли на 90% — пользователи теряют контроль над личными данными

Дешёвая психологическая помощь и круглосуточные консультации: чат-боты помогут россиянам справиться с тревогой