Исследовательский центр искусственного интеллекта МГУ им. Ломоносова, ставший одним из победителей третьей волны конкурса, разрабатывает инновационное решение для борьбы с галлюцинациями больших языковых моделей. Это позволит безопасно использовать ИИ в бизнесе, банковской сфере и государственных услугах. Об этом заявил директор центра Григорий Боков.
Галлюцинации чат-ботов — это способность языковых моделей придумывать факты при ответах на вопросы пользователей. В координационном центре правительства России объявили победителей третьей волны отбора исследовательских центров в сфере ИИ. Мероприятие организовал вице-премьер Дмитрий Чернышенко. В конкурсе участвовали 15 вузов, и теперь выбранные центры получат гранты на развитие.
Работа подразделения МГУ была представлена на этом мероприятии.
[Вместе с индустриальными партнерами будет реализован проект по обеспечению] устранения [так называемых] галлюцинаций [ИИ-систем] для повышения безопасности применения больших языковых моделей в бизнесе, банковской сфере и госуслугах.
Ранее www1.ru сообщал о типичных ошибках, которые пользователи совершают при работе с искусственным интеллектом. Нейросети часто считают просто поисковиками, не замечая их способности генерировать сложные и контекстуальные ответы. Чтобы добиться точности, важно грамотно сформулировать запрос.
Читайте ещё по теме:
Каждый второй россиянин использует нейросети
Сделано ИИ: маркировку сгенерированных нейросетью продуктов предложили ввести в России
Взломы ИИ-аккаунтов в России выросли на 90% — пользователи теряют контроль над личными данными