Ведущие чат-боты стали давать в два раза больше ложной информации. Как уточнили эксперты, доля таких ответов выросла с 18 до 35%, несмотря на технологический прогресс и интеграцию онлайн-поиска. Почему искусственный интеллект стал чаще ошибаться, чем это опасно и как бороться с этой проблемой — в материале «Известий».
Что известно о растущей лжи от нейросетей?
О росте массива недостоверной информации среди ведущих чат-ботов — в том числе у ChatGPT и Perplexity — предупредили исследователи из компании NewsGuard (США). По данным экспертов, несмотря на технологический прогресс и интеграцию онлайн-поиска, доля ложных утверждений в ответах выросла с 18 до 35%.
Всего было протестировано 10 популярных ИИ-моделей, каждой задали по 10 десять заведомо ложных утверждений, связанных с бизнесом, брендами и политическими событиями. При этом все вопросы делились на три категории: предполагающие истинность утверждения, нейтральные и провокационные. Эксперты поставили себе цель определить, как нейросети справляются с фактчекингом и насколько они устойчивы к дезинформации.
Рост ложных ответов в результатах оказался таким:
- Чат-бот Pi (стартап Inflection) — до 57%;
- Perplexity (компания Perplexity AI) — рост с 0 до 47%;
- ChatGPT (компания Open AI) — рост с 33 до 40%;
- Grok (компания xAI) — рост с 13 до 33%;
- Gemini (компания Google) — 17%.
- Claude (компания Anthropic) — 10%.
Почему чат-боты стали чаще давать неверные ответы?
По мнению аналитиков NewsGuard, на ухудшение статистики могло повлиять то, что сегодня нейросети не отказываются отвечать на любые запросы, даже без достаточной верификации информации, хотя еще в 2024 году они воздерживались от 31% ответов.
С этим предположением согласен и директор направления Data Fusion Лиги цифровой экономики Александр Кобозев.
— Дополнительным фактором стало подключение встроенного веб-поиска без достаточной проверки качества источников. Наличие ссылок не гарантирует достоверности: модели нередко цитируют сайты-двойники или псевдо-СМИ, принимая их за авторитетные издания, — рассказывает специалист.
Ситуацию усугубляют целенаправленные кампании по «дрессировке» ИИ — так называемый LLM grooming. Суть этого явления в том, что некоторые недобросовестные ресурсы массово публикуют материалы, ориентированные на поисковых роботов, чтобы увеличить вероятность включения ложных данных в ответы моделей.
ChatGPT уже заменяет подрядчиков. Научись управлять им, автоматизируй свои задачи.
Отдельная уязвимость проявляется в многоязычных режимах: в аудите NewsGuard наибольший уровень ошибок и отказов зафиксирован в русскоязычных и китайских запросах — свыше 50% в совокупности.
Важно и то, что современный контент всё активнее создается с помощью ИИ — дипфейки, статьи, посты для соцсетей и мессенджеров, дополняет ведущий эксперт по сетевым угрозам и web-разработчик компании «Код Безопасности» Константин Горбунов.
— Нейросети способны генерировать материал практически на любую тему, а внедрение веб-поиска в чат-боты и сокращение отказов от ответов означает, что модели дообучаются на основе собственной выдачи. Этот процесс можно сравнить с игрой в «испорченный телефон», — объясняет специалист.
Техническая природа проблемы кроется в архитектуре больших языковых моделей, которые предсказывают следующее слово на основе статистических закономерностей, а не реального понимания контекста, подчеркивает директор по ИИ «Группы Астра» Станислав Ежов.
Как будет меняться ситуация с фейковыми ответами от ИИ?
Проблема может сохраниться надолго, поскольку имеет комплексный характер, говорит в беседе с «Известиями» Al-консультант и специалист Аналитического центра кибербезопасности компании «Газинформсервис» Татьяна Буторина.
— Многие разработчики торопятся создать нейросетевые модели, обучают их на не слишком большом объеме данных, в которых есть как достоверная, так и ложная информация. Всё это отражается на результатах, — объясняет специалист.
Кроме того, по словам Татьяны Буториной, чем более узкой и новой является тема, которую запрашивает пользователь, тем меньше данных для ответа есть у нейросетей, что повышает риск «придумывания» ею ответов. Проблема усугубляется, если пользователь не формулирует полный и грамотный промпт, употребляет сленг и прочий «словесный шум», мешая нейросети понять запрос и сформировать релевантный ответ.
В то же время эксперт по кибербезопасности Angara Security Никита Новиков считает, что в долгосрочной перспективе рынок заставит корпорации улучшать качество нейросетей: те не могут себе позволить, чтобы их ИИ систематически ошибался в трети ответов. Появятся более жесткие фильтры, фактчек-слои, системы доверенных источников и другое.
— Снизить процент фейковых ответов можно, если вернуть более строгие фильтры отказа от ответов и внедрить инструменты проверки источников. В том числе нужно сопоставление с базами ложных нарративов, — соглашается Александр Кобозев.
Пользователи ожидают от нейросетей ответы на любые запросы, а это стимулирует разработчиков снижать осторожность моделей, дополняет Станислав Ежов. Однако уже ведется активная работа по решению проблемы. В частности, созданы российские методы выявления галлюцинаций с точностью на 30% выше существующих решений.
Как защититься от ложных ответов нейросетей?
Большинство пользователей прибегает к помощи ИИ, если сами не могут проверить правильность ответа, говорит управляющий партнер коммуникационного агентства «Со-общение» Никита Степнов. А значит, ложные ответы могут приводить к самым разным негативным последствиям — от запуска кода, уничтожающего данные, до приема медикаментов, создающих реальные риски для здоровья.
— Чтобы защититься от подобных угроз, пользователям всегда следует критически относиться к ответам ИИ и проверять их достоверность. Важно четко понимать, в каких сферах применение искусственного интеллекта допустимо, а в каких — нет, — отмечает Константин Горбунов.
Категорически не следует полагаться на ИИ-советы в вопросах здоровья, приема лекарств, финансов или юриспруденции: подобные вопросы необходимо адресовать только профильным специалистам. Кроме того, ни при каких условиях не стоит делиться с чат-ботом конфиденциальной информацией.
С технической точки зрения выходом из ситуации может быть разработка доверенных ИИ-систем, а также комбинация нейросетей с системами верификации фактов, дополняет Никита Новиков. На практике это может быть реализовано следующим образом: нейросеть генерирует текст, но финальную проверку делают специализированные модули или второй слой ИИ, обученный именно на критическом анализе данных.
— Второе направление — маркировать уровень уверенности модели: не выдавать сомнительное как факт, а показывать пользователю, что это лишь предположение. И третье — добавить прозрачности источникам: если ответ собран из конкретных ссылок, это позволяет читателю самому оценить достоверность фактов, — отмечает эксперт.
Еще одним решением может стать маркировка сгенерированного ИИ-контента. Это позволит либо исключить такие данные из обучающих наборов, либо понизить к ним уровень доверия при обучении моделей, заключает Константин Горбунов.