18+
10 Сентября 2025

Нейросети стали чаще выдавать фейки

Нейросети стали чаще выдавать фейки

Доля ошибочных утверждений чат-ботов за последний год выросла в два раза (с 18% до 35%).

Максимальное число ошибок (до 57%) у Pi, чат-бот  Perplexity показал рост с 0% до 47%, а у ChatGPT доля ошибок выросла с 33% до 40%, пишут «Известия» со ссылкой на исследование компании NewsGuard.

В числе тестируемых нейросетей также Grok — рост ошибок с 13% до 33%, Gemini — 17%, Claude — 10%.

По мнению экспертов, снижение качества ответов связано со следующими причинами. Сегодня нейросети отвечают даже на те вопросы, по которым у них нет достаточной верификации информации. Годом ранее боты в 31% случаев ответов не давали.

Еще одна причина — подключение встроенного веб-поиска. «Наличие ссылок не гарантирует достоверности: модели нередко цитируют сайты-двойники или псевдо-СМИ, принимая их за авторитетные издания, — рассказывает директор направления Data Fusion Лиги цифровой экономики Александр Кобозев.

Кроме того, на снижение качества влияют целенаправленные кампании по «дрессировке» ИИ (LLM grooming) — массовая публикация недобросовестными ресурсами недостоверных сведений, ориентированных на поисковых роботов, для увеличения вероятности включения ложных данных в ответы моделей.

Еще одна уязвимость — многоязычные режимы, в них зафиксировано более 50% ошибок и отказов.

Ведущий эксперт по сетевым угрозам и web-разработчик компании «Код Безопасности» Константин Горбунов отмечает, на достоверность оказывает влияние число контента, создаваемого генеративными нейросетями. «Нейросети способны генерировать материал практически на любую тему, а внедрение веб-поиска в чат-боты и сокращение отказов от ответов означает, что модели дообучаются на основе собственной выдачи. Этот процесс можно сравнить с игрой в «испорченный телефон», — добавляет эксперт.

«Снизить процент фейковых ответов можно, если вернуть более строгие фильтры отказа от ответов и внедрить инструменты проверки источников. В том числе нужно сопоставление с базами ложных нарративов», — полагает Александр Кобозев.

Также в числе решений борьбы с ошибками: маркировка уровня достоверности ответа в частности и сгенерированного контента, вообще, отметки об источниках информации и проверка сгенерированного текста вторым слоем ИИ, обученным на критическом анализе данных.

изображение от freepik