10.09.2025
Новости
Над пропастью из лжи: нейросети стали чаще давать фейковые ответы
Ведущие чат-боты стали давать в два раза больше ложной информации. Как уточнили эксперты, доля таких ответов выросла с 18 до 35%, несмотря на технологический прогресс и интеграцию онлайн-поиска. Почему искусственный интеллект стал чаще ошибаться, чем это опасно и как бороться с этой проблемой — в материале «Известий».
Что известно о растущей лжи от нейросетей?
О росте массива недостоверной информации среди ведущих чат-ботов — в том числе у ChatGPT и Perplexity — предупредили исследователи из компании NewsGuard (США). По данным экспертов, несмотря на технологический прогресс и интеграцию онлайн-поиска, доля ложных утверждений в ответах выросла с 18 до 35%.
Всего было протестировано 10 популярных ИИ-моделей, каждой задали по 10 десять заведомо ложных утверждений, связанных с бизнесом, брендами и политическими событиями. При этом все вопросы делились на три категории: предполагающие истинность утверждения, нейтральные и провокационные. Эксперты поставили себе цель определить, как нейросети справляются с фактчекингом и насколько они устойчивы к дезинформации.
Рост ложных ответов в результатах оказался таким:
Чат-бот Pi (стартап Inflection) — до 57%;
Perplexity (компания Perplexity AI) — рост с 0 до 47%;
ChatGPT (компания Open AI) — рост с 33 до 40%;
Grok (компания xAI) — рост с 13 до 33%;
Gemini (компания Google) — 17%.
Claude (компания Anthropic) — 10%.
Почему чат-боты стали чаще давать неверные ответы?
По мнению аналитиков NewsGuard, на ухудшение статистики могло повлиять то, что сегодня нейросети не отказываются отвечать на любые запросы, даже без достаточной верификации информации, хотя еще в 2024 году они воздерживались от 31% ответов.
С этим предположением согласен и директор направления Data Fusion Лиги цифровой экономики Александр Кобозев.
— Дополнительным фактором стало подключение встроенного веб-поиска без достаточной проверки качества источников. Наличие ссылок не гарантирует достоверности: модели нередко цитируют сайты-двойники или псевдо-СМИ, принимая их за авторитетные издания, — рассказывает специалист.
Ситуацию усугубляют целенаправленные кампании по «дрессировке» ИИ — так называемый LLM grooming. Суть этого явления в том, что некоторые недобросовестные ресурсы массово публикуют материалы, ориентированные на поисковых роботов, чтобы увеличить вероятность включения ложных данных в ответы моделей.
Отдельная уязвимость проявляется в многоязычных режимах: в аудите NewsGuard наибольший уровень ошибок и отказов зафиксирован в русскоязычных и китайских запросах — свыше 50% в совокупности.
Важно и то, что современный контент всё активнее создается с помощью ИИ — дипфейки, статьи, посты для соцсетей и мессенджеров, дополняет ведущий эксперт по сетевым угрозам и web-разработчик компании «Код Безопасности» Константин Горбунов.
— Нейросети способны генерировать материал практически на любую тему, а внедрение веб-поиска в чат-боты и сокращение отказов от ответов означает, что модели дообучаются на основе собственной выдачи. Этот процесс можно сравнить с игрой в «испорченный телефон», — объясняет специалист.
Техническая природа проблемы кроется в архитектуре больших языковых моделей, которые предсказывают следующее слово на основе статистических закономерностей, а не реального понимания контекста, подчеркивает директор по ИИ «Группы Астра» Станислав Ежов.
Полный текст читайте на iz.ru
Текст: Дмитрий Булгаков
Фото: ИЗВЕСТИЯ/Сергей Лантюхов
Что известно о растущей лжи от нейросетей?
О росте массива недостоверной информации среди ведущих чат-ботов — в том числе у ChatGPT и Perplexity — предупредили исследователи из компании NewsGuard (США). По данным экспертов, несмотря на технологический прогресс и интеграцию онлайн-поиска, доля ложных утверждений в ответах выросла с 18 до 35%.
Всего было протестировано 10 популярных ИИ-моделей, каждой задали по 10 десять заведомо ложных утверждений, связанных с бизнесом, брендами и политическими событиями. При этом все вопросы делились на три категории: предполагающие истинность утверждения, нейтральные и провокационные. Эксперты поставили себе цель определить, как нейросети справляются с фактчекингом и насколько они устойчивы к дезинформации.
Рост ложных ответов в результатах оказался таким:
Чат-бот Pi (стартап Inflection) — до 57%;
Perplexity (компания Perplexity AI) — рост с 0 до 47%;
ChatGPT (компания Open AI) — рост с 33 до 40%;
Grok (компания xAI) — рост с 13 до 33%;
Gemini (компания Google) — 17%.
Claude (компания Anthropic) — 10%.
Почему чат-боты стали чаще давать неверные ответы?
По мнению аналитиков NewsGuard, на ухудшение статистики могло повлиять то, что сегодня нейросети не отказываются отвечать на любые запросы, даже без достаточной верификации информации, хотя еще в 2024 году они воздерживались от 31% ответов.
С этим предположением согласен и директор направления Data Fusion Лиги цифровой экономики Александр Кобозев.
— Дополнительным фактором стало подключение встроенного веб-поиска без достаточной проверки качества источников. Наличие ссылок не гарантирует достоверности: модели нередко цитируют сайты-двойники или псевдо-СМИ, принимая их за авторитетные издания, — рассказывает специалист.
Ситуацию усугубляют целенаправленные кампании по «дрессировке» ИИ — так называемый LLM grooming. Суть этого явления в том, что некоторые недобросовестные ресурсы массово публикуют материалы, ориентированные на поисковых роботов, чтобы увеличить вероятность включения ложных данных в ответы моделей.
Отдельная уязвимость проявляется в многоязычных режимах: в аудите NewsGuard наибольший уровень ошибок и отказов зафиксирован в русскоязычных и китайских запросах — свыше 50% в совокупности.
Важно и то, что современный контент всё активнее создается с помощью ИИ — дипфейки, статьи, посты для соцсетей и мессенджеров, дополняет ведущий эксперт по сетевым угрозам и web-разработчик компании «Код Безопасности» Константин Горбунов.
— Нейросети способны генерировать материал практически на любую тему, а внедрение веб-поиска в чат-боты и сокращение отказов от ответов означает, что модели дообучаются на основе собственной выдачи. Этот процесс можно сравнить с игрой в «испорченный телефон», — объясняет специалист.
Техническая природа проблемы кроется в архитектуре больших языковых моделей, которые предсказывают следующее слово на основе статистических закономерностей, а не реального понимания контекста, подчеркивает директор по ИИ «Группы Астра» Станислав Ежов.
Полный текст читайте на iz.ru
Текст: Дмитрий Булгаков
Фото: ИЗВЕСТИЯ/Сергей Лантюхов