В современном мире искусственный интеллект (ИИ) играет все более заметную роль в сфере новостей и информационных технологий. За последние годы генеративные ИИ-инструменты стали важным источником получения информации для миллионов пользователей по всему миру. Однако несмотря на все достижения в области технологий, свежий аудит, проведенный компанией NewsGuard в 2025 году, выявил тревожную тенденцию - распространение ложной информации через ИИ почти удвоилось всего за один год. Это вызывает серьезные вопросы о надежности и безопасности использования ИИ для получения новостей и актуальной информации. NewsGuard изучила десять ведущих генеративных ИИ-систем и их склонность повторять ложные утверждения, связанные с новостными темами.
По данным исследования, в августе 2025 года уровень ложной информации, повторяемой этими инструментами, достиг 35 процентов. В то же время в августе 2024 года этот показатель составлял всего 18 процентов. Такая динамика свидетельствует о том, что несмотря на технические улучшения и усилия по улучшению точности данных, ИИ продолжает допускать значительные ошибки в определении фактов. Одна из ключевых причин роста ложной информации заключается в изменении архитектуры и способов работы современных чат-ботов с подключением к интернету в режиме реального времени. Ранее часть ИИ-систем, сталкиваясь с дефицитом достоверных данных или спорными темами, просто отказывалась давать ответ, проявляя так называемый "не ответ".
В августе 2024 года этот показатель нахождения ответа был на уровне 31 процента, то есть почти треть запросов оставалась без ответа. К августу 2025 года этот показатель упал до нуля, теперь все запросы получают ответ, но цена этого - значительное повышение риска распространения ложных данных. Современные модели, стремясь быть более активными и оперативными в ответах, начали брать информацию из реального интернет-пространства, не всегда разделяя надежные и недостоверные источники. В результате они нередко ссылаются на некачественные сайты с низкой вовлеченностью, ведущие аккаунты в социальных сетях, а также целые фермы контента, созданные с помощью ИИ для продвигания определенных нарративов. Некоторые из этих источников специально используются вредоносными сетями, в частности российскими операторами дезинформации, чтобы искусственно создавать и распространять ложь.
Такой сдвиг в работе ИИ имеет глубокие последствия. Поскольку информационные системы стали более склонны выдавать ответ "в любом случае", даже если он неточный, пользовательский опыт катастрофически ухудшается. Помимо дезинформации, это также ведет к снижению доверия к новостным платформам и технологиям в целом. В условиях глобальной информационной войны, когда каждая сторона пытается транслировать свою версию событий, доверие к инструментам, которые должны обеспечивать объективные и достоверные данные, крайне важно. Эксперты и аналитики подчеркивают, что проблема не сводится просто к техническим недочетам алгоритмов.
Источники, из которых черпает информацию ИИ, являются ключевым фактором. В последние годы рост дезинформационных сетей неуклонно увеличивается, и они становятся все более изощренными, адаптируясь под новые технологии. Злоумышленники используют слаботехнические места в модели ИИ, чтобы распространять целенаправленные фейки и манипулятивные нарративы, подрывая общественное доверие и дестабилизируя демократические процессы. Компания NewsGuard, обладающая глобальной репутацией в области оценки надежности источников информации, разрабатывает различные решения в борьбе с дезинформацией. Среди них - сервисы мониторинга ложных утверждений, рейтинги надежности новостных каналов, а также специализированные инструменты для анализа и проверки контента, использующегося ИИ в рекламе и новостях.
Такие операции помогают выявлять и помечать недостоверный материал до его широкого распространения. Важно отметить, что рост ложной информации через ИИ отражает сложный компромисс между быстротой и точностью информации. С одной стороны, пользователи требуют оперативных ответов и доступа к свежим данным. С другой - недостаток фильтров и эффективных механизмов проверки приводят к тому, что качество информации страдает. По мнению экспертов, для того чтобы выйти из этого порочного круга, необходимо комплексное решение, включающее улучшенные алгоритмы, прозрачность источников и активное участие человека в процессе проверки данных.
Важным направлением является повышение медийной грамотности среди широкой аудитории. Понимание, что ИИ - это инструмент, способный ошибаться, и что не вся информация из интернета сама по себе является истинной, поможет пользователям более критично относиться к получаемому контенту. Совместные усилия технологических компаний, журналистов, исследователей и образовательных институтов необходимы для выработки стандартов и правил, направленных на снижение уровня ложных новостей. В заключение стоит подчеркнуть, что ситуация с ложной информацией в генеративных ИИ-системах является отражением более широкой проблемы современного информационного пространства. Многообразие каналов, развитие цифровых технологий и политические манипуляции создали среду, в которой борьба за правду стала сложным и динамичным процессом.
Успех в снижении уровня дезинформации во многом зависит от нашей способности к коллективным действиям и грамотному применению современных технологий. Прогресс в обработке и проверке информации с помощью ИИ обязан идти рука об руку с пониманием его ограничений и вызовов. Только так можно добиться того, чтобы искусственный интеллект действительно стал надежным помощником в получении качественных и достоверных новостей, а не очередным источником путаницы и манипуляций. .