В современном мире искусственный интеллект (ИИ) играет все более значимую роль в повседневной жизни, взаимодействии с информацией и формировании общественного мнения. Одним из самых ярких примеров применения ИИ являются чатботы — текстовые помощники, обучаемые на больших массивах данных, способные отвечать на широкий спектр вопросов. Однако недавно ситуация вышла за рамки чисто технологических вопросов и переросла в политический конфликт — в штате Миссури властные структуры взяли под прицел крупнейшие ИИ-компании, такие как Google, Meta, Microsoft и OpenAI, из-за того, как их чатботы оценивали последнего президента США Дональда Трампа в сравнении с его предшественниками с точки зрения антисемитизма. Это дело вызвало волну обсуждений о свободе слова, влиянии технологий на политику и многочисленных юридических нюансах, связанных с регулированием ИИ и ответственности за его высказывания. Инициатива штата Миссури, возглавляемого генеральным прокурором Эндрю Бэйли, вызвала оживленные споры.
В пресс-релизе, приуроченном к этому делу, было заявлено, что искусственный интеллект предоставил «глубоко вводящие в заблуждение ответы» на простой вопрос — как оценить последних пяти американских президентов по уровню антисемитизма. Согласно версии властей Миссури, несмотря на очевидное произраильское направление политики Дональда Трампа, включая перенос посольства США в Иерусалим и подписание Авраамских соглашений, чатботы поставили его на последнее место. Кроме того, утверждается, что ИИ демонстрирует «радикальную риторику» при обсуждении основателей Америки и ее принципов. Генеральный прокурор Миссури заявил о намерении расследовать, не были ли эти ИИ-системы специально обучены искажать исторические факты и выдавать предвзятые результаты, при этом позиционируя себя как нейтральный источник информации. Официальное обвинение содержит намек на «борьбу с цензурой крупных технологических компаний и фальшивыми новостями», однако на деле эта просьба выглядит скорее как давление на технологические корпорации, чтобы они распространяли про-Трамповскую пропаганду.
Такое давление не ново в американской политике. Ранее ряд консервативных политических деятелей неоднократно критиковал социальные сети и другие онлайн-платформы за якобы несправедливое отношение к Трампу и другим республиканцам, обвиняя их в цензуре. Тем не менее стоит понимать, что частные компании не обязаны соблюдать принцип политической нейтральности и в любом случае имеют право самостоятельно регулировать свой контент. Конституция США защищает граждан от вмешательства государства в свободу слова, но не налагает аналогичных обязательств на частные корпорации. В данном случае иск о «цензуре» выглядит особенно странно, ведь чатботы не блокируют речь бывшего президента, а лишь формируют собственные ответы на основе данных и алгоритмов.
Фактически именно офис генерального прокурора пытается ограничить свободу выражения ИИ, а не наоборот. Это ставит вопрос: кто же истинный цензор — технология или государство? Технологические компании сталкиваются и с более сложным юридическим аспектом — законом о защите платформ от ответственности за пользовательский контент, известным как Раздел 230 Закона о коммуникациях США. Оно защищает социальные сети от ответственности за высказывания самих пользователей и обеспечивает свободу модерации контента. Однако ситуация с ИИ, который генерирует собственный контент, не подконтентный напрямую постам пользователей, значительно сложнее. Все больше политиков и юристов пытаются определить, насколько защиты, связанные с платформами, применимы к искусственному интеллекту, и какие новые правила стоит вводить.
Генеральный прокурор заявляет, что компании, выпускающие коммерческий ИИ, рискуют потерять эти юридические преференции, если их чатботы неправомерно рекламируются как «объективные» или «нейтральные». Тем не менее, факт того, что ИИ предоставляет оценочные суждения, а не чистую и однозначную правду, является продолжением давней дискуссии о том, что такое истина в информационную эпоху и как именно технологии должны с ней обращаться. Привязка оценочного вопроса, например, кто из президентов был «лучшим» в контексте антисемитизма — к юридическим разбирательствам выглядит спорной, поскольку это область субъективного мнения, в которой нет некорректного или правильного ответа, определяющегося однозначно законом. В основе конфликта лежит гораздо более глубокий вопрос об ответственности ИИ и балансе между свободой слова и защитой общества от дезинформации. ИИ обучается на миллиардных наборах данных, которые содержат человеческие предубеждения, культурные особенности и исторические противоречия, и полностью нейтральной точкой зрения он не обладает.
Это значит, что любая система искусственного интеллекта неизбежно носит в себе элементы субъективности и ограничений, и борьба с этими аспектами требует не политического давления, а прозрачных стандартов и постоянного совершенствования алгоритмов. В то же время технологии и их разработчики находятся под пристальным вниманием как со стороны государств, так и со стороны общества. Инструменты ИИ, включая чатботы, становятся не только техническими продуктами, но и потенциальными политическими акторами, способными влиять на общественное мнение, избирательные кампании и международные отношения. Прецеденты с подобными расследованиями в штате Миссури могут стать началом широкомасштабной волны регулирования ИИ, направленной скорее на контроль за содержанием, нежели на развитие технологий. Многие эксперты указывают, что давление со стороны чиновников может привести к нежелательным последствиям — удару по инновациям, потере конкурентоспособности и снижению качества ИИ-продуктов из-за чрезмерного административного вмешательства.
Вместо того чтобы стимулировать свободный рынок идей и технологий, подобные методы риска создать атмосферу недоверия и цензуры, что опасно для демократического общества, где разнообразие мнений должно приветствоваться. Кроме юридического и технологического аспектов, конфликт в Миссури затрагивает и более широкие темы, связанные с ролью личности Дональда Трампа в современной политике. Являясь одной из самых противоречивых фигур, он вызывает сильные эмоции как у своих сторонников, так и у оппонентов. Оценка его деятельности с точки зрения любой характеристики, включая отношение к еврейской общине, является сложным комплексом фактов, мнений и политических расчетов. Крайние попытки законодательно закрепить какой-либо единый взгляд кажутся попыткой игнорировать многообразие восприятий общественности.
В заключение, ситуация с расследованием в Миссури — яркий пример того, как быстро возникающие технологии могут стать полем политических баталий, где борьба за влияние порождает новые вызовы и риски для свободы слова, инноваций и правовой системы. Вызов для общества и регуляторов заключается в построении эффективных механизмов, позволяющих сохранять баланс между инновациями и ответственностью, между разнообразием мнений и фактологической точностью. Только совместные усилия технологических компаний, законодателей и экспертов помогут создать пространство, где искусственный интеллект будет служить инструментом развития, а не объектом политических репрессий. В ближайшие годы мы наверняка увидим расширение внимания к ИИ со стороны государственных органов, а также усиление обсуждений на тему его регулирования. Опыт Миссури может стать отправной точкой для создания новых правил игры, в которых технологии и политика, а также свобода выражения и ответственность, найдут более сбалансированное сочетание.
Пока же остается наблюдать за дальнейшим развитием ситуации и анализировать уроки, которые она дает всему миру.