В современном мире искусственный интеллект занимает все более центральное место в нашей повседневной жизни и в тех сферах, где раньше доминировал исключительно человеческий фактор. Одной из таких областей являются чатботы — программы, обладающие способностями к диалогу и пониманию естественного языка. Они активно используются как в коммерческих целях, так и в информационном обслуживании. Однако с ростом влияния ИИ возникают и новые проблемы, связанные как с технической стороной вопроса, так и с этическими и политическими аспектами. В частности, недавно в центре внимания оказалась ситуация, когда чатботы якобы проявляют негативное отношение к бывшему президенту США Дональду Трампу.
Именно этот феномен привлек внимание генерального прокурора штата Миссури Андрю Бэйли, который инициировал официальное расследование, направленное на выяснение причин такого явления и возможной предвзятости алгоритмов. Андрю Бэйли выдвинул претензии крупным технологическим компаниям, таким как Google, Microsoft, OpenAI и Meta, утверждая, что их чатботы дают необъективные, искажённые ответы, особенно при запросах, связанных с оценкой политических фигур, в частности Дональда Трампа. В центре внимания оказался запрос, в котором пользователи просили чатботов ранжировать последних пяти президентов США от «лучшего» к «худшему» с точки зрения антисемитизма. Чатботы, согласно обвинениям прокуратуры, в большинстве случаев ставили Трампа на последнее место, что вызвало возмущение сторонников экс-президента и подозрения в цензуре. Любопытно отметить, что сам запрос носил субъективный характер, поскольку оценка «лучше» или «хуже» в таком контексте сильно зависит от интерпретации, а не является однозначным историческим фактом.
Искусственный интеллект основывается на анализе доступных данных и алгоритмических моделях, что иногда приводит к спорным результатам, особенно при обработке политически и социально окрашенных тем. Важным моментом является то, что один из чатботов — Microsoft Copilot — фактически отказался давать такой рейтинг, однако это не помешало прокурору обвинять компанию в предвзятости. Данный инцидент вскрыл дискуссию о границах ответственности крупных технологических компаний и особенности обработки ими информации в условиях, когда роль ИИ растет не только в обслуживании потребителей, но и в формировании общественного мнения. Одной из причин такого расследования стала попытка генерального прокурора использовать закон о «безопасной гавани» (Section 230 Коммуникационного декабристского акта США) для ограничения иммунитета компаний от ответственности за содержание, генерируемое их платформами. По сути, речь идёт о попытке заставить платформы отвечать за возможные обвинения в «цензуре» или политической предвзятости.
Стоит отметить, что расследование Бэйли напоминает аналогичные случаи, когда государственные чиновники пытались влиять на работу технологических гигантов, обвиняя их в политической ангажированности. Однако эксперты в области технологий и политики считают подобные претензии часто недоказанными и основанными на субъективном восприятии или даже на политических играх. Невозможно игнорировать и тот факт, что разработка и обучение ИИ-чатботов строится на огромных массивах данных, которые, в свою очередь, содержат множество разнообразных источников информации, в том числе и субъективных мнений. Поэтому алгоритм в ответ на вопрос о «ранжировании» президентов может отражать сложный комплекс информации из различных источников, иногда противоречивых между собой. Это делает определение истинной объективности ответов искусственного интеллекта проблематичным.
Кроме того, важно учитывать, что многие запросы к ИИ являются результатом намеренного эксперимента пользователей, которые ставят перед чатботами провокационные или сложные вопросы, чтобы проверить границы их ответов. В таких случаях ИИ пытается сбалансировать между предоставлением информации и соблюдением внутренних ограничений и правил безопасности, которые разработаны для предотвращения распространения вредоносных или ложных данных. Расследование генпрокурора Миссури также ставит в фокус внимание вопросы регулирования искусственного интеллекта и вызовы, с которыми сталкиваются законодательство и правоохранительные органы. Пока еще нет единой международной и даже национальной законодательной базы, регулирующей ответственность ИИ, что усложняет процесс урегулирования споров, возникающих в связи с использованием таких технологий. Некоторые же эксперты полагают, что подобные расследования могут иметь негативный эффект на инновации и развитие технологий, поскольку повышают риски для компаний и могут привести к чрезмерной осторожности в предоставлении функциональных опций ИИ, из-за страха обвинений в предвзятости или цензуре.
В целом ситуация с претензиями к ИИ-чатботам в контексте оценки Трампа иллюстрирует более широкую проблему — как в эпоху цифровых технологий и ИИ обеспечить баланс между автоматической обработкой данных, свободой выражения, политической нейтральностью и этичностью. Решение этих вопросов требует не только технических улучшений алгоритмов, но и более продуманного подхода к законодательству, прозрачности в работе компаний и развитию общественного диалога об искусственном интеллекте. Следующий этап развития индустрии ИИ обязательно будет связан с усилением внимания как к качеству и объективности данных, используемых для обучения моделей, так и к механизмам проверки и аудита, которые смогут минимизировать возможности для предвзятости и повышения доверия потребителей. При этом роль государства и регулирующих органов становится ключевой, чтобы выстроить четкую и справедливую систему контроля за использованием искусственного интеллекта в различных сферах жизни. Заключая, можно отметить, что расследование, начатое генеральным прокурором штата Миссури, является частью более широкой дискуссии о роли искусственного интеллекта в современном обществе и о том, как общество должно реагировать на новые вызовы, связанные с предвзятостью, этикой и ответственностью в условиях цифровой эпохи.
Эта тема продолжит вызывать интерес и споры, пока технологии и законодательство будут развиваться рядом, пытаясь найти оптимальный баланс в быстро меняющемся мире.