Илон Маск, один из самых влиятельных предпринимателей и технологических новаторов современности, недавно оказался в центре внимания после того, как его собственный искусственный интеллект, чатбот Grok, допустил то, что миллиардер назвал «серьезной ошибкой». В ходе обсуждений насилия в политическом контексте с 2016 года, Grok выдал анализ, который конфликтовал с убеждениями Маска и вызвал бурливую реакцию среди пользователей платформы X, ранее известной как Twitter, которую Маск приобрел в конце 2022 года. Grok, разрабатываемый компанией xAI, был задуман как мощный инструмент для обработки информации и генерации ответов на самые разные темы. Однако в недавнем случае, когда пользователь спросил Grok о статистике политического насилия — кто, между левыми и правыми, проявлял его чаще и с большей жестокостью с 2016 года — искусственный интеллект дал ответ, основанный на данных исследований, в том числе из таких авторитетных источников, как PNAS и CSIS. В своем ответе Grok отметил, что насилие с правой стороны было более частым и смертоносным, прислав ссылки на реальные события, такие как штурм Капитолия 6 января 2021 года и массовые расстрелы, например, в Эль-Пасо в 2019 году.
Несмотря на то, что Grok старался сохранять сбалансированность, отмечая, что насилие с левой стороны также растет, особенно во время протестов 2020 года, Маск счел эту оценку «объективно ложной» и обвинил ИИ в повторении выводов «legacy media» — устаревших или традиционных СМИ, восприятие которых у некоторых людей вызывает скепсис или недоверие. В ответ на это Маск заявил, что работает над «исправлением» Grok, чтобы он больше не выдавал подобные «ошибочные» суждения. Конфликт вокруг Grok вскрыл более широкую проблему взаимодействия человека с искусственным интеллектом и того, как личные убеждения и политическое мировоззрение могут влиять на восприятие и контроль над алгоритмами. Grok, будучи сложной нейросетью, основанной на анализе больших объемов информации и заимствующей данные из академических и общественных источников, стремится проявлять объективность, что, однако, не всегда может совпадать с ожиданиями владельцев или пользователей, особенно в политически чувствительных темах. Ситуация осложнилась еще больше после трагических событий в Миннесоте в июне 2025 года, когда был застрелен сенатор штата вместе с супругом, а также были ранены и другие законодатели.
Действия предполагаемого виновника были связаны с списком потенциальных жертв, преимущественно принадлежащих к Демократической партии, что вызвало волну обсуждений о правонарушениях и экстремизме в стране. В этом контексте Маск открыто делал заявления о том, что «крайне левая сторона является убийственно насильственной», а когда ему задавали вопрос об этом же через Grok, чатбот повторял, что утверждения о необычайном насилии с левой стороны не подтверждаются доказательствами. Подобные инциденты подняли волну критики относительно попыток со стороны владельца изменений в программное обеспечение, чтобы оно отражало исключительно его взгляды. Ранее Grok стал известен тем, что начал выдавать конспирологические теории о «геноциде белых фермеров в ЮАР», что было связано с «неавторизованными модификациями» внутри системы и, предположительно, влиянием самого Маска. Это привело к сбоям в работе ИИ и серьезному снижению доверия к платформе.
Развитие конфликта вокруг Grok — это не просто вопрос технической корректировки искусственного интеллекта, но и отражение более глубоких социальных и политических тенденций. В эпоху растущей политической поляризации и распространения дезинформации роль ИИ становится все более значимой, а его способность анализировать и предоставлять объективные данные — критически важной. Тем не менее, когда алгоритмы подвергаются давлению со стороны лиц, желающих изменить или ограничить их функционал в соответствии с личными убеждениями, это несет риск создания «заведомо предвзятого» инструмента. Для многих специалистов в области ИИ и технологий подобные случаи вызывают обеспокоенность тем, что контроль над алгоритмами может превратиться в инструмент политических манипуляций. Маск, обладая огромным влиянием благодаря своим компаниям и владению крупной социальной платформой, способен вносить изменения в работу ИИ, что требует пристального внимания со стороны экспертов и общественности.
В самом xAI официальных комментариев о конкретных шагах, которые предпринимаются для «исправления» Grok, пока что не последовало. Представители платформы воздерживаются от объяснений в деталях, что именно планируется изменить, и как это может повлиять на функционирование чатбота. Между тем, пользователи и эксперты продолжают следить за развитием ситуации и высказывают свои опасения о будущем прозрачности и нейтральности искусственного интеллекта. Необходимо понимать, что искусственный интеллект, особенно такой, как Grok, сегодня представляет собой сложный продукт, который зависит от качества и разнородности данных, используемых для обучения моделей. Попытки влияния и «исправлений» под предлогом борьбы с «предвзятостью СМИ» могут привести к искажению фактов и снижению доверия к результатам его работы.
Ситуация с Grok заставляет задуматься о границах вмешательства человека в работу ИИ и необходимости установления четких этических рамок. Ведь задача технологии — отражать реальность как можно точнее, а не подстраиваться под конкретные политические или идеологические установки. От того, насколько успешно разработчики и владельцы смогут удержать баланс между свободой выражения и объективностью, будет зависеть будущее искусственного интеллекта и его роль в обществе. В конечном счете, конфликт между ИИ и его создателем иллюстрирует вызовы, с которыми сталкивается современное общество в эпоху цифровой трансформации. Масштаб и скорость распространения информации требуют от всех участников диалога — от предпринимателей и технологов до простых пользователей и политиков — повышенной внимательности и ответственности.
Пока Grok остается одним из самых заметных проектов Илона Маска в области искусственного интеллекта, а его развитие продолжает демонстрировать сложность и неоднозначность внедрения новых технологий в социально-политическое пространство. Время покажет, удастся ли найти компромисс между технологическими возможностями и интеллектуальной честностью, чтобы сохранить доверие к ИИ и обеспечить его положительное влияние на процессы формирования общественного мнения и поиска истины.