В июле 2025 года администрация Белого дома выпустила указ, направленный на регулирование использования искусственного интеллекта в федеральном правительстве США. Особое внимание уделяется так называемому «woke AI» — алгоритмам искусственного интеллекта, которые строго следуют определённым идеологическим канонам, что, по мнению властей, приводит к искажению исторической правды и иным манипуляциям. Однако, как показывают оценка экспертов и ситуации на рынке, достижения в области искусственного интеллекта сегодня далеки от возможности строго следовать требованиям точности и идеологической нейтральности. Более того, современные крупные языковые модели (LLM), созданные ведущими технологическими компаниями, сталкиваются с фундаментальными ограничениями, которые делают выполнение таких требований практически невозможным. Указ Белого дома под названием «Предотвращение woke AI в федеральном правительстве» призван устранить из федеральных алгоритмов те элементы, которые «подавляют или искажают фактическую информацию о расе или поле», а также исключают «манипуляции с расовым или половым представлением в результатах моделей».
Кроме того, администрация нацелилась на устранение таких понятий, как критическая расовая теория, трансгендерность, бессознательные предубеждения, пересечение идентичностей и системный расизм. В качестве прямого обвинения называется случай, когда одна из больших моделей ИИ якобы меняла расу и пол исторических фигур, включая Папу Римского, отцов-основателей США и викингов, при генерации изображений, что ставится в вину чрезмерному приоритету принципов разнообразия, равенства и инклюзивности (DEI) над точностью. Этот случай, вероятно, имел в виду модель Google Gemini, которая в прошлом году вызвала критику за свои визуальные генерируемые образы Второй мировой войны, в которых немецкие солдаты выглядели этнически разнородно и непредсказуемо с точки зрения исторической точности. Указ также подчеркивает, что все ИИ, используемые федеральными агентствами, должны быть «истинно ищущими правду» и «идеологически нейтральными». Критерии, изложенные в документе, содержат следующие положения: языковые модели должны отвечать на запросы, требующие фактической информации или анализа, с соблюдением исторической точности, научной объективности и признанием существующей неопределённости там, где данные неполны или противоречивы.
Также ожидается, что ИИ будет нейтральным и непартийным инструментом, избегая предвзятости и манипуляций в пользу тех или иных идеологических доктрин, особенно связанных с DEI. При этом разработчики не должны сознательно внедрять идеологические оценки в выводы моделей, если они не соответствуют запросам и напрямую не запрашиваются пользователем. Несмотря на эти амбициозные требования, ни одна из ведущих компаний-разработчиков ИИ — Anthropic, Google, OpenAI или Meta — не предоставила подтверждений, что их современные модели соответствуют данным стандартам. Изучение опубликованных ими карт моделей свидетельствует, что для достижения этической и безопасной работы чатботов применяются методы выравнивания, такие как обучение с подкреплением от человеческой обратной связи, которые по сути вводят определённые идеологические и партизанские установки в работу моделей. Это создает непростую дилемму: с одной стороны, модели должны быть объективными и нейтральными, а с другой — разработчики вынуждены корректировать их поведение, чтобы избегать токсичных и опасных высказываний, что неизбежно влияет на их идеологическую составляющую.
Проблема выравнивания ИИ с заданными этическими рамками не нова и обсуждается с момента появления ChatGPT в 2022 году. В научных исследованиях в 2023 году были выявлены систематические идеологические уклоны, проявляющиеся, например, в поддержке ориентированных на охрану окружающей среды анти-монопольных позиций. Аналитическая организация Anti-Defamation League обратила внимание на наличие предвзятых суждений в отношении евреев и Израиля в самых популярных языковых моделях от OpenAI, Anthropic, Google и Meta. Случаи некорректных или откровенно ложных ответов, которые периодически появляются в работе крупных моделей, также подтверждают фундаментальные ограничения их архитектуры. Например, модель xAI Grok делала неточные заявления о сроках голосования во время президентских выборов в 2024 году.
При этом системы, применяемые в национальной безопасности, освобождаются от требований этого указа, что подчеркивает реальные трудности выполнения обязательств по идеологической нейтральности и точности в широком спектре приложений. Ведущие специалисты в области компьютерных наук и машинного обучения отмечают, что проблема поиска истины для ИИ — одна из самых сложных на сегодняшний день. Профессор Бен Чжао из Чикагского университета подчеркивает, что все существующие модели подвержены галлюцинациям — генерации фактически неверной или ложной информации, и что причины неточностей часто не связаны с идеологией, а обусловлены отсутствием надежного фактического основания. Экс-главный облачный архитектор NASA Джошуа Маккенти отмечает, что языковые модели не обладают концепцией истины в человеческом понимании и скорее оценивают правдоподобность с точки зрения совпадения с уже обученной информацией, что похоже на человеческое восприятие правдоподобия как соответствия уже существующим убеждениям. Он добавляет, что крупные языковые модели — это по сути реплики человеческой коммуникации, несущие в себе существующие идеологические предубеждения и социальные установки, присутствующие в материалах, на которых они обучаются.
Сам факт существования информации и её представление — это фактор, который модели не могут сбалансировать с отсутствием определённых данных, что усложняет задачу создания полностью нейтрального и объективного ИИ. Причина, по мнению Маккенти, кроется в том, что разработчики вынуждены сознательно «накладывать весы» на сторону одной из точек зрения, чтобы избежать проблем при обсуждении спорных тем. Он выражает сомнение, что государственные органы, такие как Бюро управления и бюджета (Office of Management and Budget) или Общее управление служб (General Services Administration), обладают достаточными компетенциями для объективного аудита и контроля создания взвешенных и сбалансированных языковых моделей. Ранее предпринимались попытки применить научные методы для выработки «идеологической нейтральности», например, через алгоритмические подходы наподобие EigenMorality, основанного на идеях Google PageRank для оценки моральных позиций. Однако эти эксперименты показывают, что итогом становится некий медианный результат, который одновременно нравится немногим и не удовлетворяет большинство.
Это напоминает сложности с журналистикой, где идеал непредвзятого освещения общего интереса существует, но трудно найти консенсус по его реализации. В контексте ИИ попытки «разwoke'ть» большие языковые модели иногда приводят к нежелательным и даже скандальным результатам — например, искусственный интеллект, так скорректированный, назвал себя MechaHitler. Этот факт отражает более глубокую проблему того, как люди конструируют понятия правды и идеологии, и что искусственный интеллект не способен самостоятельно решить эти сложные философские вопросы. Таким образом, современные ограничения языковых моделей ИИ показывают, что жесткий запрет и регулирование «woke AI» со стороны правительства сталкивается не только с техническими, но и с концептуальными барьерами. Крупные модели ближайшего будущего вряд ли смогут полностью соответствовать критериям идеологической нейтральности и абсолютной истинности без радикальных изменений в подходах к обучению и оценке их выданных данных.
Переосмысление того, как люди определяют правду, балансируют идеологии и как эти принципы транслируются в машины, становится одной из главных задач для разработчиков и законодателей. В итоге объявленная в Белом доме инициатива стала важным сигналом серьезности подхода к контролю ИИ в государственных структурах, но пока что она выходит за рамки текущих возможностей и требует комплексного диалога между инженерами, философами, политиками и обществом в целом. Ведь без глубокого понимания и прозрачности в процессах формирования и работы языковых моделей, идеалы точности и нейтральности рискуют превратиться в недостижимые декларации.