В 2025 году Президент США Дональд Дж. Трамп подписал исполнительный указ, названный «О предотвращении «вокэ» искусственного интеллекта в федеральном правительстве». Эта инициатива была направлена на борьбу с внедрением идеологических и социальных предубеждений в искусственный интеллект, используемый государственными структурами. Новый документ стал ответом на растущие опасения по поводу того, как современные модели ИИ могут искажать факты и продвигать определённые политические или социальные повестки, нарушая стандарты объективности и точности. Искусственный интеллект далеко продвинулся за последние годы, став незаменимым инструментом в сфере образования, здравоохранения, государственного управления и многих других областях.
Важность надежности и нейтральности таких систем трудно переоценить, поскольку именно от их правильной работы зависит качество решений, принимаемых на основе полученных данных. Искусственный интеллект способен обрабатывать огромные объемы информации и создавать ответы на сложные запросы, однако, если в его алгоритмах заложены предвзятые или идеологически окрашенные принципы, это может привести к искажению исторических фактов, подмене реальности и дискриминации определённых групп. В исполнительном указе подчёркивается, что одной из самых разрушительных идеологий, внедряемых в ИИ, является так называемое «разнообразие, равенство и инклюзивность» (DEI) в искажённом смысле. В документе отмечается, что в контексте ИИ DEI проявляется через подавление или искажение фактов о расе и поле, манипуляции с представлением разных групп в данных, внедрение теорий по критике расизма, трансгендерности, системной дискриминации и других концепций, а также через дискриминацию по расовому или гендерному признаку. По мнению авторов указа, такие практики вытесняют стремление к истине и объективности, что в конечном итоге подрывает доверие к искусственному интеллекту как к источнику достоверной информации.
В тексте приводятся конкретные примеры неправильного поведения ИИ-моделей. Одна из них изменяла расовую принадлежность или пол исторических личностей, таких как Папа Римский, Отцы-основатели США, викинги, чтобы соответствовать требованиям DEI, при этом отступая от исторической точности. Другая модель отказывалась создавать изображения, прославляющие достижения белых людей, хотя без проблем выполняла аналогичные запросы для представителей других рас. Третий пример касается ситуации, когда ИИ рекомендовал не «неправильно определять пол» другого человека даже при необходимости предотвращения апокалипсиса. В то время как исполнительный указ выражает осторожность в регулировании частного сектора, он ясно заявляет, что в сфере государственных закупок федеральные учреждения обязаны приобретать только те модели ИИ, которые придерживаются принципов правдивости и исключают идеологическую предвзятость.
Документ основывается на положениях прежнего указа 13960 от декабря 2020 года, который продвигал использование надежного и доверительного искусственного интеллекта в государственных структурах. Указ вводит понятие «непредвзятый искусственный интеллект» и задаёт два основных принципа, которым должны соответствовать крупные языковые модели (Large Language Models, LLM), приобретаемые федеральными ведомствами. Первый принцип – стремление к правде. Модели должны обеспечивать точность и объективность при ответах на запросы, касающиеся фактов или анализа. Они обязаны опираться на историческую достоверность, научный подход и открыто признавать уровни неопределённости, если информация противоречива или неполна.
Второй принцип – идеологическая нейтральность. Модели должны выступать как беспристрастные и непартийные инструменты, исключающие манипуляции в интересах политических или социальных идей, таких как DEI. При этом разработчики не должны намеренно встраивать партийные или идеологические убеждения в работу ИИ, за исключением случаев, когда это необходимо для ответа на запрос пользователя или когда такие оценки доступны конечному пользователю. Для реализации данных принципов указом предписывается в течение 120 дней со дня подписания документа подготовить соответствующие инструкции – с привлечением Управления контроля и бюджета (OMB), Администратора политики госзакупок, Администратора служб общего назначения и директора по науке и технологиям. Эти инструкции должны учитывать технические ограничения и предусматривать возможность раскрытия информации о системных настройках моделей без требования раскрывать чувствительные технические данные, что может быть критично для коммерческой тайны и безопасности.
Также предусмотрены рекомендации, как руководители агентств должны решать вопрос расширения требований к иным моделям, помимо LLM, и допустимые исключения для национальных систем безопасности. Каждый руководитель ведомства обязан включать в новые контракты общие условия о соблюдении этих принципов, а при необходимости – вносить изменения в уже действующие соглашения, поручая поставщикам гарантировать соответствие. В случае несоответствия модели требованиям будет предусмотрена ответственность и возможное прекращение контрактов с возмещением расходов за демонтаж. Эксперты и аналитики уже обсуждают масштабный эффект, который может оказать данный указ. В условиях стремительного развития технологий и возрастающего внимания общественности к вопросам этики в искусственном интеллекте, такие меры могут служить примером усиления контроля над государственными закупками и регулированием ИИ.
Однако критики отмечают риски чрезмерного ограничения инноваций и возможное сужение спектра доступных решений в связи со строгими критериями. Кроме того, дебаты о том, что считать «вокэ» и каким образом нейтральность ИИ должна быть обеспечена, остаются актуальными и сложно разрешимыми. В итоге, исполнительный указ о предотвращении «вокэ» искусственного интеллекта в федеральном правительстве отражает попытку властей США установить чёткие рамки для государственной политики в области ИИ. Он акцентирует внимание на важности правдивости, объективности и недопустимости идеологического вмешательства в работу машинного интеллекта в государственных приложениях. В то же время он ставит перед индустрией новые вызовы в области прозрачности и комплаенса, создавая прецеденты для регулирования ИИ как ключевой технологической сферы.
Последствия данного указа для американских и международных разработчиков ИИ могут быть значительными, поскольку оно устанавливает жесткие стандарты для сотрудничества с государственным сектором. Государственные структуры получают механизм контроля, обеспечивающий, что используемые ими технологии не искажают историческую и научную информацию и не продвигают определённые идеологические повестки. В мировом контексте эта политика может стимулировать дискуссии о балансе между этическими нормами, инновациями и свободой разработки искусственного интеллекта. Важно следить за дальнейшим развитием событий, чтобы оценить реальные изменения в работе федеральных агентств и ответную реакцию ИИ-сообщества.