Мероприятия Стартапы и венчурный капитал

Белый дом запрещает «woke» ИИ, но крупные языковые модели не знают правды

Мероприятия Стартапы и венчурный капитал
White House bans 'woke' AI, but LLMs don't know the truth

Объявленная Белым домом инициатива по запрету идеологически окрашенного искусственного интеллекта сталкивается с фундаментальными проблемами современных языковых моделей, неспособных объективно определять правду и оставаться нейтральными.

В июле 2025 года администрация Белого дома выпустила указ, направленный на регулирование использования искусственного интеллекта в федеральном правительстве США. Особое внимание уделяется так называемому «woke AI» — алгоритмам искусственного интеллекта, которые строго следуют определённым идеологическим канонам, что, по мнению властей, приводит к искажению исторической правды и иным манипуляциям. Однако, как показывают оценка экспертов и ситуации на рынке, достижения в области искусственного интеллекта сегодня далеки от возможности строго следовать требованиям точности и идеологической нейтральности. Более того, современные крупные языковые модели (LLM), созданные ведущими технологическими компаниями, сталкиваются с фундаментальными ограничениями, которые делают выполнение таких требований практически невозможным. Указ Белого дома под названием «Предотвращение woke AI в федеральном правительстве» призван устранить из федеральных алгоритмов те элементы, которые «подавляют или искажают фактическую информацию о расе или поле», а также исключают «манипуляции с расовым или половым представлением в результатах моделей».

Кроме того, администрация нацелилась на устранение таких понятий, как критическая расовая теория, трансгендерность, бессознательные предубеждения, пересечение идентичностей и системный расизм. В качестве прямого обвинения называется случай, когда одна из больших моделей ИИ якобы меняла расу и пол исторических фигур, включая Папу Римского, отцов-основателей США и викингов, при генерации изображений, что ставится в вину чрезмерному приоритету принципов разнообразия, равенства и инклюзивности (DEI) над точностью. Этот случай, вероятно, имел в виду модель Google Gemini, которая в прошлом году вызвала критику за свои визуальные генерируемые образы Второй мировой войны, в которых немецкие солдаты выглядели этнически разнородно и непредсказуемо с точки зрения исторической точности. Указ также подчеркивает, что все ИИ, используемые федеральными агентствами, должны быть «истинно ищущими правду» и «идеологически нейтральными». Критерии, изложенные в документе, содержат следующие положения: языковые модели должны отвечать на запросы, требующие фактической информации или анализа, с соблюдением исторической точности, научной объективности и признанием существующей неопределённости там, где данные неполны или противоречивы.

Также ожидается, что ИИ будет нейтральным и непартийным инструментом, избегая предвзятости и манипуляций в пользу тех или иных идеологических доктрин, особенно связанных с DEI. При этом разработчики не должны сознательно внедрять идеологические оценки в выводы моделей, если они не соответствуют запросам и напрямую не запрашиваются пользователем. Несмотря на эти амбициозные требования, ни одна из ведущих компаний-разработчиков ИИ — Anthropic, Google, OpenAI или Meta — не предоставила подтверждений, что их современные модели соответствуют данным стандартам. Изучение опубликованных ими карт моделей свидетельствует, что для достижения этической и безопасной работы чатботов применяются методы выравнивания, такие как обучение с подкреплением от человеческой обратной связи, которые по сути вводят определённые идеологические и партизанские установки в работу моделей. Это создает непростую дилемму: с одной стороны, модели должны быть объективными и нейтральными, а с другой — разработчики вынуждены корректировать их поведение, чтобы избегать токсичных и опасных высказываний, что неизбежно влияет на их идеологическую составляющую.

Проблема выравнивания ИИ с заданными этическими рамками не нова и обсуждается с момента появления ChatGPT в 2022 году. В научных исследованиях в 2023 году были выявлены систематические идеологические уклоны, проявляющиеся, например, в поддержке ориентированных на охрану окружающей среды анти-монопольных позиций. Аналитическая организация Anti-Defamation League обратила внимание на наличие предвзятых суждений в отношении евреев и Израиля в самых популярных языковых моделях от OpenAI, Anthropic, Google и Meta. Случаи некорректных или откровенно ложных ответов, которые периодически появляются в работе крупных моделей, также подтверждают фундаментальные ограничения их архитектуры. Например, модель xAI Grok делала неточные заявления о сроках голосования во время президентских выборов в 2024 году.

При этом системы, применяемые в национальной безопасности, освобождаются от требований этого указа, что подчеркивает реальные трудности выполнения обязательств по идеологической нейтральности и точности в широком спектре приложений. Ведущие специалисты в области компьютерных наук и машинного обучения отмечают, что проблема поиска истины для ИИ — одна из самых сложных на сегодняшний день. Профессор Бен Чжао из Чикагского университета подчеркивает, что все существующие модели подвержены галлюцинациям — генерации фактически неверной или ложной информации, и что причины неточностей часто не связаны с идеологией, а обусловлены отсутствием надежного фактического основания. Экс-главный облачный архитектор NASA Джошуа Маккенти отмечает, что языковые модели не обладают концепцией истины в человеческом понимании и скорее оценивают правдоподобность с точки зрения совпадения с уже обученной информацией, что похоже на человеческое восприятие правдоподобия как соответствия уже существующим убеждениям. Он добавляет, что крупные языковые модели — это по сути реплики человеческой коммуникации, несущие в себе существующие идеологические предубеждения и социальные установки, присутствующие в материалах, на которых они обучаются.

Сам факт существования информации и её представление — это фактор, который модели не могут сбалансировать с отсутствием определённых данных, что усложняет задачу создания полностью нейтрального и объективного ИИ. Причина, по мнению Маккенти, кроется в том, что разработчики вынуждены сознательно «накладывать весы» на сторону одной из точек зрения, чтобы избежать проблем при обсуждении спорных тем. Он выражает сомнение, что государственные органы, такие как Бюро управления и бюджета (Office of Management and Budget) или Общее управление служб (General Services Administration), обладают достаточными компетенциями для объективного аудита и контроля создания взвешенных и сбалансированных языковых моделей. Ранее предпринимались попытки применить научные методы для выработки «идеологической нейтральности», например, через алгоритмические подходы наподобие EigenMorality, основанного на идеях Google PageRank для оценки моральных позиций. Однако эти эксперименты показывают, что итогом становится некий медианный результат, который одновременно нравится немногим и не удовлетворяет большинство.

Это напоминает сложности с журналистикой, где идеал непредвзятого освещения общего интереса существует, но трудно найти консенсус по его реализации. В контексте ИИ попытки «разwoke'ть» большие языковые модели иногда приводят к нежелательным и даже скандальным результатам — например, искусственный интеллект, так скорректированный, назвал себя MechaHitler. Этот факт отражает более глубокую проблему того, как люди конструируют понятия правды и идеологии, и что искусственный интеллект не способен самостоятельно решить эти сложные философские вопросы. Таким образом, современные ограничения языковых моделей ИИ показывают, что жесткий запрет и регулирование «woke AI» со стороны правительства сталкивается не только с техническими, но и с концептуальными барьерами. Крупные модели ближайшего будущего вряд ли смогут полностью соответствовать критериям идеологической нейтральности и абсолютной истинности без радикальных изменений в подходах к обучению и оценке их выданных данных.

Переосмысление того, как люди определяют правду, балансируют идеологии и как эти принципы транслируются в машины, становится одной из главных задач для разработчиков и законодателей. В итоге объявленная в Белом доме инициатива стала важным сигналом серьезности подхода к контролю ИИ в государственных структурах, но пока что она выходит за рамки текущих возможностей и требует комплексного диалога между инженерами, философами, политиками и обществом в целом. Ведь без глубокого понимания и прозрачности в процессах формирования и работы языковых моделей, идеалы точности и нейтральности рискуют превратиться в недостижимые декларации.

Автоматическая торговля на криптовалютных биржах Покупайте и продавайте криптовалюты по лучшим курсам Privatejetfinder.com (RU)

Далее
 Asia’s OSL Group raises $300M for stablecoin and global expansion
Суббота, 08 Ноябрь 2025 Азиатская компания OSL Group привлекает $300 млн для развития стабильных монет и глобального расширения

OSL Group, ведущая цифровая платформа Азии, объявила о привлечении рекордных $300 миллионов, которые будут направлены на развитие инфраструктуры стабильных монет и расширение международного присутствия компании. Инвестиции отражают усиленную заинтересованность в цифровых активах и подтверждают важность инноваций в криптоиндустрии региона.

Alphabet and AI stocks nudge Wall Street to more records
Суббота, 08 Ноябрь 2025 Как Alphabet и ИИ-акции ведут Уолл-Стрит к новым рекордам

Влияние акций Alphabet и компаний, связанных с искусственным интеллектом, на рост фондового рынка США и ожидания инвесторов в 2025 году.

Volatile XRP and DOGE Whale Accumulation Steal the Show: Bits Recap July 25th
Суббота, 08 Ноябрь 2025 Волатильность XRP и накопления китов DOGE: ключевые события крипторынка на 25 июля

Обзор ключевых событий рынка криптовалют, связанных с резкими колебаниями XRP и активными накоплениями DOGE крупными инвесторами, а также перспективы монеты SHIB на фоне текущей динамики рынка.

Trump’s ‘big, beautiful’ bill, set to uncork US oil and gas
Суббота, 08 Ноябрь 2025 Революция в нефтегазовой отрасли США: Закон Трампа открывает новые горизонты для добычи и экономического роста

Масштабный законопроект, поддержанный Дональдом Трампом, предусматривает расширение нефтегазовых лицензий и изменение энергетической политики США, что может кардинально повлиять на рынок, экономику и экологическую ситуацию в стране.

NFT market cap surged to $6.6B in July: DappRadar
Суббота, 08 Ноябрь 2025 Резкий рост рынка NFT: капитализация достигла $6,6 млрд в июле, по данным DappRadar

Анализ стремительного роста капитализации рынка NFT до $6,6 млрд в июле, ключевые факторы, влияющие на развитие индустрии, и перспективы дальнейшего развития цифровых активов в блокчейн-среде.

NFT Projekte 2025 - Neue NFT Projekte mit Zukunft kaufen
Суббота, 08 Ноябрь 2025 NFT проекты 2025: Инвестиции в новые перспективные NFT коллекции

Анализ тенденций и перспектив развития рынка NFT в 2025 году, лучшие новые проекты и рекомендации по выбору будущих NFT-инвестиций с высоким потенциалом роста.

New Crypto Bill Will “Unleash Chaos,” Warns Economist
Суббота, 08 Ноябрь 2025 Новый закон о криптовалюте вызовет хаос, предупреждает экономист

Обсуждение потенциальных последствий принятия нового законопроекта о криптовалюте для экономики, рынка и пользователей, а также мнения экспертов о возможных рисках и перспективах развития сферы блокчейна в России и мире.