В последние годы искусственный интеллект (ИИ) стал одним из ключевых драйверов технологического прогресса и изменения всех сфер жизни. Однако, несмотря на впечатляющие достижения в разработке ИИ, новые исследования ставят под сомнение качество управления рисками в ведущих мировых компаниях, занимающихся этой технологией. По мнению специалистов и организаций, которые провели серию независимых оценок, уровень риска и подходы к безопасности искусственного интеллекта в самых известных корпорациях остаются «неприемлемо низкими» и зачастую недостаточно продуманными. Две некоммерческие организации — SaferAI и Future of Life Institute — провели комплексы исследований, направленных на оценку текущих политик и практик управления рисками в ведущих лабораториях и компаниях, работающих с ИИ. В список компаний вошли такие гиганты индустрии, как Google DeepMind, OpenAI, Anthropic, Meta, а также новая компания Элона Маска xAI.
Результаты этих исследований озвучивались в июле 2025 года и выявили серьёзный разрыв между декларируемыми заявлениями о безопасности и реальными мерами, которые принимаются для снижения потенциальных угроз. Одна из основных проблем, на которую указывают авторы отчетов, заключается в том, что большинство компаний предъявляют лишь минимальные обязательства в отношении контроля и регулирования своих моделей искусственного интеллекта. Несколько участников исследования получили очень низкие оценки за зрелость систем управления рисками. Например, по версии SaferAI, ни одна компания не получила оценки выше уровня «слабой», а лидером по показателям стал Anthropic с результатом всего 35%, следом шёл OpenAI с 33%, Meta и Google DeepMind получили еще более низкие показатели. Новый игрок xAI продемонстрировал улучшение по сравнению с последним исследованием, но его общий уровень безопасности все еще далек от совершенства.
Ключевой повод для беспокойства — это потенциальные сценарии, в которых ИИ может быть использован во вред человечеству. Риски варьируются от использования ИИ для совершения кибератак и изготовления биологических оружий до теоретических, но всё еще реальных угроз, связанных с возможным выходом ИИ из-под человеческого контроля в будущем. Именно поэтому эксперты настаивают на необходимости более серьёзного, системного и транспарентного подхода к управлению этими рисками. Особое критическое внимание вызвал релиз модели Gemini 2.5 от Google, который был проведён без раскрытия информации о мерах безопасности.
Это решение вызвало критику как со стороны общественности, так и исследователей, указывая на недостаток ответственности в политике крупнейшего технологического гиганта. В свою очередь, представители Google DeepMind заявили, что их подход к безопасности гораздо шире, чем отражено в публичных оценках, и охватывает множество аспектов защиты, которые не были учтены в исследованиях. Не менее проблемным оказался и Anthropic, компания, которую многие воспринимали как одну из наиболее прогрессивных в плане этических стандартов ИИ. Изменения в ответственных политиках компании перед запуском модели Claude 4, по мнению экспертов, привели к ослаблению обязательств по предотвращению внутренних угроз. Такие шаги рассматриваются как серьезные просчеты внутри компании, поскольку внутренние риски являются важнейшим компонентом комплексного управления безопасностью.
Методологии исследований, применявшихся SaferAI и Future of Life Institute, были существенно усовершенствованы с момента проведения предыдущих оценок в октябре 2024 года, что позволяет более подробно и всесторонне анализировать не только официальную документацию и публичные заявления компаний, но и скрытые практики, доступные через внутренние источники и сотрудничество с компаниями. Именно этот фактор повлиял на изменение и зачастую снижение оценок по сравнению с предыдущим раундом исследований. По данным Future of Life Institute, анализ учитывал широкий спектр аспектов: от управления текущими рисками и нанесёнными вредами до глобальной управленческой стратегии и вопросов экзистенциальной безопасности, то есть угроз, способных поставить под вопрос само существование человечества. Все компании получили крайне низкие оценки за свои планы относительно контроля над суперразумными ИИ-системами. Эксперты предупреждают, что без чётких стратегий и механизмов контроля создание таких технологий становится по сути игрой с огнём.
Задача управления рисками в ИИ выходит далеко за рамки разработки технических решений и инструментов. Она включает в себя разработку и принятие этических норм, создание прозрачных процедур взаимодействия с общественностью, обязательства по обмену информацией и сотрудничеству между различными участниками рынка. При этом успешное управление рисками требует не только деклараций, но и подлинных действий со стороны руководства и топ-менеджмента компаний. Текущая ситуация отражает дилемму темпов развития технологий и готовности индустрии обеспечивать их безопасность. С одной стороны, рынки и потребители требуют новых мощных ИИ-продуктов, с другой — механизмов контроля и регуляции отстают от скорости инноваций.
Это несоответствие порождает риски не только на уровне частных компаний, но и для государства, бизнеса, а в конечном счёте — для всего общества. В условиях ограниченной ответственности и недостатка прозрачности возникает опасность повторения ошибок из прошлых эпох технологических прорывов, когда игнорирование рисков приводило к значительным катастрофам и потерям. Поэтому общественные организации и независимые исследовательские институты призывают к усилению контроля, ответственности и международного сотрудничества. Перспективы индустрии могут измениться, если ведущие компании примут более серьезные обязательства в области управления рисками, будут открыто публиковать результаты внутренних проверок безопасности и инвестировать в развитие методов предотвращения угроз. Только при таких условиях возможно гармоничное и устойчивое развитие искусственного интеллекта как инструмента на благо общества.
Таким образом, проблема неприемлемого уровня управления рисками в ведущих компаниях по ИИ становится одним из ключевых вызовов современности. Устранение этих недостатков потребует скоординированных усилий всех участников экосистемы — от разработчиков и инвесторов до регуляторов и научного сообщества. Без этого, несмотря на все достижения ИИ, его потенциал может быть омрачён серьёзными этическими и практическими проблемами безопасности.