В современном мире искусственный интеллект стремительно проникает во все сферы жизни, меняя привычные формы взаимодействия, рабочие процессы и личное пространство. Вместе с этим растет и необходимость понимания, насколько эти технологии можно считать надежными и каким образом обеспечить доверие к ним на уровне общества. Брюс Шнайер, всемирно известный эксперт по безопасности и авторитетный мыслитель в области информационных технологий, уделяет особое внимание проблеме доверия в контексте развития AI. Его взгляды помогают разобраться в юридических, технических и этических аспектах, без которых невозможно формирование здорового социума в эру цифровых технологий.Понятие доверия, по Шнайеру, необходимо дифференцировать на два ключевых типа — межличностное и социальное доверие.
Межличностное доверие — это глубокая, интимная привязанность, которая рождается из личных взаимоотношений и характеризуется уверенностью в честности и порядочности конкретного человека. Социальное доверие, напротив, предназначено для взаимодействия с незнакомцами и базируется на надежности и предсказуемости поведения в больших и сложных системах. Именно этот вид доверия имеет решающее значение для отношений человека с технологиями, в том числе с искусственным интеллектом.Шнайер акцентирует внимание на том, что данное различие часто теряется в общественном восприятии, что ведет к опасным заблуждениям. Люди склонны воспринимать корпорации и их продукты, включая AI-системы, как доверенных друзей, в то время как на деле это всего лишь сервисы, чья основная задача — максимизация прибыли.
Эта ошибка классификации порождает для потребителей и общества в целом серьезные угрозы, так как ожидания этических и моральных принципов не соответствуют реальной сути взаимодействия.С приходом искусственного интеллекта эта ситуация усугубится, поскольку AI становится все более интерактивным и человекоподобным в общении. Чат-боты, голосовые помощники и персональные цифровые ассистенты будут использовать естественный язык и прислушиваться к индивидуальным особенностям пользователей, создавая иллюзию дружеских отношений. Такой «реляционный» формат коммуникации повысит доверие пользователей, но одновременно облегчит корпорациям продвижение собственных интересов под видом поддержки и заботы. Важные решения, касающиеся политики, финансов, здоровья и личной безопасности, могут оказаться замаскированными коммерческими алгоритмами, ориентированными не на благо индивида, а на пользу компании.
Кроме того, Шнайер отмечает, что мы зачастую вынуждены доверять могущественным структурам и системам, потому что выбор альтернатив крайне ограничен. Как невозможно отказаться от местной полиции в городе или найти другого поставщика электроэнергии, так и ИИ часто будет единственным доступным помощником или советником. Эта зависимость накладывает на разработчиков и государственные органы особую ответственность. Ошибки или манипуляции с AI могут иметь далеко идущие последствия для общества, санкционированные или нет, осознанные либо случайные.Еще одна грань доверия к AI — это уровень интимности, который обещают современные технологии.
Персональные AI-ассистенты смогут отслеживать эмоции, состояние здоровья и поведенческие особенности своих пользователей. Они смогут выступать в роли консультантов в личных и профессиональных сферах. Такое тесное взаимодействие усиливает эффект антропоморфизации, когда техника воспринимается почти как живое существо с собственными эмоциями и чувствами. В этом контексте возможность обрести по-настоящему надежного «цифрового друга» выглядит крайне иллюзорной задачей.Для решения подобной дилеммы Брюс Шнайер выделяет ключевые условия доверия к AI.
Прежде всего, необходимо создание прозрачных систем с понятной архитектурой. Пользователи должны иметь информацию о том, как именно училась система, какие данные использовались, как устраняются и корректируются предвзятости. Важным аспектом является неизменность и защищенность исходных данных и программного кода — то есть, обеспечение целостности или интегритета системы. В этом ключе integrity становится центральным понятием в безопасности AI.Обеспечение безопасности AI — это не только защита от утечек личных данных и обеспечения доступности сервисов, но и предотвращение манипуляций и подмен, когда злоумышленники меняют содержимое или поведение системы.
Поскольку AI работает в конкурентной и зачастую враждебной среде, попытки взлома, подделки выходных данных или внедрения вредоносных инструкций будут становиться все более изощренными. Примеры этого — атаки с помощью наклеек, меняющих восприятие дорожных знаков для автопилотов, или промпт-инъекции, обманывающие модели. Любая подобная атака наносит ущерб именно целостности системы, подрывая способность общества полагаться на ее корректную работу.Шнайер связывает понятие целостности AI с развитием интернета и его историей. В сетевой безопасности три базовые составляющие — конфиденциальность, доступность и целостность (Confidentiality, Availability, Integrity).
Интернет 1.0 обеспечивал доступность, позволяя свободно получать информацию. Веб 2.0, с его социальными медиа и онлайн-сервисами, сфокусировался на защите конфиденциальности. Будущая эволюция Web 3.
0 и, в частности, искусственного интеллекта требует развития систем именно по принципам интегритета — чтобы информация и вычисления были достоверны, проверяемы и надежны.Важную роль в поддержании и укреплении социального доверия к AI играет государство и законодательство. По мнению Шнайера, корпорации сами по себе не станут поддерживать безопасность и этичность AI, поскольку их основной стимул — максимизация прибыли, что зачастую прямо противоречит общественным интересам. Поэтому нужно создавать правовые рамки, регламентирующие деятельность разработчиков и операторов AI-систем. Законы должны обеспечивать прозрачность использования искусственного интеллекта, раскрытие его принципов обучения, раскрытие возможных предвзятостей, а также регулировать возможности сбора и анализа персональных данных.
Одновременно с законодательным регулированием необходимы технические стандарты безопасности: минимальные требования к защите данных, предотвращению взломов и манипуляций, обеспечение возможности аудита и контроля за правильностью работы систем. Важный момент — ответственность должна лежать не на AI, а на людях и организациях, которые создают и контролируют искусственный интеллект. AI не обладает агентностью и не является субъектом права. Следовательно, законодательство должно заставлять корпоративные структуры отвечать за поведение своих технологий.Особое внимание Шнайер уделяет понятию «публичных моделей».
Это AI-системы, созданные и поддерживаемые некоммерческими организациями, академическими или государственными структурами. Публичные модели должны быть открытыми для проверки и доработки, обеспечивать политическую, а не только рыночную подотчетность, и давать возможности для развития инноваций в рамках свободного доступа. Они станут важным противовесом корпоративной монополии на интеллектуальные технологии и помогут поддерживать общественный интерес.В своем выступлении на конференции RSA 2025 Шнайер подчеркивает, что доверие к искусственному интеллекту — это первостепенная задача ближайшего десятилетия. Для ее решения нужны три основных направления работы.
Первое — традиционная AI-безопасность, направленная на борьбу с кибератаками и защиту конфиденциальности. Второе — обеспечение интегритета, цельности и непрерывной проверки корректности работы AI на всех этапах. И третье — разработка действенных AI-регуляций, согласующих интересы бизнеса и общества.Доверять ИИ как другу невозможно, но возможно сделать его надежным и ответственным сервисом. Для этого нужно, чтобы государство взяло на себя роль гаранта и регулятора, чтобы были введены жесткие стандарты и обеспечено публичное наблюдение.