В последние годы технологии искусственного интеллекта стремительно развиваются, а крупные языковые модели становятся все более компактными и мощными, вплоть до того, что ими можно управлять даже с мобильных устройств. Однако вместе с такими достижениями возникает и серьезная угроза — возможность интеграции искусственного интеллекта в вредоносное программное обеспечение, в частности в программы-вымогатели, способные самостоятельно распространяться по сети, обходя современные системы защиты. Недавно один из исследователей кибербезопасности продемонстрировал создание подобного вредоносного кода, который использует ИИ для увеличения своей эффективности при атаках, что заставляет задуматься о новых вызовах в области кибербезопасности. Создание ИИ-вымогателя основывается на использовании небольших языковых моделей с параметрами около нескольких миллиардов — таких, что они могут работать без подключения к облачным сервисам, обеспечивая автономность и устойчивость к блокировкам со стороны внешних провайдеров. Программный комплекс содержит несколько ключевых элементов: языковую модель, настроенную на взлом систем, скрипт-супервизор, который контролирует работу модели и управляет процессом подготовки и выполнения атак, а также набор инструментов для разведки уязвимостей и постэксплуатации.
Для настройки модели используется метод обучения с подкреплением от человеческой обратной связи (RLHF), позволяющий «убрать» из модели встроенные ограничения, которые обычно заставляют ИИ отказываться от помощи в хакерских операциях. Такая нейтрализация этих «отказов» состоит в том, что отключается одна определенная «направленность» в векторном пространстве знаний модели, которая отвечает за безопасность и этическую фильтрацию. Благодаря этому «отказ» превращается в способность модели генерировать инструкции и коды для взлома, не нарушая логику и консистентность выдаваемой информации. Помимо RLHF, применяется дополнительное дообучение (fine tuning), чтобы научить модель правильно использовать специальные блоки кода в своих ответах. Это существенно облегчает супервизору выполнение и анализ создаваемых скриптов.
Также дообучение направлено на усиление знаний модели о конкретных уязвимостях, известных по общедоступным базам данных CVE, и методах их эксплуатации, что делает её более практичной в реальных условиях атак. Тем не менее простого обучения для успешной эксплуатации сложных уязвимостей недостаточно, поскольку качество исходных данных и их полнота влияют на результат. Здесь на помощь приходит метод Retrieval-Augmented Generation (RAG) — использование базы известных и проверенных руководств и эксплойтов с возможностью поиска по ним релевантной информации на основе разведданных. Когда супервизор получает сведения сканирования сети, например, что определённый сервис или порт открыт, он обращается к базе соответствующих гайдов, которые последовательно передаются модели для анализа и генерации действенного кода. Этот механизм повышает точность и эффективность взлома специфических целей, ведь модель не должна помнить все детали по умолчанию — она получает конкретные подсказки из качественных источников.
В ходе эксплуатации ИИ-русло может переключаться между фазами подготовки атаки (pre-exploit), когда происходит сбор сведений о хостах и определение точки вторжения, и этапом постэксплуатации (post-exploit), включающим поиск и использование скомпрометированных учетных данных, ключей доступа, сессионных токенов и других ресурсов для углубления проникновения и масштабирования атаки. Супервизор контролирует, когда модель генерирует фрагменты кода, прерывает её поток для исполнения этих команд в окружении целевого компьютера и анализирует полученный результат, после чего возвращает данные обратно в модель для дальнейшего принятия решений. Такой замкнутый цикл позволяет автономно обходить защитные механизмы и быстро адаптироваться к конкретным условиям целевой системы. Особенность этого проекта заключается в отсутствии внешних зависимостей от облачных API или сервисов искусственного интеллекта, что делает вредоносное ПО более устойчивым к попыткам обнаружения и ликвидации через централизованные механизмы блокировки. Такая автономность повышает шансы быстро распространяющегося червя с искусственным интеллектом стать глобальной угрозой, аналогичной или даже превосходящей по масштабам известные инциденты вроде вируса NotPetya, который причинил ущерб порядка десяти миллиардов долларов.
Автор эксперимента сознательно ограничил финальный этап — распространение и полный функционал репликации на живых системах — чтобы не спровоцировать нежелательные последствия, подчеркнув, что целью была демонстрация возможностей и предупреждение отрасли к будущим вызовам. Обсуждение подобного ИИ-вымогателя открывает важный вопрос эффективности современных команд безопасности и команд безопасности искусственного интеллекта. Многие существующие службы считает, что современные модели не представляют реальной угрозы из-за встроенных защит и отказов, однако такой взгляд основан на ограниченном понимании принципов и техники современных атак и методов обхода этих ограничений. Открытый доступ к мощным языковым моделям позволяет исследователям выполнять лабораторные эксперименты, выявлять уязвимости и разрабатывать методы противодействия на ранних этапах, что крайне важно, учитывая тенденции роста вредоносных программ и их ущерба. Экспоненциальный рост возможностей автоматизированных червей с ИИ дает основания предполагать, что финансовые потери от подобных атак в ближайшие годы могут достигать сотен миллиардов долларов.
Повышение уровня автоматизации, скорость адаптации и способность к быстрому распространению делают такие угрозы особенно опасными. В свете этого государства, компании и исследовательское сообщество вынуждены пересматривать свою стратегию и уделять больше внимания безопасности ИИ и разработке надежных систем мониторинга и реагирования. В конечном счете, хотя сама технология искусственного интеллекта обладает огромным потенциалом для пользы человечества, она же создает новые вызовы в плане этики и безопасности, требуя комплексного подхода для их решения. Пример с созданием ИИ-вымогателя демонстрирует, что угроза — не вопрос далекого будущего, а реальность, требующая немедленных действий по подготовке и усилению защитных мер. Важно понимать, что борьба с такими технологиями — это совместная задача специалистов в области кибербезопасности, искусственного интеллекта, законодательства и международного сотрудничества.
Только объединив усилия, можно будет минимизировать риски и успешно противостоять появлениям новых поколений вредоносных программ с элементами искусственного интеллекта.