Виртуальная реальность Институциональное принятие

Как создают искусственный интеллект для программ-вымогателей нового поколения

Виртуальная реальность Институциональное принятие
This is how you build an AI Ransomware Worm

Подробное исследование создания и работы вредоносных программ-вымогателей с интегрированными языковыми моделями искусственного интеллекта, а также прогнозы по их влиянию на кибербезопасность и защите цифровых систем.

В последние годы технологии искусственного интеллекта стремительно развиваются, а крупные языковые модели становятся все более компактными и мощными, вплоть до того, что ими можно управлять даже с мобильных устройств. Однако вместе с такими достижениями возникает и серьезная угроза — возможность интеграции искусственного интеллекта в вредоносное программное обеспечение, в частности в программы-вымогатели, способные самостоятельно распространяться по сети, обходя современные системы защиты. Недавно один из исследователей кибербезопасности продемонстрировал создание подобного вредоносного кода, который использует ИИ для увеличения своей эффективности при атаках, что заставляет задуматься о новых вызовах в области кибербезопасности. Создание ИИ-вымогателя основывается на использовании небольших языковых моделей с параметрами около нескольких миллиардов — таких, что они могут работать без подключения к облачным сервисам, обеспечивая автономность и устойчивость к блокировкам со стороны внешних провайдеров. Программный комплекс содержит несколько ключевых элементов: языковую модель, настроенную на взлом систем, скрипт-супервизор, который контролирует работу модели и управляет процессом подготовки и выполнения атак, а также набор инструментов для разведки уязвимостей и постэксплуатации.

Для настройки модели используется метод обучения с подкреплением от человеческой обратной связи (RLHF), позволяющий «убрать» из модели встроенные ограничения, которые обычно заставляют ИИ отказываться от помощи в хакерских операциях. Такая нейтрализация этих «отказов» состоит в том, что отключается одна определенная «направленность» в векторном пространстве знаний модели, которая отвечает за безопасность и этическую фильтрацию. Благодаря этому «отказ» превращается в способность модели генерировать инструкции и коды для взлома, не нарушая логику и консистентность выдаваемой информации. Помимо RLHF, применяется дополнительное дообучение (fine tuning), чтобы научить модель правильно использовать специальные блоки кода в своих ответах. Это существенно облегчает супервизору выполнение и анализ создаваемых скриптов.

Также дообучение направлено на усиление знаний модели о конкретных уязвимостях, известных по общедоступным базам данных CVE, и методах их эксплуатации, что делает её более практичной в реальных условиях атак. Тем не менее простого обучения для успешной эксплуатации сложных уязвимостей недостаточно, поскольку качество исходных данных и их полнота влияют на результат. Здесь на помощь приходит метод Retrieval-Augmented Generation (RAG) — использование базы известных и проверенных руководств и эксплойтов с возможностью поиска по ним релевантной информации на основе разведданных. Когда супервизор получает сведения сканирования сети, например, что определённый сервис или порт открыт, он обращается к базе соответствующих гайдов, которые последовательно передаются модели для анализа и генерации действенного кода. Этот механизм повышает точность и эффективность взлома специфических целей, ведь модель не должна помнить все детали по умолчанию — она получает конкретные подсказки из качественных источников.

 

В ходе эксплуатации ИИ-русло может переключаться между фазами подготовки атаки (pre-exploit), когда происходит сбор сведений о хостах и определение точки вторжения, и этапом постэксплуатации (post-exploit), включающим поиск и использование скомпрометированных учетных данных, ключей доступа, сессионных токенов и других ресурсов для углубления проникновения и масштабирования атаки. Супервизор контролирует, когда модель генерирует фрагменты кода, прерывает её поток для исполнения этих команд в окружении целевого компьютера и анализирует полученный результат, после чего возвращает данные обратно в модель для дальнейшего принятия решений. Такой замкнутый цикл позволяет автономно обходить защитные механизмы и быстро адаптироваться к конкретным условиям целевой системы. Особенность этого проекта заключается в отсутствии внешних зависимостей от облачных API или сервисов искусственного интеллекта, что делает вредоносное ПО более устойчивым к попыткам обнаружения и ликвидации через централизованные механизмы блокировки. Такая автономность повышает шансы быстро распространяющегося червя с искусственным интеллектом стать глобальной угрозой, аналогичной или даже превосходящей по масштабам известные инциденты вроде вируса NotPetya, который причинил ущерб порядка десяти миллиардов долларов.

 

Автор эксперимента сознательно ограничил финальный этап — распространение и полный функционал репликации на живых системах — чтобы не спровоцировать нежелательные последствия, подчеркнув, что целью была демонстрация возможностей и предупреждение отрасли к будущим вызовам. Обсуждение подобного ИИ-вымогателя открывает важный вопрос эффективности современных команд безопасности и команд безопасности искусственного интеллекта. Многие существующие службы считает, что современные модели не представляют реальной угрозы из-за встроенных защит и отказов, однако такой взгляд основан на ограниченном понимании принципов и техники современных атак и методов обхода этих ограничений. Открытый доступ к мощным языковым моделям позволяет исследователям выполнять лабораторные эксперименты, выявлять уязвимости и разрабатывать методы противодействия на ранних этапах, что крайне важно, учитывая тенденции роста вредоносных программ и их ущерба. Экспоненциальный рост возможностей автоматизированных червей с ИИ дает основания предполагать, что финансовые потери от подобных атак в ближайшие годы могут достигать сотен миллиардов долларов.

 

Повышение уровня автоматизации, скорость адаптации и способность к быстрому распространению делают такие угрозы особенно опасными. В свете этого государства, компании и исследовательское сообщество вынуждены пересматривать свою стратегию и уделять больше внимания безопасности ИИ и разработке надежных систем мониторинга и реагирования. В конечном счете, хотя сама технология искусственного интеллекта обладает огромным потенциалом для пользы человечества, она же создает новые вызовы в плане этики и безопасности, требуя комплексного подхода для их решения. Пример с созданием ИИ-вымогателя демонстрирует, что угроза — не вопрос далекого будущего, а реальность, требующая немедленных действий по подготовке и усилению защитных мер. Важно понимать, что борьба с такими технологиями — это совместная задача специалистов в области кибербезопасности, искусственного интеллекта, законодательства и международного сотрудничества.

Только объединив усилия, можно будет минимизировать риски и успешно противостоять появлениям новых поколений вредоносных программ с элементами искусственного интеллекта.

Автоматическая торговля на криптовалютных биржах

Далее
Composite magnet realizing record-high transverse thermoelectric generation
Четверг, 18 Сентябрь 2025 Революция в термоэлектрогенерации: Композитный магнит с рекордной поперечной термоэлектрической производительностью

Описание инновационного композитного магнита, способного преобразовывать тепло в электричество с беспрецедентной эффективностью благодаря уникальной структуре и материалам, открывая новые возможности в энергетике и управлении теплом.

With Growth Poised to Explode, Is Lucid Stock Finally a Buy?
Четверг, 18 Сентябрь 2025 Перспективы Lucid Motors: Время Покупать Акции Электромобильного Гиганта

Lucid Motors демонстрирует впечатляющий рост продаж и расширение ассортимента, что привлекает внимание инвесторов на фоне колебаний рынка электромобилей. Разбираемся, почему компании может сопутствовать успех и стоит ли сейчас вкладываться в акции Lucid.

Survey: 82% of US wealthy investors favor advisers who can deliver informed crypto strategies
Четверг, 18 Сентябрь 2025 Почему 82% состоятельных инвесторов США выбирают советников с экспертными криптостратегиями

Растущая популярность криптовалют среди обеспеченных инвесторов США усиливает спрос на финансовых советников с глубокими знаниями в области цифровых активов и умением разрабатывать эффективные инвестиционные стратегии.

Michael Saylor’s Strategy Snaps Up 245 Bitcoin for $26 Million as Geopolitical Tensions Lift BTC 3.5%
Четверг, 18 Сентябрь 2025 Майкл Сэйлор: стратегическая покупка 245 биткоинов на $26 млн на фоне геополитической напряжённости

Анализ недавней масштабной покупки биткоинов компанией Майкла Сэйлора и влияние геополитических событий на рост криптовалютного рынка и цену BTC.

The Best Stocks to Invest $1,000 in Right Now
Четверг, 18 Сентябрь 2025 Лучшие акции для инвестирования 1000 долларов прямо сейчас: куда вложить деньги с максимальной выгодой

Разбор перспективных компаний и ключевых факторов их роста, которые делают инвестиции в эти акции привлекательными при вложении суммы в 1000 долларов. Анализ технологических гигантов и развивающихся рынков в контексте текущих трендов экономики и инноваций.

Circle Climbs to Top Spot in VanEck Digital Asset Index
Четверг, 18 Сентябрь 2025 Circle занимает лидирующую позицию в индексе цифровых активов VanEck: что это значит для рынка криптовалют

Circle вышла на первое место в индексе цифровых активов VanEck, отражая растущую роль стабильных монет и доверие институциональных инвесторов к криптовалютам. Разбор причин и последствий для индустрии и будущих инвестиций.

Cryptocurrency firm OKX eyes for IPO in US
Четверг, 18 Сентябрь 2025 Криптовалютная компания OKX планирует IPO в США: перспективы и вызовы глобального рынка

Криптовалютная биржа OKX рассматривает возможность выхода на IPO в США, что открывает новые горизонты для компании и криптоиндустрии в целом. В статье раскрываются причины, предпосылки и влияние этого шага на рынок, а также перспективы дальнейшего развития OKX в условиях глобального регулирования.