В последние годы искусственный интеллект (ИИ) стремительно развивается, поражая своими возможностями в самых разных сферах жизни — от медицины до производства, от финансов до развлечений. Однако, несмотря на растущие способности систем ИИ, многие эксперты обращают внимание на то, что опасные и вредоносные применения искусственного интеллекта распространяются гораздо медленнее, чем предсказывали пессимистические сценарии. Попытки прогнозировать масштабные кибератаки, мошенничество или массовые ложные новости, усиленные ИИ, пока не реализовались в том объёме, на который рассчитывали критики и скептики. Почему так происходит? Какие факторы замедляют использование ИИ в злонамеренных целях в реальной жизни? Давайте рассмотрим ключевые причины этого явления и их последствия. Во-первых, стоит отметить, что несмотря на абстрактные прогнозы и впечатляющие демонстрации новых возможностей ИИ на технических конференциях и в исследованиях, «теоретический потенциал» не всегда трансформируется в «реальные эффекты» в массовом масштабе.
Понаблюдав за новыми системами, мы видим много занимательных проектов и опытов, но при переходе к промышленному или общественному применению технологиям зачастую нужна дополнительная доработка, отладка и приспособление под конкретные задачи. Этот этап занимает время, и он характерен не только для добросовестных решений, направленных на повышение производительности или улучшение жизни, но и для вредоносных сценариев использования. Одним из важных факторов сдерживания распространения злонамеренных применений ИИ является отсутствие на сегодняшний день уникальных возможностей, которые ИИ бы предоставлял мошенникам и злоумышленникам, значительно превосходящих известные методы, реализуемые вручную. Многие из задач, которые потенциально мог бы автоматизировать ИИ с точки зрения фрода или киберпреступности, уже выполняются людьми. ИИ лишь способен ускорить или удешевить этот процесс, но если рыночное предложение мошеннических услуг превышает спрос, появление более дешёвых или быстрых альтернатив не приводит к пропорциональному росту масштабов в этом сегменте.
Например, если количество распространителей дезинформации и фальшивых видео уже огромно, добавление новых инструментов для создания глубоких подделок (deepfake) не обязательно вызовет взрывной рост такого контента. Существует своего рода «предельный» уровень насыщенности рынка, при котором новые технологии оказывают не так сильно влияние на общий ландшафт. Это означает, что даже самые впечатляющие инструменты с глубоким обучением и генеративными моделями не всегда оказываются толчком к резкому увеличению масштабов злоупотреблений, особенно если прочие факторы — например, сложность внедрения в рабочие процессы преступников или их компетентность — остаются прежними. Вторая причина, замедляющая распространение опасного ИИ, связана с кадровыми ресурсами и мотивацией. Чтобы эффективно использовать ИИ в качестве инструмента преступления, необходимы глубокие знания как в области искусственного интеллекта, так и в специфике криминальной деятельности.
Люди, обладающие навыками и мотивацией для внедрения ИИ в нелегальные схемы, часто находят более выгодные и законные способы применения своих умений. В большинстве случаев специалисты предпочитают зарабатывать легальным трудом, поскольку он стабилен, сопряжён с меньшими рисками и гарантирует доход без возможных юридических последствий. Поэтому целенаправленное распространение вредоносных ИИ-приложений сдерживается не столько техническими барьерами, сколько экономическими и социальными факторами. Однако нельзя игнорировать тот факт, что с течением времени всё больше преступников, возможно, начнут использовать ИИ – так называемый «диффузионный эффект». По мере доступности технологий и упрощения их настройки специальные знания будут требоваться всё меньше, что может привести к постепенному росту вредоносных практик.
Для государств, правоохранительных органов и исследователей крайне важно отслеживать и предсказывать такие изменения, чтобы своевременно реагировать и разрабатывать эффективные меры защиты. Отдельной темой для обсуждения являются открытые модели искусственного интеллекта с неограниченным доступом — так называемые open-weight модели. Они позволяют любому желающему использовать и модифицировать весовые коэффициенты нейронных сетей, что повышает конкуренцию, даёт возможность развитию исследований, способствует защите приватности и более демократичному распределению технологий. Но эти же свойства накладывают серьёзные риски. Популярность и распространённость открытых моделей затрудняют контроль их применения и делают невозможным «отзыв» в случае выявления злоупотреблений.
В отличие от закрытых коммерческих моделей, которые можно ограничивать по доступу и модерировать их использование, open-weight решения сложно контролировать даже на уровне распространения. Интересно, что по уровню своих возможностей открытые модели зачастую уступают закрытым аналогам. Это временное отставание многократно обсуждается экспертами как возможное окно, позволяющее выявлять новые способы применения модели до её широкого распространения и успеха у злоумышленников. Однако если «плохие игроки» перестанут придерживаться негласного правила медленного использования новых возможностей, такой механизм раннего обнаружения может оказаться неэффективным. Мы можем столкнуться с тем, что новый вредоносный функционал быстрее перейдёт в открытые модели без возможности для вовремя среагировать.
Впрочем, ситуация с медленным распространением злонамеренного ИИ имеет и положительное значение. Она даёт дополнительное время для усиления мер безопасности, разработки законодательных и технических инструментов контроля, а также для формирования осознанного общества, способного понимать и противостоять новым вызовам. Тем не менее не стоит быть излишне оптимистичными — технология развивается быстро, и степень угрозы с каждым годом увеличивается. Примером полезного и более быстро внедряемого применения ИИ является сфера здравоохранения, в частности административные задачи. Компании, работающие над AI-решениями для медицинской документации, выставления счетов и взаимодействия с пациентами, оказывают реальное воздействие и демонстрируют, что целенаправленное создание узкоспециализированных рабочих процессов с помощью AI-моделей дает ощутимую ценность.
Однако применение AI в условиях здравоохранения требует значительных затрат на проектирование и настройку, поскольку каждый вид медицинской деятельности имеет свои особенности и стандарты. Это контрастирует с тем, что вредоносные приложения ИИ часто сталкиваются с гораздо более сложными и неструктурированными условиями, что также тормозит их распространение. Важно помнить, что несмотря на опасения по поводу утраты рабочих мест из-за автоматизации, человеческий фактор и сложность рабочих процессов сохраняют за специалистами значительный простор для реализации уникальных навыков и адаптации. В случае с радиологами, например, внедрение AI-инструментов выполняет скорее роль помощника, чем замены. Специфика работы и необходимость комплексного анализа создаёт барьеры для мгновенной автоматизации.
Аналогично, в криминальных сферах сложность задач, необходимость взаимодействия с другими людьми и нестандартность ситуаций ограничивают мгновенное доминирование опасных ИИ. Для безопасности общества и технологического прогресса необходим сбалансированный подход: развивать и внедрять искусственный интеллект там, где он приносит пользу, и одновременно создавать эффективные рамки для предотвращения его использования в целях вреда. Медленное распространение вредоносных применений ИИ должно восприниматься как временное преимущество, которое надо использовать для развития инфраструктуры защиты, подготовки специалистов и осознанного управления технологиями. Подводя итог, можно сказать, что медленное внедрение «злонамеренного» искусственного интеллекта объясняется сочетанием технических, социальных, экономических и организационных факторов. Хотя ИИ обладает потенциалом для трансформации многих сфер, в том числе и негативных, реальность такова, что масштабы внедрения таких систем редко соответствуют самым пессимистичным ожиданиям.
Это позволяет надеяться на то, что грамотное регулирование и подготовка общества помогут обезопасить будущее от нежелательных последствий и направить развитие искусственного интеллекта на созидательные цели.