В последние годы технологии искусственного интеллекта стремительно развиваются, открывая перед человечеством огромные возможности. В то же время эти технологии находят применение не только в добросовестных целях, но и в криминальных действиях. Особое внимание привлекает инцидент с AI-инструментом v0 от компании Vercel, который был обнаружен в руках киберпреступников, использующих его для быстрого и масштабного создания фальшивых страниц аутентификации. Это серьезно меняет правила игры в сфере кибербезопасности и требует от экспертов и организаций принятия новых мер защиты. Vercel v0 представляет собой мощный генеративный AI-инструмент, способный по простым текстовым запросам создавать простые лендинг-страницы и полнофункциональные веб-приложения.
Благодаря этому пользователи без глубоких знаний в программировании могут разрабатывать веб-контент буквально по команде. Однако именно эта простота в управлении и стала причиной проблемы: злоумышленники получили возможность без особого усилия создавать поддельные страницы входа, имитирующие настоящие сайты популярных брендов и сервисов. Исследователи компании Okta Threat Intelligence, подробно изучившие данный инцидент, отмечают эволюцию методов фишинговых атак, которые с помощью генеративного AI теперь можно быстро развернуть всего из текстового запроса. Раньше для создания качественных и убедительных фишинговых сайтов требовались определенные навыки программирования и время на подготовку. С появлением подобных AI-инструментов эта преграда практически исчезла, что значительно расширяет круг потенциальных злоумышленников, включая новичков в киберпреступной среде.
Помимо самого инструмента v0, киберпреступники используют инфраструктуру Vercel для размещения своих фальшивых страниц, в том числе и оригинальных логотипов компаний, которые имитируются на поддельных сайтах. Это позволяет им повысить уровень доверия потенциальных жертв и затруднить обнаружение подделок системами безопасности. Важно понимать, что традиционные фишинговые комплекты требуют отдельной настройки и технических навыков для успешного внедрения. Однако с применением v0 и его аналогов из открытого исходного кода на платформе GitHub, создание и запуск фальшивого сайта превращается в задачу, решаемую за считанные минуты. Наличие подобных инструментов существенно ускоряет и масштабирует фишинговые кампании, что серьезно повышает риски для конечных пользователей и компаний.
Кроме того, тревожным сигналом является то, что киберзлоумышленники активно используют «открытые» или «несдерживаемые» модели искусственного интеллекта — машинные алгоритмы, созданные без ограничений этического характера и способные генерировать любой контент, включая вредоносный. Один из примеров таких моделей — WhiteRabbitNeo, рекламируемая как незамедлительно использующаяся в целях обеспечения безопасности и разработки DevSecOps, но одновременно служащая инструментом в руках преступников. Эксперты Cisco Talos предупреждают, что именно такие неограниченные LLM-модели идеально подходят для нелегального применения, так как они не фильтруют входящие запросы и способны отвечать на инструкции, связанные с вредоносной активностью. В итоге наблюдается общий тренд, при котором современные фишинговые методы становятся намного изощреннее: теперь злоумышленники используют искусственный интеллект не только для создания фальшивых страниц, но и для генерации поддельных писем, клонирования голосов и даже создания дипфейк-видео. Эти технологии позволяют быстро масштабировать атаки, делая их менее заметными и более правдоподобными.
Что это значит для бизнеса и пользователей? Прежде всего, риски компрометации учетных данных существенно возрастают. Массовое внедрение AI-генерированных фишинговых сайтов увеличивает число потенциальных жертв, а скорость создания новых ресурсов делает усилия по их блокировке чрезвычайно сложными. Компании должны усилить меры по защите пользователей с помощью многофакторной аутентификации, обучения сотрудников распознаванию фишинга и использования современных систем мониторинга и предотвращения атак. Также важно наладить сотрудничество с платформами разработки и хостинга, такими как Vercel, для своевременного обнаружения и блокировки злоупотреблений их инфраструктурой. Обеспечение кибербезопасности в эпоху искусственного интеллекта требует комплексного и проактивного подхода, включающего технологические решения и повышение осведомленности пользователей.