В эпоху стремительного развития искусственного интеллекта и широкой интеграции чат-ботов в повседневную жизнь, многие пользователи всё чаще обращаются к таким системам, как ChatGPT, чтобы получить быстрые ответы на важные вопросы. В числе популярных запросов — ссылки на официальные сайты для входа в личный кабинет банков. На первый взгляд, использование ИИ кажется удобным и надёжным способом получить достоверную информацию, но проблема в том, что современные большие языковые модели (LLM), которые лежат в основе таких помощников, часто ошибаются и могут посоветовать неправильные, а иногда и опасные URL-адреса банков. Это создаёт настоящий рай для фишеров и злоумышленников, которые с лёгкостью могут использовать доверие пользователей к искусственному интеллекту для кражи личных данных и денежных средств. Недавние исследования компании Netcraft показали, что при запросах вида «Подскажите официальный сайт для входа в мой банковский аккаунт [название банка]» языковая модель в 34% случаев советует URL, которые не контролируются настоящими брендами.
Из них почти треть — это незарегистрированные или «заброшенные» домены, которые злоумышленники могут быстро захватить и использовать в качестве ловушек. Ещё 5% ссылок ведут на сайты, не связанные с брендом, но выглядящие как легитимные компании. Таким образом, более трети пользователей рискуют попасть на сайты, которым нельзя доверять, просто используя рекомендации ИИ-систем. Эти результаты серьёзно бьют по доверию к искусственному интеллекту и поднимают вопрос о безопасности пользователей, которые всё больше полагаются на чат-боты не только для поисковых задач, но и для операций, связанных с финансами. Особенно опасен факт, что ошибки не связаны с намеренными попытками обмануть ИИ — модель просто не обеспечивает необходимую точность и проверку данных на предмет подлинности доменов.
Именно это превращает ИИ в удобный инструмент для масштабных фишинговых кампаний, где доверие к инструменту побуждает пользователей без страха переходить по опасным ссылкам. Тревожный пример реальной ситуации произошёл с AI-поисковой системой Perplexity, которая в ответ на запрос, где находится официальный сайт Wells Fargo для входа, выдала ссылку на бесплатный сайт Google Sites, маскирующийся под страницу банка. Пользователь, следуя совету ИИ, попадал именно на фишинговую страницу, из-за чего реальный сайт оказался скрытым в результатах поисковой выдачи. Такой случай наглядно демонстрирует, как традиционные сигналы безопасности, например, доменная репутация или SEO-фильтры, со стороны этих новых AI-интерфейсов игнорируются либо оказываются слабо задействованы. Проблема особенно актуальна для небольших и региональных банков, которые реже появляются в обучающих данных моделей, что повышает вероятность их неправильного распознавания.
В то же время у таких финансовых учреждений меньше ресурсов для защиты своей марки и реагирования на угрозы. Успешные атаки на локальные банки ведут к масштабным потерям клиентов, подрыву доверия и затруднениям с регуляторами. Интересно, что именно средний и малый бизнес сейчас находится в зоне повышенного риска, в то время как крупные международные корпорации способны эффективнее мониторить и нейтрализовать такие атаки. Фишеры, несмотря на традиционные методы SEO, адаптируются к новым реалиям и создают страницы, оптимизированные специально под алгоритмы и модели ИИ. Например, тысячи фишинговых страниц, маскирующихся под отзывы и техническую документацию, уже активно распространяются в сети.
Их тексты грамотно написаны и выглядят убедительно для машинного анализа, что делает их почти идеальными «потенциальными жертвами» для ИИ, выдающего их на запросы пользователей. В некотором роде современные атаки выходят на новый уровень, когда злоумышленники не просто создают вредоносные сайты, но и внедряют свои фишинговые ресурсы в процессы обучения и рекомендаций AI-кодовых помощников. Примером служит кампания с поддельным API для блокчейна Solana, который был тщательно маскирован разработчиками злоумышленниками. Этот API выглядел официально благодаря множеству подконтрольных репозиториев и обсуждений, что дало возможность модели рекомендовать его программистам. Такой подход демонстрирует волнообразное распространение вредоносного кода через доверие разработчиков, опирающихся на AI-инструменты, и осложняет борьбу с угрозами.
Настоящее решение проблемы невозможно свести к простому резервированию всех возможных доменов с похожими именами. Во-первых, разнообразие форматов слишком велико, и процесс окажется непрактичным. Во-вторых, типичные пользователи при взаимодействии с ИИ уделяют мало внимания деталям URL, что значит, что и самые необычные домены могут быть восприняты как достоверные. При этом основной упор нужно делать на продвинутый мониторинг и системы быстрого реагирования, которые способны обнаруживать и блокировать фишинговые сайты задолго до того, как они попадут к массовой аудитории. Компания Netcraft призывает к внедрению систем, которые дополняют машинное обучение — специализированными проверками, включающими свыше 70 тысяч правил, основанных на экспертных знаниях.
Такая комплексная защита снижает вероятность «галлюцинаций» у ИИ и позволяет эффективно находить реальные угрозы. При этом технологии, ориентированные на контекст и специфические особенности брендов, обходят проблему распространённых ошибок и становятся надёжным щитом для пользователей и самих компаний. Со временем ИИ станет ещё глубже интегрирован во все сферы жизни, и его роль в кибербезопасности будет увеличиваться. Игнорировать проблемы, связанные с неправильной выдачей URL и фишингом, опасно и чревато масштабными последствиями. Бренды должны осознавать, что рынок атак меняется, и уже сегодня строить стратегии защиты и улучшения качества выдачи в AI-среде.
Пользователи, в свою очередь, должны сохранять критическое мышление и не слепо доверять первым подсказкам от искусственного интеллекта, особенно когда дело касается конфиденциальных данных и финансов. В итоге, вопрос безопасности в эпоху ИИ — это не только техническая задача, но и вызов для всей цифровой экосистемы, который требует совместных усилий компаний, специалистов по безопасности и самих пользователей. Только так возможно свести к минимуму риски подмены сайтов и сохранить доверие к автоматизированным помощникам, сделав их действительно надёжным ресурсом, а не плацдармом для мошенников.