DeFi

Как мошенники используют дипфейк для кражи миллионов: случай с $25 миллионами, переведенными из-за видео-звонка с поддельным CFO

DeFi
Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’

Рассказывается о масштабном мошенничестве с применением технологии дипфейк, благодаря которой злоумышленники заставили сотрудника финансовой компании перевести $25 миллионов. Уделяется внимание деталям инцидента, методам обмана и мерам предосторожности, которые могут помочь избежать подобных случаев.

В современном мире технологии развиваются стремительно, и вместе с ними появляются новые угрозы и вызовы кибербезопасности. Одним из самых опасных направлений злоупотребления инновациями стала технология дипфейк — искусственное создание видео и аудио, способное практически идеально имитировать внешность и голос конкретного человека. Недавний случай в Гонконге, где сотрудник финансовой компании перевел $25 миллионов мошенникам, которые использовали дипфейк, наглядно демонстрирует опасность подобных методов и подчеркивает необходимость повышения киберграмотности и защиты в корпоративном секторе. Этот инцидент стал одним из самых резонансных примеров применения ИИ в финансовом мошенничестве и вскрыл ряд уязвимостей даже в крупных международных корпорациях. Суть происшествия заключалась в том, что сотрудник финансового отдела получил приглашение принять участие в видеоконференции, на которой присутствовал, как ему казалось, главный финансовый директор (CFO) его компании из Великобритании, а также другие сотрудники.

Однако все участники видеозвонка оказались искусственно создаными образами — дипфейками, сгенерированными на основе публичных видео и аудиозаписей. Используя подобную технологию, мошенники смогли добиться такого уровня достоверности, что жертва не заподозрила подмену и согласилась на перевод крупной суммы денег в размере 200 миллионов гонконгских долларов — около 25,6 миллиона долларов США. Как объяснили представители полиции Гонконга, рабочий изначально отнесся с подозрением к электронному письму с предложением провести секретную операцию, однако на видео-конференции, где, казалось, присутствовали знакомые лица и знакомые голоса коллег, он отказался от своих сомнений. Такие факторы доверия, подкрепленные визуальными и аудиовоспроизведениями, убедили его провести транзакцию. Обнаружение обмана произошло уже после того, как сотрудник напрямую связался с головным офисом компании, убедившись, что никто из реальных сотрудников не инициировал данную сделку.

Это преступление стало частью более широкой тенденции роста случаев применения дипфейков в финансовом мошенничестве по всему миру. Злоумышленники активно используют искусственный интеллект не только для имитации внешности и голоса руководителей, но и для обхода систем безопасности, включая технологии распознавания лиц, что делает ситуацию особенно тревожной. Гонконгская полиция сообщила, что за последний год было зафиксировано как минимум шесть случаев, где преступники рассылали фальшивые видеозаписи и аудиосообщения, а также использовали поддельные документы и украденные удостоверения личности для совершения преступлений. Практически в каждом случае формат мошенничества был схожим: преступники изучали поведение и речь своих целей, создавали маски из похищенных персональных данных и публично доступных материалов, а после – проводили тщательно спланированные операции, которые выглядели естественно и вызывающе доверие. В одном из эпизодов были задействованы восемь украденных удостоверений личности, что позволило злоумышленникам оформить десятки кредитных заявок и открыть десятки банковских счетов.

На практике это подчеркивает, насколько глубока интеграция искусственного интеллекта в преступный мир и насколько сложно защититься обычными методами. Образцы дипфейков, созданных для мошенничества, отличаются высоким качеством. Они позволяют не только имитировать внешность, но и воспроизводить мимику, жесты, тембр голоса и даже интонации, что затрудняет обнаружение подделки даже для специалистов. Вместе с тем, появление таких технологий также вызывает серьезные корпоративные риски, ведь доверие к видео- и аудиоматериалам, которые традиционно считались надежными средствами подтверждения информации, начинает снижаться. Случай в Гонконге послужил своеобразным предупреждением для многих компаний по всему миру.

Он показывает, что внутренние процессы проверки, особенно в области финансовых операций, должны подвергаться пересмотру и усилению. Применение многофакторной аутентификации, прямое подтверждение сделок с помощью нескольких независимых каналов коммуникации и обязательные проверки личных встреч с высшим руководством становятся необходимыми мерами для предотвращения подобных инцидентов. Помимо корпоративных мер, инциденты с дипфейками поднимают вопрос о необходимости регулирования и законодательного контроля применения технологий искусственного интеллекта. В настоящее время большинство стран не имеют четких норм, регулирующих использование дипфейков, что создает серьезные риски для безопасности и прав граждан. Инциденты с мошенничеством требуют совместных усилий властей и разработчиков ИИ для разработки стандартов и создания инструментов, позволяющих надежно выявлять подделки.

Проблема не ограничивается только корпоративной сферой. В 2024 году широкое обсуждение получил случай с порно-дипфейками, где подделывались изображения известной американской певицы Тейлор Свифт. Эти фотографии, созданные также с использованием искусственного интеллекта, распространились в социальных сетях и были просмотрены десятки миллионов раз, прежде чем социальные платформы начали их удалять. Этот пример вновь доказал, как быстро новые технологии могут быть использованы во вред, особенно для создания вредоносного контента и клеветы. В условиях стремительного распространения дипфейков и других видов киберпреступлений важно каждому сотруднику, особенно связанного с финансами и управлением, обладать пониманием особенностей новых угроз.

Автоматическая торговля на криптовалютных биржах Покупайте и продавайте криптовалюты по лучшим курсам Privatejetfinder.com (RU)

Далее
President Biden's AI executive order has 'dangerous limitations,' says deepfake detection company CEO
Воскресенье, 14 Сентябрь 2025 Почему исполнительный указ Байдена по ИИ имеет опасные ограничения — мнение экспертов в области обнаружения дипфейков

Разбор основных проблем и ограничений в исполнении недавнего исполнительного указа президента Байдена, направленного на регулирование искусственного интеллекта, а также взгляд CEO компании Reality Defender на недостатки подхода с водяными знаками и пути решения для защиты пользователей от мошенничества и манипуляций.

Microsoft Reveals New Cybersecurity Worry as Hackers Target Its AI Model
Воскресенье, 14 Сентябрь 2025 Новые вызовы кибербезопасности: как хакеры атакуют ИИ-модели Microsoft

Обзор современной угрозы безопасности в сфере искусственного интеллекта, вызванной попытками хакеров обойти защитные механизмы Microsoft и воздействовать на облачные AI-системы. Рассмотрены риски, последствия и возможные пути защиты в условиях растущего использования ИИ.

I’m an AI expert – there are two clear signs of a deepfake to look out for to prevent getting conned, they’re obvious
Воскресенье, 14 Сентябрь 2025 Как распознать дипфейк: два очевидных признака, которые помогут избежать обмана

Современные технологии искусственного интеллекта создают новые вызовы для безопасности в интернете. Распознавание дипфейков становится обязательным навыком для защиты от мошенничества и обмана.

LastPass: Hackers targeted employee in failed deepfake CEO call
Воскресенье, 14 Сентябрь 2025 Как LastPass остановил атаку с использованием дипфейк-голоса CEO: уроки для бизнеса

Раскрыт инцидент с использованием искусственного интеллекта для имитации голоса CEO компании LastPass, демонстрирующий современные угрозы безопасности и эффективные методы защиты от фишинговых атак с применением дипфейк-технологий.

Bitcoin Futures Dip to 3-Month Low Amid Surging ETF Inflows
Воскресенье, 14 Сентябрь 2025 Падение премии на фьючерсы Биткоина до трёхмесячного минимума на фоне роста притока средств в ETF

Обзор текущих тенденций на рынке Биткоина, включая снижение премий на фьючерсные контракты и значительный рост инвестиций в биржевые фонды (ETF). Анализ влияния этих факторов на инвесторское настроение и будущие перспективы цифрового актива.

Hedge Fund Execs Fear Bitcoin’s Fate in Post-Trump Era: Insights from Eric Semler
Воскресенье, 14 Сентябрь 2025 Испытания Биткоина в эпоху после Трампа: мнение Эрика Семлера и опасения руководителей хедж-фондов

Анализ изменений в регулировании криптовалют после Трампа с акцентом на опасения руководителей хедж-фондов и важность формирования четкой регуляторной базы для стабильного роста криптоиндустрии.

Reddit Explores Using Global Scanning Tech for User Verification: Report
Воскресенье, 14 Сентябрь 2025 Reddit внедряет глобальные технологии сканирования для верификации пользователей на основе блокчейна

Reddit продолжает интеграцию передовых решений блокчейн-технологий, используя инновационные сканирующие орбы для повышения безопасности и достоверности пользовательских аккаунтов. Новые инструменты усиливают доверие и развивают криптовалютные возможности на платформе, открывая новые горизонты для взаимодействия и цифровой экономики.