В последние годы искусственный интеллект (ИИ) стремительно меняет способы общения и ведения дел в мировом сообществе. Вместе с тем, он открывает новые возможности для злоумышленников, желающих манипулировать информацией и распространять дезинформацию. Недавний инцидент с попыткой использования ИИ для имитации госсекретаря США Марко Рубио стал тревожным сигналом для дипломатического сообщества и государственных структур по всему миру. Этот случай свидетельствует о новой эре мошенничества, в которой эпитеты «высокотехнологичный» и «искусственный интеллект» обретают негативный оттенок, вызывая тревогу за безопасность коммуникаций и целостность государственных процессов.Имитация голосов и текстов с помощью ИИ-технологий становится все более изощренной.
По информации министерства иностранных дел США, неизвестный злоумышленник воспользовался технологиями искусственного интеллекта, чтобы отправить сообщения и голосовые записи членам дипломатического корпуса, включая иностранных министров, а также американским сенаторам и губернаторам. Тексты сообщений поступали через различные каналы связи, такие как традиционные SMS, защищенные мессенджеры Signal и голосовая почта. В данных сообщениях мошенник старался создать впечатление, что они исходят от Марко Рубио, с целью обмануть адресатов и получить доступ к чувствительной информации или влиять на решения на высшем уровне.Несмотря на то, что попытки обмана не были успешными и, по признанию источников из правительства, не отличались высокой сложностью, их существование демонстрирует тенденцию к росту киберугроз с использованием искусственного интеллекта. Государственные ведомства, в том числе Госдепартамент, незамедлительно отреагировали на инцидент, выпустив внутренние предупреждения для всех своих сотрудников и дипломатических представительств по всему миру.
Такие меры направлены на повышение осведомленности, предупреждение утечек информации и предотвращение дальнейших попыток злоумышленников.Этот случай является не первым в своем роде. Ранее в этом году выявлена аналогичная кампания, направленная на обман с использованием ИИ при попытках имитации голоса и контактов помощницы бывшего президента Дональда Трампа в целях компрометации лиц из политической и деловой сферы. FBI публично предупреждало о подобных схемах, где злоумышленники создают голосовые записи и текстовые сообщения, выглядящие подлинными и вызывающие доверие у получателей. Специалисты отмечают, что с ростом возможностей генеративных моделей ИИ совершенствуются и методы создания качественных фальсификаций, что значительно осложняет задачу распознавания обмана.
Подобные инциденты вызывают серьезные обсуждения о необходимости повышения медиаграмотности, разработки эффективных технологий для обнаружения подделок и ужесточения уголовного преследования за подобные действия. Связанные с ИИ кибермошенничества представляют собой не только угрозу конфиденциальной информации, но и подрывают доверие к средствам коммуникации. В частности, роль таких технологий весьма значительна в дипломатии, где каждое сообщение и каждое решение могут иметь далеко идущие последствия для международных отношений и безопасности.Профессора и эксперты в области компьютерных наук обращают внимание на «гонку вооружений» между создателями deepfake-технологий и разработчиками систем защиты от подделок. Ранее обнаружить «фальшивку» было проще из-за технических ошибок или неестественных особенностей голоса и изображения.
Однако современные ИИ-системы генерируют настолько реалистичные аудио- и видеоматериалы, что человеческий глаз и слух часто оказываются бессильны. Это поднимает вопрос о необходимости внедрения автоматизированных систем проверки, которые могут анализировать исходящие и входящие данные на предмет возможных фальсификаций.В ответ на растущую угрозу появились специальные приложения и программные инженерные решения, позволяющие распознавать deepfake и поддельные голосовые сообщения. Однако технические возможности этих систем пока не всегда успевают за креативностью мошенников. К тому же проблема усугубляется тем, что коммуникация на высоком уровне зачастую требует мгновенной реакции, снижая шансы на проведение полноценной технической проверки каждой рекомендации или распоряжения.
Стоит отметить социальный аспект проблемы. Появление подобного рода обмана вызывает сомнения и панику среди государственных служащих и партнеров по всему миру, что может замедлить процессы принятия решений и стратегическое взаимодействие. Кроме того, эти случаи порождают скептицизм в отношении достоверности информации, что негативно сказывается на общем уровне доверия между странами и внутри политической системы.Вместе с вовлечением правоохранительных органов и спецслужб, международное сообщество вынуждено искать новые пути адаптации к реалиям, диктуемым развитием искусственного интеллекта. Безопасность информационных систем и коммуникаций требует регулярного обновления стандартов и обучения персонала.