В последние годы искусственный интеллект стремительно трансформирует цифровой мир, с каждым разом приближая границы между реальным и синтетическим контентом. Одним из свежих достижений в этой области стал выпуск Google DeepMind своего инструмента Veo 3 — системы генерации видео длительностью до восьми секунд на основе текстовых запросов. Несмотря на впечатляющие результаты и доступность технологии бесплатно, запуск Veo 3 вызвал волну тревог в экспертных кругах и среди широкой публики, связанной с возможным ростом дезинформации и распространением поддельных видео с фальшивыми новостями. При всей своей технологической инновационности инструмент столкнулся с критикой за недостаточные меры безопасности и потенциальную угрозу для общественного доверия к информации. Veo 3, по заявлениям Google, предназначен для ответственного использования и снабжен интегрированными средствами защиты, такими как водяные знаки SynthID и видимые метки на сгенерированных видео.
Впрочем, эксперименты журналистов Al Jazeera показали, что пока эти защитные функции не полностью реализованы, и при помощи Veo 3 можно без особых сложностей создавать реалистичные, но полностью вымышленные видеоматериалы. Изучение созданных роликов демонстрирует, насколько сложно обычному зрителю отличить искусственно сгенерированный контент от подлинного. Один из созданных видео-роликов изображал протесты в Нью-Йорке с обвинениями, что участники получали оплату — распространённый политический нарратив, направленный на дискредитацию протестных движений. Особенно тревожным оказался факт создания фейковых видео с изображением ракетных обстрелов в таких городах, как Тегеран и Тель-Авив. Эти видео вызвали значительное беспокойство у местных жителей, усугубляя и без того напряжённую ситуацию в регионах, где реальная угроза военных конфликтов постоянно висит над головами.
Платформа GeoConfirmed, специализирующаяся на проверке достоверности данных, зафиксировала рост количества таких фальшивых видео, что свидетельствует о том, как генеративный ИИ используется для политических манипуляций и дестабилизации общественного мнения. Опасения усилились после того, как специалисты по выявлению дипфейков, такие как Бен Колман из Reality Defender, публично признали, что самостоятельно смогли создать вводящие в заблуждение видео, используя лишь одну фотографию и минимальные ресурсы. Это подчеркивает, что подобные технологии стали доступными не только для крупных организаций с огромными бюджетами, но и для частных лиц и потенциальных злоумышленников, что значительно увеличивает риски распространения ложной информации. Google, отреагировав на критику, заявил об обязательстве развивать технологии ИИ ответственно и призвал к соблюдению строгих правил, направленных на предотвращение вредных последствий. Тем не менее многие эксперты утверждают, что компания поспешила с выпуском Veo 3, находясь под сильным давлением конкурентов, таких как OpenAI и Microsoft.
По словам Джошуа МакКенти, CEO компании Polyguard, это является доказательством того, как гонка за лидерство в области ИИ зачастую ставит коммерческие интересы выше вопросов безопасности и этики. Вся эта ситуация иллюстрирует глубокую дилемму, с которой сталкиваются современные технологические гиганты. С одной стороны, отказ от инноваций в области генеративного ИИ грозит потерей позиций на рынке и снижением инвесторского доверия. С другой — стремительный выпуск технологических продуктов без полноценных систем защиты и регулирования приводит к рискам обрушения доверия пользователей и разрушительным последствиям в информационной среде. Негативное воздействие Veo 3 и аналогичных инструментов выходит за рамки отдельных региональных конфликтов и политических протестов.
Недавние случаи масштабных подделок новостных сюжетов с использованием фирменной графики таких телеканалов как CNN, ABC и NBC шокируют своей реалистичностью. Один из примеров — фальшивая новость о затонувшей яхте JK Роулинг вследствие атаки касатки, которая была создана с целью проверки возможностей инструмента, но продемонстрировала, как легко распространять подобные ложные сообщения в сети. Это особенно опасно для старшего поколения, менее знакомого с тонкостями цифровой грамотности и более доверчивого к таким видео. При этом молодые пользователи, несмотря на цифровую подкованность, больше подвержены влиянию дезинформации из-за активного использования социальных сетей, где часто отсутствуют надлежащие редакционные стандарты и механизмы проверки. Исследования показывают, что почти половина пользователей доверчиво воспринимают поддельные видеоролики, распространяемые в мессенджерах и социальных платформах.
Исходя из опыта многих экспертов, эффективность существующих форматов защиты и обнаружения дипфейков пока оставляет желать лучшего. Злоумышленники с каждым днем развивают новые методы обхода водяных знаков и других идентификаторов оригинального контента, что создаёт высокую скорость и сложность устранения последствий таких манипуляций. В таких условиях борьба с фальшивыми видео становится не простым техническим вызовом, а социально-политической задачей глобального масштаба. Помимо Google, и другие компании активно развивают технологии создания синтетического медиа. К примеру, Deepbrain предлагает услуги создания аватаров, а Synthesia и Dubverse специализируются на дублировании и переводе видео.
Однако ни одно из этих решений в полной мере не сопоставимо с возможностями Veo 3 по реализации полносценарного контента с реалистичной визуализацией и озвучкой, что подчеркивает уникальность и потенциальную опасность данного инструмента. Происходящие изменения заставляют переосмыслить подходы к медиаобразованию, безопасности информационного пространства и правовым аспектам распространения аудио-визуального контента. Кроме того, важна роль платформ, отвечающих за распространение видео, в принятии мер для предотвращения распространения манипулятивного и опасного для общества контента. Отраслевые эксперты призывают к развитию более совершенных технологий распознавания поддельных видео и внедрению многоуровневых систем защиты, а также к международному сотрудничеству в области регулирования и этики использования искусственного интеллекта. Одновременно необходимо повышать уровень цифровой грамотности среди населения, чтобы минимизировать воздействие дезинформации и укреплять критическое мышление.
Позиция Демиса Хассабиса, лидера DeepMind, подчеркивает важность тщательного и осознанного развития технологий, а не гонки за скоростью внедрения. Его взгляд на процессы индустрии остаётся актуальным: безопасность и этика должны быть в приоритете. Тем не менее, ситуация с Veo 3 демонстрирует, что на практике баланс между инновациями и ответственностью пока далек от идеала. В целом, появление инструментов вроде Veo 3 знаменует новую эру в распространении информации и поднимает серьёзные вопросы о будущем медиа и коммуникаций. Готовность общества, регулирующих органов и самих разработчиков к решению этих вызовов определит, смогут ли современные технологии служить во благо, а не становиться оружием в руках манипуляторов и злоумышленников.
От того, насколько быстро и эффективно будут внедрены механизмы защиты и контроля, зависит сохранение доверия к информации и устойчивость демократических институтов в цифровом мире.