Появление искусственного интеллекта и особенно генеративных моделей значительно изменило облик цифрового контента. Одним из последних достижений в этой области стал Google Veo 3 — высококачественный видео-генератор ИИ, способный создавать реалистичные видео за считанные секунды. Однако, вместе с технологическим прогрессом возникают и серьезные проблемы, связанные с этической стороной использования подобных средств. Одной из них стало массовое появление расистского видеоконтента на TikTok, сгенерированного именно с помощью Veo 3. Эта ситуация вызвала обеспокоенность экспертов, представителей социальных сетей и простой аудитории, которую затрагивает такого рода дискриминация и проявления ненависти.
TikTok – одна из крупнейших социальных платформ, где пользователи ежедневно создают и просматривают миллионы коротких видеороликов. В силу своей широкой аудитории и привлекательных алгоритмов, она стала идеальным местом для распространения разнообразного контента, включая как позитивный и развлекательный, так и токсичный и вредоносный. В последние месяцы специалисты MediaMatters обратили внимание на резкий рост видео с расистскими и антисемитскими стереотипами, которые явно были сгенерированы ИИ Google Veo 3. Эти видео обычно длительностью до восьми секунд, на которых изображены оскорбительные карикатуры на разные этнические группы, в том числе чернокожих, евреев и иммигрантов. Основной проблемой является не просто создание таких роликов, а их удивительная реалистичность и качество, что повышает риск их восприятия зрителями как правдивых или приемлемых.
Современные методы генеративного ИИ совершенствуют детализацию и естественность изображения, и зачастую эти видео несут в себе скрытые, но мощные послания, базирующиеся на давно устаревших и опасных стереотипах. К примеру, изображения чернокожих людей часто сопровождаются деструктивными метафорами, увязывающими их с преступностью или обезьяноподобными образами — весьма оскорбительные и уничижительные намеки, несуществующие в реальной жизни, но усиленно представляемые в подобных материалах. Несмотря на существование строгих правил и у Google, и у TikTok, направленных на запрет такого рода контента, практика обнаруживает серьезные пробелы в их реализации. Так, в официальных руководствах TikTok прямо запрещается любое проявление ненависти и дискриминации — как в явной форме, так и скрытой. В частности, это касается материалов, которые нападают на уязвимые группы по признакам расы, этнической принадлежности, религии и другим основаниям.
Тем не менее, тысячи роликов с оскорбительным содержанием продолжают появляться и собирать просмотры. Сложность эффективного модераторского контроля связана с огромным объемом загружаемого ежедневно видео на платформу. Алгоритмы и автоматизированные системы распознавания не всегда способны полностью и безошибочно вычленить контент, нарушающий правила. Ошибочные срабатывания могут блокировать безвинные видео, тогда как некоторые вредоносные материалы проходят незамеченными. Человеческий фактор также ограничен из-за ограниченного количества модераторов и необходимости быстрого реагирования.
В ситуации с Veo 3 ситуация осложняется тем, что сгенерированные ИИ ролики имеют водяной знак Veo, что позволяет однозначно идентифицировать источник, но не решает проблему массового выпуска вредоносного контента. Google также заявляет о наличии у своей технологии защиты от распространения нелегального и вредоносного контента. В частности, Prohibited Use Policy компании запрещает применение ИИ сервисов для создания видео с элементами ненависти, запугивания, буллинга и прочего вреда. Однако, в портретных генерациях этот запрет сталкивается с проблемами интерпретации и контекстуального понимания. Так, Veo 3 при работе с размытыми или неоднозначными запросами может создавать ролики, опираясь на устаревшие стереотипы или символику, которая эффективно маскируется под безобидность, но несет негативный смысл.
Пользователи, заинтересованные в продвижении своих постов, нередко используют именно такие провокационные материалы, поскольку эмоции гнева, шока и возмущения вызывают больше взаимодействий — просмотров, комментариев и репостов. Это лишь усугубляет ситуацию и стимулирует дальнейшее производство подобного контента. Рисков в распространении подобных видео на медийных платформах больше, чем кажется на первый взгляд. Они не только поддерживают дискриминационные настроения и угрожают социальной гармонии, но и создают опасную среду для молодежи и уязвимых групп населения. Проблема модерации и этической ответственности в эпоху генеративного ИИ становится фундаментальной для компаний-разработчиков и владельцев платформ.
На сегодняшний день, несмотря на наличие технических решений, борьба с злоупотреблениями ИИ лишь на начальном этапе. Разработка более совершенных и чувствительных систем фильтрации требует значительных ресурсов и междисциплинарного подхода, сочетающего технологию, филологический анализ, психологию и социологию. TikTok и Google уже принимают меры — от удаления аккаунтов, распространяющих нарушающий правила контент, до усовершенствования алгоритмов выявления вредоносных роликов. Тем не менее, важно принимать во внимание, что скорость генерации и массовость загрузок часто опережают возможности контроля. В обозримом будущем можно ожидать еще больше трудностей с регуляцией таких материалов, особенно в условиях легализации и интеграции подобных технологий в массовые медиа, например, как запланирована интеграция Veo 3 в YouTube Shorts.