В современном цифровом мире искусственный интеллект стремительно проникает во все сферы жизни. Технологии, которые прежде казались фантастикой, сегодня становятся обыденностью. Однако вместе с развитием AI возникают и новые проблемы, связанные с этикой, восприятием реальности и социальными конфликтами. Ярким примером этого стал интернет-феномен, когда на платформах социальных сетей появился «Джош» — визуальный AI-аватар молодого белого мужчины, который делал провокационные заявления о рынке труда в Канаде и миграционной политике. История «Джоша» раскрывает не только технические возможности современных AI-систем, но и серьезные вызовы, с которыми сталкивается общество в эпоху цифровых технологий.
«Джош» — персонаж, созданный с помощью передового программного обеспечения от компании Nexa, использующей технологию Google Veo AI. Видеоматериалы с участием этого персонажа быстро привлекли внимание пользователей TikTok, поскольку в них звучали эмоционально насыщенные и явно провокационные высказывания. Он жаловался, что не может найти работу в Торонто и утверждал, что места заняты преимущественно индийскими иммигрантами. Особенно запомнилось видео, в котором «Джош» заявил, что при устройстве на работу в сетевую кофейню Tim Hortons его спросили, владеет ли он пенджабским языком. Такие заявления вызвали бурную реакцию как в комментариях, так и за пределами платформы.
При этом многие пользователи заметили, что герой видео выглядит слегка неестественно — его движения и жесты выдают компьютерный синтез, а цвета кожи рук не совпадают. Некоторым удалось подметить, что на роликах присутствует маленький логотип Google Veo, указывающий на использование AI. Несмотря на эти нюансы, часть аудитории приняла «Джоша» за реального человека, что породило волну обсуждений на темы занятости, иммиграции и межкультурных отношений в Канаде. Компания Tim Hortons публично выразила обеспокоенность и раздражение по поводу появления подобных видео с ложной информацией, подрывающей репутацию компании и вызывающей социальную напряженность. Платформа TikTok также была вынуждена удалить счетчик, который публиковал эти ролики, ссылаясь на нарушения правил сообщества, а именно на отсутствие явного указания на искусственное происхождение контента.
Представители TikTok подчеркнули важность четкой маркировки AI-сгенерированных видео, чтобы пользователи могли отличать настоящих людей от компьютерных персонажей. Такого рода маркетинговые приемы получили термин «фейк-флюенсинг» (fake-fluencing) — создание фальшивых личностей с помощью AI для продвижения продуктов или услуг. В данном случае разработчики не только рекламировали свои технологии, но и пытались вызвать эмоциональный отклик у аудитории, используя острые и спорные темы. Основатель Nexa, Диви Найяр, в интервью признал, что хотел «повеселиться» с образами, связанными с убеждениями о том, что иммигранты занимают рабочие места молодых канадцев, однако подобный подход вызывает серьезную критику экспертов. Специалисты по маркетингу и этике указывают на то, что подобные приемы крайне проблематичны.
Маркус Гизлер, профессор маркетинга из университета Йорка, назвал кампанию «неэтичной, вводящей в заблуждение и больше похожей на манипуляции, свойственные радикальным группам». Он отметил, что эмоциональное воздействие и провокационные сообщения усиливают социальное разделение и могут подпитывать предрассудки и ненависть в обществе. Технологии искусственного интеллекта быстро совершенствуются. Современные версии Google Veo, такие как Veo3, способны создавать видео, которые практически невозможно отличить от реальных по внешним признакам. Голос и движения персонажей синхронизированы так хорошо, что даже опытный зритель может испытывать сомнения.
Это открывает новые горизонты для маркетинга, развлечений и дезинформации. Профессор Марвин Райдер из Макмастерского университета отмечает, что в скором времени различие между реальным человеком и AI-аватаром будет практически неуловимым, что ставит перед обществом серьезные вопросы о доверии и ответственности. Пользователи социальных сетей отреагировали на появление фейкового персонажа по-разному. Одни сразу уличали видео в создании искусственным интеллектом и пытались донести эту информацию до других, предостерегая от восприятия промывочных идей. Другие, напротив, поддерживали «Джоша» и воспринимали его критику как отражение своей реальности, усиливая тем самым социальную напряженность.
Интересно, что в комментариях под видео «Джош» даже отвечал подписчикам, создавая иллюзию реального диалога и подкрепляя впечатление о своей правдивости. Современные платформы, такие как TikTok, сталкиваются с серьезной дилеммой: как сбалансировать свободу выражения с ответственностью за распространение ложной и манипулятивной информации. Платформа требует четких меток и водяных знаков на AI-контенте, однако операции по выявлению и маркировке далеко не идеальны и требуют дальнейшего совершенствования. В результате на площадках по-прежнему остаются ролики, которые могут вводить в заблуждение массовую аудиторию. Пример с «Джошем» демонстрирует более широкую проблему современного общества — это борьба с фейковыми новостями, дезинформацией и манипуляциями, замаскированными под личные мнения и переживания.
Технологии AI создают для этого новые инструменты, делают таких псевдоперсонажей более убедительными и влиятельными. В этом контексте возрастает роль образования в области цифровой грамотности, а также необходимость законодательных инициатив, регулирующих создание и распространение подобных материалов. Помимо социальных аспектов, данный кейс затрагивает вопросы ответственности компаний, использующих AI в коммерческих и маркетинговых целях. Технический прогресс не должен снижать этические и моральные стандарты коммуникаций с аудиторией. Создание и распространение заведомо провокационных или неоднозначных сообщений, способных привести к дискриминации или наполнять общественное пространство конфликтами, требует принятия более строгих норм и саморегулирования отрасли.