С развитием технологий искусственного интеллекта, способных создавать изображения, цифровые художники и творцы оказались в центре неоднозначной дискуссии. Главная проблема состоит в том, что генеративные модели обучаются на огромных наборах данных, включающих изображения, взятые из открытых источников в интернете. При этом многие из этих изображений являются объектами авторских прав, что вызывает справедливые опасения у авторов. Они опасаются, что их стили, концепции и индивидуальные особенности будут скопированы искусственным интеллектом без их согласия, что может напрямую снизить их профессиональные возможности и доходы. В ответ на эти вызовы были разработаны защитные инструменты, такие как Glaze и Nightshade, которые внедряют в изображения цифровые «отравляющие» помехи — небольшие, но специально спроектированные изменения пикселей, приводящие к сбою понимания изображения ИИ-моделями.
Это делается для того, чтобы искусственный интеллект неправильно классифицировал изображение или его стиль, тем самым снижая шанс его использования в качестве обучающих данных. Такие технологии показали себя эффективным техническим средством защиты творческого контента, особенно на фоне пока неустоявшихся регуляторных норм в области авторских прав и искусственного интеллекта. Однако новый инструмент под названием LightShed, разработанный исследователями из Кембриджа и ряда университетов, поставил под угрозу действенность этих методов. LightShed — это обученная модель, способная идентифицировать и устранять эти цифровые помехи, возвращая изображению изначальный вид для ИИ без искажений и делая возможным его повторное использование в обучающих наборах данных. Технология LightShed работает по принципу дифференцирования между «отравленными» и «чистыми» изображениями, восстанавливая «чистую» версию, воспринимаемую AI-моделями без искажений.
Авторы технологии отмечают, что их задачей не является кража или распространение чужого контента, а предупреждение сообщества об иллюзорной безопасности, которая порой может возникнуть при использовании текущих защитных средств. Они подчеркивают важность прозрачности со стороны компаний, занимающихся разработкой и применением AI. Одним из ключевых аспектов этой борьбы стала эволюция «отравляющих» техник. Например, Glaze фокусируется на изменении стиля изображения, заставляя ИИ воспринимать стиль работы как иной — например, преобразовать фотореалистичное изображение в мультяшное. В то время как Nightshade воздействует на восприятие сюжета, подменяя объекты, к примеру, заставляя ИИ ошибочно воспринимать кошку как собаку.
Эти методы создают отличительные границы в восприятии изображения, осложняя задачу моделей ИИ при обучении. LightShed, благодаря своей универсальности, может распознавать и устранять помехи, нанесённые различными защитными технологиями, включая Glaze, Nightshade и даже те, с которыми ранее не сталкивался, например Mist и MetaCloak. Это расширяет возможности обхода защитных слоев и ставит под сомнение эффективность существующих инструментов. При этом стоит отметить, что LightShed с трудом справляется с крайне небольшими дозами помех, однако такие легкие формы защиты вероятно и не могут полностью остановить обучение ИИ на таких изображениях. Масштаб применения защитных средств велик: порядка 7,5 миллионов пользователей, многие из которых – художники с малыми и средними аудиториями, используют Glaze для защиты своих работ.
Для них подобные технологии представляют собой единственную техническую возможность противостоять недобросовестному использованию контента в условиях отсутствия четкого законодательства. В этом контексте LightShed воспринимается как «звоночек» для всего сообщества, демонстрирующий, что текущие методы не являются окончательным и надежным решением. Ведущие создатели защит, такие как Шон Шан — исследователь, стоящий за Glaze и Nightshade, признают, что их разработки носят временный характер и должны рассматриваться скорее как инструмент сдерживания и знак серьезного отношения художников к защите своих прав. Они нацелены на то, чтобы создать достаточно много барьеров, которые заставят компании, работающие с ИИ, проявлять уважение к правообладателям и взаимодействовать с ними на законных условиях. Тем временем исследователи LightShed не останавливаются на достигнутом.
Они планируют использовать полученные знания для создания новых методов защиты, например, внедрять сложные водяные знаки, которые могут сохраняться даже после обработки изображения через ИИ-модель. Такие подходы обещают стать следующей ступенью в эволюции защит цифрового искусства. В условиях динамичного развития технологий искусственного интеллекта и цифрового творчества можно говорить о постоянной гонке вооружений между защитниками прав художников и разработчиками AI. Каждая новая техника защиты стимулирует появление новых методов обхода, и наоборот. При этом роль законодательства и общественного диалога становится как никогда важной.
Решения, принимаемые на уровне регулирования, могут значительно повлиять на баланс сил между творцами и технологическими компаниями, а также определить базовые нормы взаимодействия в цифровой среде. В заключение стоит подчеркнуть, что проблема защиты цифрового искусства от несанкционированного использования в обучении ИИ — одна из ключевых и сложных тем современного технологического общества. Прогресс технологий уже не позволяет полагаться исключительно на технические методы обороны, и требует комплексного подхода, включая правовые, культурные и этические аспекты. В то же время инновации, подобные LightShed, стимулируют переосмысление существующих подходов и поиск новых решений, что, в конечном счете, может привести к более справедливому и прозрачному будущему в сфере цифрового творчества.