Искусственный интеллект (ИИ) стал неотъемлемой частью цифрового мира, трансформируя способы создания и потребления контента. С каждым годом инструменты, позволяющие генерировать тексты, видео и изображения автоматически, становятся все более доступными и мощными. Однако вместе с преимуществами растет и количество так называемого «AI slop» — низкокачественного и поверхностного контента, который наводняет интернет и ставит под угрозу доверие пользователей. Настоящая тревога связана с тем, что даже высокопоставленные специалисты из Meta, компании, владеющей такими гигантами, как Facebook и Instagram, признают: проблема с «AI slop» неизбежна, а действенных способов ее решения у них пока нет. Генерация контента с помощью ИИ совершенствуется настолько быстро, что фильтры и системы контроля не успевают адаптироваться.
Примером компании, активно работающей в этом направлении, является стартап Hedra, который специализируется на создании видео до пяти минут длительностью. По словам их CEO Майкла Лингелбаха, технологии ИИ не просто производят больше «бездушного» материала, но и расширяют горизонты для создания как посредственного, так и действительно интересного контента. По сути, новые возможности становятся двойственным мечом — с одной стороны, облегчается доступ к творчеству, с другой — усложняется задача отсеивания качественного материала от шума. Общественное восприятие цифрового контента сильно меняется. Поток видеороликов, статей, картинок и мемов, порождаемый машинами, все труднее отличить от творений живых авторов.
Именно это вызывает тревогу у экспертов, таких как Генри Айдер, советник по политике в Meta и основатель фирмы Latent Space Advisory. Он открыто говорит о том, что эпоха «AI slop» неизбежна, и признается в растерянности по поводу способов борьбы с этим явлением. Проблема, по его словам, выходит за рамки простого раздражения пользователем низкокачественным контентом — она напрямую влияет на доверие к медиа и информацию в интернете. Подобный «засор» информации может привести к серьезным последствиям. Во-первых, пользователей становится сложнее ориентироваться в цифровом пространстве, чтобы найти действительно полезные и достоверные сведения.
Во-вторых, массовое производство однообразного или ложного контента усиливает эффект информационного шума и способствует распространению дезинформации. Наконец, это создаёт риски для создателей оригинального контента, чей труд оказывается затерянным в океане «AI slop». Платформы, куда обычно загружается такой контент, включая Facebook, Instagram, YouTube и другие социальные сети, находятся в постоянном поиске эффективных инструментов для фильтрации и проверки качества. YouTube, например, недавно обновил свои правила с целью бороться с массово производимым и повторяющимся контентом. Эти меры подразумевают модификацию алгоритмов для распознавания подозрительных материалов и снижение их видимости, что позволяет уменьшить влияние низкокачественного контента на пользовательскую аудиторию.
Тем не менее, эксперты подчеркивают, что это скорее частичное решение, нежели окончательный выход из ситуации. Отдельного внимания заслуживает момент этики и политики в отношении искусственного интеллекта. Существует множество дискуссий относительно границ использования ИИ в творчестве: что считать приемлемым, а что нет. Некоторые компании даже запрещают создание чат-ботов или контента от имени знаменитостей без их согласия. Однако тяжелее всего контролировать распространение и использование контента, сгенерированного автоматизированными системами, особенно если он может вводить в заблуждение или иметь негативные социальные последствия.
Развитие технологий также поменяло саму суть творчества и авторства. С помощью ИИ создавать контент теперь может любой пользователь без глубоких знаний и навыков, что открывает доступ к креативности, но одновременно приводит к появлению огромного количества однотипного, малоинтересного материала. Конкуренция за внимание конечного потребителя растет, и вопросы качества выходят на передний план. В то же время многие эксперты отмечают, что ИИ способен даже повысить стандарты, если его использовать с умом, например, для создания уникальных, информативных и художественно выразительных произведений. Сложившаяся ситуация требует глобального переосмысления подходов к регулированию ИИ и его влияния на цифровую медиа-среду.
Важным направлением является повышение прозрачности: необходимость четко понимать, что контент создан или подвергнут значительной обработке искусственным интеллектом. Это может помочь пользователям делать осознанный выбор и повысить общий уровень доверия к информации. Кроме того, развитию борьбы с «AI slop» способствует обучение пользователей — повышение их цифровой грамотности, умение критически воспринимать информацию и распознавать признаков фейкового или некачественного материала. В этом плане роль социальных платформ, образовательных учреждений и общественных организаций становится ключевой. В перспективе следует ожидать появления усовершенствованных инструментов, основанных тоже на ИИ, но ориентированных именно на выявление и фильтрацию низкокачественного контента.
Такие системы должны будут учитывать не только содержание, но и контекст, репутацию источника, формат и другие параметры для выявления массово сгенерированного и малозначимого материала. В итоге, искусственный интеллект становится мощным помощником и одновременно источником новых вызовов для цифрового информационного пространства. Позиция советников и экспертов из таких компаний, как Meta, свидетельствует о том, что избежать потока низкокачественного контента в обозримом будущем невозможно. Вместо этого акцент должен сместиться на поиск сбалансированных методов управления, внедрение инновационных технологий контроля и формирование ответственного потребления контента. Это новый этап в эволюции цифровых медиа, который изменит взаимоотношения между авторами, платформами и аудиторией.
Важно, чтобы в этой трансформации сохранилась ценность качественного, оригинального и полезного контента, а распространение «AI slop» не стало нормой, подрывающей доверие и качество интернет-пространства.