В современном мире, где цифровые технологии занимают все более важное место в нашей жизни, понятие «контент-модерация» становится все более знакомым. Эта сфера представляет собой одну из самых незамеченных и, при этом, жизненно важных частей работы популярных социальных платформ, таких как Facebook, Instagram и Twitter. С каждым днем количество пользовател и пользователей этих платформ растет, и с ним возрастает необходимость в обеспечении безопасности и благополучия сообщества. Однако за кулисами этого процесса лежит суровая реальность, о которой не так часто говорят. Основной проблемой является эксплуатация контент-модераторов, которые трудятся в условиях, вызывающих ужас и недовольство.
Недавняя публикация в MIT Technology Review освятила эту важную тему, уделив внимание тому, что контент-модераторы, работающие для таких гигантов, как Meta (владельцы Facebook), находятся в крайне тяжелых условиях. Будучи часто аутсорсированными подрядчиками, эти работники сталкиваются с рядом серьезных проблем, в том числе с психическим здоровьем, отсутствием адекватной поддержки и низкой оплатой труда. На первом плане этой ситуации стоит голос Сендя Хаксёза, контент-модератора, который впервые выступил перед членами Digital Ausschuss (Цифрового Комитета) в Бундестаге. Его слова отражают тяжелую действительность многих его коллег, которые работают в тени и чьи усилия часто остаются незамеченными. «То, что в темноте, не видно», - произнес он, описывая свою повседневную работу.
Хаксёз открыл двери в мир, о котором многие предпочли бы не знать. Его работа заключается в просмотре и оценке тысяч видеороликов и изображений, содержащих насилие, ненависть и непристойности. Эти материалы оставляют глубокие эмоциональные шрамы на его психике, а доступная поддержка со стороны работодателя оказывается недосягаемой. Он делится опытом о том, как ему и его коллегам не только приходится ежедневно сталкиваться с отвратительными изображениями, но также существовать под постоянным давлением времени и контроля. Что еще более тревожно, так это то, что многие контент-модераторы работают на условиях, которые не обеспечивают им даже самых базовых прав.
Они не являются сотрудниками Meta, а принадлежат к ресурсным компаниям, которые часто оказываются вне сферы влияния и ответственности крупных корпораций. Это означает, что они не получают многих преимуществ, которые мог бы предложить официальный статус работника, включая медицинскую страховку, оплачиваемый отпуск и, что немаловажно, психологическую помощь. Условия их труда во многом напоминают эксплуатацию, возникающую в результате глобализации: компании стремятся сократить расходы, а это приводит к outsourcing (аутсорсингу), дефициту прав и хороших условий труда. Таким образом, контент-модерация становится одной из наименее защищенных профессий в цифровой сфере. Страдают не только модераторы, но и само общество, так как отсутствие безопасной рабочей среды может сказаться на качестве работы и, в конечном итоге, на качестве контента, который мы все потребляем.
Эта проблема выходит далеко за рамки одной страны. Она затрагивает миллионы людей по всему миру. Как и в случае с другими формами труда, связанными с низкой оплатой и отсутствием защиты, контент-модерация стала символом глобальной эксплуатации. В то время как некоторые секторы экономики переживают бурный рост и получают высокие прибыли, многие работники остаются в тени, получая крохи за свой труд и подвергаясь непосильному моральному и эмоциональному давлению. Важно понимать, что с каждым «кликом» по кнопке «проверить контент», который выполняют модераторы, существуют десятки, если не сотни, частей их жизни, которые они жертвуют ради выполнения своих обязанностей.
Всевозможные видео насилия, расизма и ненависти становятся частью их повседневной рутины, оставляя душевные раны, которые невозможно исцелить. Чтобы решить эту проблему на уровне политики, необходимо создать законодательство, которое обеспечит защиту прав контент-модераторов. Они заслуживают того, чтобы их работа была признана важной, а их условия труда были улучшены. Для этого нужно вести диалог с технологическими компаниями, требовать соблюдения прав работников и обеспечивать им адекватную поддержку. Общественность также должна принять участие в этом процессе.
Мы, как потребители, можем задаваться вопросами об источниках и условиях производства контента, который мы ежедневно потребляем. Каждое взаимодействие на социальной платформе имеет значение, и от нас зависит, каким образом компании будут реагировать на безопасность и благополучие своих работников. Существует угроза, что, если ситуация не изменится, мы можем столкнуться с негативными последствиями, которые выйдут за пределы самих модераторов. Это может отображать общие стандарты безопасности и качества контента в интернете и оказать влияние на общее состояние общества. Если контент, который мы видим, проходит через фильтры, испытывающие на себе стрессы и травмы, то непонятно, каким образом это скажется на нашем восприятии реальности и, в конечном итоге, на нашем психологическом здоровье.
Таким образом, мир контент-модераторов требует нашего внимания и переосмысляющих взглядов. Эти работники играют важную роль в создании безопасной среды в цифровых пространствах, и они заслуживают заботы и поддержки, а не эксплуатации и забвения. Если мы хотим создать стабильное и здоровое общество, необходимо признать их труд и защитить их права. Необходимость в этом названии: «Ausbeutung mit globalem Ausmaß» — эксплуатация с глобальными масштабами.