В Ирландии работники одной из крупнейших аутсорсинговых компаний, обслуживающих Meta, начали открыто говорить о тяжелых условиях труда, связанных с подготовкой искусственного интеллекта, и об огромном психологическом воздействии, с которым им приходится сталкиваться. Эта отрасль постепенно привлекла внимание общественности, поскольку она формирует будущие алгоритмы ИИ, определяющие, как социальные сети будут реагировать на настоящие запросы пользователей, что напрямую влияет на миллионы жизней по всему миру. Компания Covalen, расположенная в Ирландии и обслуживающая технологического гиганта Meta, нанимает сотни сотрудников для выполнения сложных задач по аннотированию данных и модерации контента, в том числе для тренировки моделей ИИ, таких как Llama. Однако реальность работы этих сотрудников далека от обычных офисных задач. Многие из них вынуждены в течение целых смен создавать провокационные и шокирующие запросы, имитируя злоумышленников, например, педофилов или людей с суицидальными намерениями, чтобы помочь ИИ научиться распознавать и корректно реагировать на опасный контент.
Такая работа оказывает колоссальное давление на психологическое здоровье работников. Один из сотрудников признался, что, ежедневно создавая запросы, связанные с темой самоубийства, он впервые в жизни начал наносить себе увечья. Этот случай стал не единственным, когда подобное задание приводило к серьезным психическим проблемам. Медицинские документы подтверждают факт самоповреждений, а коллеги также делились историями о ночных кошмарах, тревожных снах, в которых они видят себя либо жертвами, либо даже преступниками. Практика имитации вредоносного поведения с целью обучения искусственного интеллекта порождает серьезные этические и правовые вопросы.
Многие сотрудники жалуются на недостаток подготовки и предупреждений перед сменой на новые проекты, в частности, таких, где придется работать с особо тяжелым материалом. Отсутствие адекватной поддержки и разделения нагрузки между командами усугубляет ситуацию. Некоторые описывают, как руководители требуют ускорения работы, игнорируя эмоциональное и психологическое состояние подчиненных. Кроме психологических трудностей, сотрудники сталкиваются с проблемами социального характера. В последние годы Meta внесла изменения в политику модерации контента, разрешив находится в сети определённые оскорбительные материалы, включая гомофобный контент, который ранее блокировался.
Для некоторых модераторов, в том числе представителей ЛГБТ-сообщества, это стало дополнительным источником стресса и чувства морального конфликта. Несмотря на предупреждения и просьбы работников, руководство компании не предприняло эффективных мер по улучшению ситуации. Негативно отражается на сотрудниках и отсутствие справедливых условий труда. Ранее у работников были некоторые бонусы и льготы, включая бесплатное питание, которое пошло на убыль из-за решений Covalen и повлиявших Meta. Это вызвало волну недовольства, ведь зарплаты остаются на уровне около 29 700 евро в год, что по меркам Дублина и Ирландии едва покрывает расходы на жильё, транспорт и повседневные нужды.
Снижение качества обслуживания и сокращение перерывов на отдых вызывает дополнительные опасения по поводу безопасности и здоровья сотрудников. В ответ на ситуацию около сотни работников объединились в профсоюз Communications Workers Union (CWU) и активно выступают за увеличение заработной платы, улучшение условий и систем поддержки психического здоровья. Они также отстаивают право на полноценное представительство по вопросам охраны труда, что на сегодняшний момент было затруднено из-за бездействия работодателя по отношению к легитимно избранному представителю. Несмотря на угрозы и проблемы, коллектив стремится добиться более прозрачных и гуманитарных стандартов работы. История Covalen и Meta — это отражение глобальной тенденции, когда технический прогресс и автоматизация требуют от человека выполнять труднейшие задачи, связанные с психической нагрузкой и моральным выбором.
По мере того как ИИ становится всё более интегрированным в повседневную жизнь, крайне важно обратить внимание на тех, кто помогает обучить эти технологии, защищая общество от опасного и незаконного контента. Пока компании стремятся к прибыли и росту новых возможностей, они должны также задать себе вопрос об ответственности за состояние здоровья и благополучия своих работников. Невнимание к этим аспектам ведёт не только к ухудшению качества жизни сотрудников, но и потенциально снижает эффективность систем ИИ, которые нуждаются в адекватном и этичном обучении. Для сотрудников, переживших тяжелые психологические испытания, сейчас доступны различные службы поддержки, включая национальные и международные горячие линии для помощи людям в кризисных ситуациях. Это подчеркивает важность комплексного подхода к работе в индустрии модерирования и аннотирования, который должен включать не только технические, но и существенные психологические ресурсы.
Ирландский пример раскрывает уникальную картину борьбы простых работников с вызовами XXI века и заставляет сделать вывод о необходимости более ответственного подхода к организации труда в быстро меняющихся условиях искусственного интеллекта. Освещение этой темы важно для повышения осведомленности общества и привлечения внимания работодателей и законодательных органов к условиям такой непростой работы. В конечном счёте, будущее технологической отрасли напрямую зависит от расширения прав и защиты тех, кто стоит за сложными алгоритмами и модерацией контента. Только при создании сбалансированной и этичной системы возможно обеспечить устойчивое развитие технологий и безопасность пользователей по всему миру.