Искусственный интеллект в наше время воспринимается как результат самых передовых технологий и алгоритмов, работающих автономно и без участия человека. Однако реальность намного сложнее и интереснее. За каждым достижением в области ИИ стоит огромный массив трудозатрат тысяч рабочих по всему миру, чья роль почти полностью остается незаметной для конечных пользователей. Эти люди занимаются разнообразными формами работы, которая условно называется «кроудворк», «данные труда» или «призрачный труд», поскольку выполнение многих задач происходит в тени и скрыто от глаз большинства. Но без их усилий нынешняя волна развития искусственного интеллекта была бы немыслима.
Пожалуй, одним из самых наглядных примеров такого лабораторного труда является проект ImageNet — колоссальный набор данных с миллионами подписанных изображений, который стал фундаментом для обучения систем компьютерного зрения. Разработка ImageNet потребовала два с половиной года, участие около 50 тысяч работников из 167 стран и машинку по работе под названием Amazon Mechanical Turk (MTurk). Эта платформа стала своеобразным посредником, где миллионы микрозадач поручаются сотням тысяч людей: от маркировки и классификации изображений до оценки текстового контента. Название платформы отсылает к историческому «Механическому турку» — шахматному устройству XVIII века, за которым скрывался человек, а не машина. Это метафора для современной системы, в которой мощь ИИ на самом деле подпирается многочисленными трудами реальных людей, зачастую с низкой оплатой и без гарантий.
Но почему именно такой формат работы стал нормой в индустрии искусственного интеллекта? Ответ кроется в необходимости огромных объёмов данных для обучения моделей. Алгоритмы машинного обучения поглощают миллиарды изображений, текстов и видео, однако эти данные необходимо систематизировать, фильтровать, аннотировать и проверять. Это крайне трудоемкая деятельность, которая требует внимания и интеллектуального участия, которое пока невозможно полностью автоматизировать. Человеческая работа помогает определить, что на изображении, кто изображён на фотографии, есть ли на тексте токсичные или оскорбительные высказывания. При этом работники подвергаются постоянному воздействию токсичного, насильственного и провокационного контента, что наносит серьезный психологический вред.
Компании, занимающиеся разработкой ИИ, стремятся скрыть этот труд от общественного внимания, а также экономят, нанимая людей из стран с низким уровнем зарплат. Работая по схеме субподрядчиков или через посреднические платформы, крупные корпорации минимизируют свою ответственность за условия труда и здоровье таких сотрудников. Ряд журналистских расследований выявил трагические последствия этой практики: работники некоторых компаний, проверяющие и фильтрующие интернет-контент, испытывают глубокие психологические травмы, им не оказывается квалифицированной поддержки, а условия зачастую напоминают эксплуатацию. Помимо аннотации данных, появилась новая категория рабочих — «редтимеры» или специалисты по тестированию моделей. Они провоцируют искусственный интеллект, вводя в систему острые и проблемные запросы, чтобы выявить, как модель реагирует на возможные злоупотребления, проявления предвзятости и токсичности.
Эта работа уникальна своей психологической нагрузкой: такие сотрудники вынуждены целыми днями анализировать и корректировать результаты, которые могут содержать агрессию, расизм и другие формы насилия. Как и прежние категории работников, они часто трудятся без стабильного контракта, социального пакета и моральной поддержки. Уязвимость этой группы трудящихся усиливается отсутствием надежных защитных механизмов. Рабочие могут внезапно лишиться доступа к платформам с объяснением «без причины», и без каких-либо компенсаций. В некоторых случаях подобные меры вызывают протесты и требуют вмешательства профсоюзов и общественных организаций.
Многие эксперты считают, что работа с данными компьютерного зрения или лингвистическими моделями могла бы стать приемлемой и устойчивой профессией при условии введения сильных трудовых гарантий и улучшения условий работы. Одним из неопровержимых факторов, делающих данные виды труда особенно важными, является специфика технологий глубокого обучения. Эти методы не предполагают создание правил и алгоритмов вручную, как это было в традиционных программах. Вместо этого алгоритмы изучают паттерны и закономерности на основе данных. Значит, качество и объём этих данных напрямую влияют на конечные результаты.
По сути, именно «человеческий слой» — тысячи и миллионы лиц, выполняющих аннотацию, фильтрацию и проверку — делает возможным обучение эффективных и качественных ИИ-систем. Однако не все рабочие условия и практики одинаково уязвимы. Некоторые страны и компании пытаются развивать «этичный ИИ», фокусируясь на прозрачности и социальной ответственности. Но часто подобные инициативы оказываются фасадом, прикрывающим экономию и эксплуатацию. Работники в странах с низким уровнем доходов, таких как Кения, Уганда, Индия и странах Латинской Америки, продолжают сталкиваться с психологическими трудностями и нестабильностью зарплат.
При этом некоторые платформы допускают, что к работе имеют доступ несовершеннолетние или даже заключённые, что вызывает дополнительные этические вопросы. Современное развитие технологий искусственного интеллекта сопровождается беспрецедентным интересом со стороны общества, бизнеса и государства. Важность ИИ растёт во всех сферах — здравоохранении, финансах, образовании, производстве и даже юриспруденции. Наряду с этим процессом необходимо признание заслуг и трудностей тех тысяч анонимных работников, которые делают работу алгоритмов возможной. Уважение к их труду, улучшение условий труда и обеспечение юридической защиты должны стать частью повестки ответственного развития технологий.