В современном мире искусственный интеллект все активнее интегрируется в различные сферы бизнеса, в том числе и в процессы подбора персонала. Компания Workday, известный разработчик программного обеспечения для управления человеческими ресурсами, оказалась в центре судебного разбирательства, связанного с использованием ИИ-технологий для оценки кандидатов на вакансии. Суд в Северном округе Калифорнии вынес постановление, обязывающее Workday предоставить исчерпывающий список работодателей, которые применяли функции искусственного интеллекта от компании HiredScore в своих процессах найма. Данная ситуация открывает серьезное обсуждение этических и юридических аспектов использования ИИ в подборе сотрудников, а также влияет на будущее регулирование таких технологий в разных штатах США и за их пределами. История конфликта началась с коллективного иска, поданного против Workday, в котором истцы заявили, что программное обеспечение на основе ИИ оказывает негативное влияние на кандидатов возрастной группы 40 лет и старше.
Претензия строится на том, что автоматизированные алгоритмы оценки и ранжирования резюме могут предвзято относиться к определенным категориям претендентов, что противоречит принципам равноправия и недискриминации в трудовых отношениях. Речь идет о функции HiredScore, которую Workday приобрела после подачи первоначальной жалобы, однако суд признал важным привлечь в состав иска всех кандидатов, чьи заявки были оценены, отсортированы или ранжированы с использованием технологий HiredScore. Workday в свою очередь утверждала, что различия в алгоритмах оценки между собственным продуктом Candidate Skills Match и технологиями HiredScore достаточно значительны, чтобы исключить последних из состава ответчиков. Компания настаивала, что HiredScore является отдельным продуктом, разработанным на отдельной платформе и способным интегрироваться с различным программным обеспечением для отслеживания кандидатов. Тем не менее суд отверг эти аргументы, указав, что сложности, связанные с идентификацией участников иска, не являются непреодолимыми и обязал Workday предоставить списки клиентов, использующих технологии HiredScore, а также предложить временные рамки для этого.
Данный судебный процесс отражает более широкую тенденцию в регулировании применения искусственного интеллекта в сфере найма персонала. Нью-Йорк стал одним из первых крупных мегаполисов, где с 2023 года действуют законы, ограничивающие использование ИИ при найме. Согласно законодательству, все автоматизированные инструменты принятия решений должны проходить обязательный аудит, а кандидаты должны быть уведомлены о применении таких технологий. На фоне этого в ближайшие годы к регулированию использования искусственного интеллекта в найме приступят и другие штаты, в том числе Калифорния и Колорадо. Это свидетельствует о возрастающей озабоченности общества и государственных органов потенциальными рисками дискриминации и нарушений прав работников при автоматическом отборе.
В частности, одним из вызовов остаётся обеспечение прозрачности алгоритмов и возможность оспаривания решений, вынесенных искусственным интеллектом. Несмотря на законодательные ограничения и судебные разбирательства, многие компании продолжают внедрять ИИ-инструменты для оптимизации HR-процессов. Такие платформы, как LinkedIn, предлагают возможность использования искусственного интеллекта для помощи рекрутерам в поиске и предварительном отборе кандидатов. Это позволяет повысить эффективность работы, сократить затраты времени и ресурсов, но требует баланса с вопросами этичности и защиты прав претендентов. Сторона истцов в деле против Workday акцентирует внимание на важности контроля над алгоритмами, которые влияют на карьерные возможности людей.
Этому способствует прозрачность данных о клиентах, применяющих спорные технологии. Именно предоставление полного списка работодателей, использующих функцию HiredScore, призвано помочь выявить масштабы использования ИИ и охарактеризовать его потенциальное воздействие. Обязательство Workday раскрыть сведения о клиентах и предложить график такой идентификации до 20 августа является значительным прецедентом, усиливающим давление на компании в HR-секторе по вопросам отчетности и ответственности. Это событие служит сигналом для всех участников рынка, что технологические инновации должны сопровождаться соответствующим регулированием и соблюдением правовых норм. С точки зрения юридической практики, дело Workday отражает тенденцию расширения коллективных исков в области трудового права и использования ИИ.
Если ранее проблемы дискриминации рассматривались преимущественно в традиционных рамках, то сейчас к вопросам допуска технологий вмешиваются и судебные инстанции, анализируя алгоритмы и их возможные предубеждения. Таким образом, ситуация с Workday иллюстрирует комплексность интеграции искусственного интеллекта в кадровую деятельность. С одной стороны, ИИ способен совершенствовать процесс подбора персонала, повышать качество принятия решений и экономить ресурсы. С другой – существует риск усиления неравенства, предвзятости и нарушения конфиденциальности. В ближайшие годы общество будет наблюдать за тем, как развивается правовая база в области ИИ и найма, а также за тем, как компании адаптируют свои технологии для соответствия новым требованиям.
Практика раскрытия информации о применении ИИ, появление обязательных аудитов и уведомлений претендентов могут стать нормой, направленной на повышение доверия и справедливости. Совокупность факторов – от судебных прецедентов, законодательных инициатив до внутренних политик компаний — формирует новое лицо HR-сферы, в которой искусственный интеллект играет все более значимую, но и тщательно контролируемую роль. Workday и другие игроки рынка находятся на передовой этой трансформации, от которой зависит качество и этичность работы с человеческим капиталом в цифровую эпоху.