Искусственный интеллект сегодня активно внедряется в различные сферы общественной и экономической жизни. Технологии ИИ обещают улучшить качество жизни, автоматизировать рутинные процессы и способствовать развитию инноваций. Тем не менее, не все воспринимают искусственный интеллект как универсальную силу добра или безусловно полезный инструмент. Особенно выраженным является недоверие к ИИ среди маргинализированных американцев — тех, кто принадлежит к гендерным меньшинствам, имеет инвалидность или страдает от психических расстройств. Этот скептицизм заставляет задуматься о том, насколько справедливы и инклюзивны новые технологические решения и кто на самом деле выигрывает от их внедрения.
Исследования, проведённые Университетом Мичигана, раскрывают глубину недоверия и причины, почему многие представители уязвимых групп испытывают тревогу перед масштабным распространением искусственного интеллекта. Несмотря на уверенность, что искусственный интеллект способен стать великим уравнителем, устраняя социальные барьеры и создавая равные возможности, реальный опыт многих маргинализированных американцев показывает обратное. Для них технологии зачастую кажутся источником угроз, а не помощи. Одним из ключевых факторов, формирующих негативное отношение к ИИ, служит дискриминация и ошибки, которые алгоритмы совершают в отношении этих групп. Например, системы распознавания лиц часто неверно определяют пол или личность трансгендерных и небинарных людей, приводя к их неисправимой идентификации или даже невольному наблюдению.
Подобные технические сбои не просто ошибки — они способны усиливать социальное исключение и приносить реальные жизненные проблемы. Другая значительная проблема возникает в сфере правоохранительных органов, где алгоритмы предиктивной полиции многократно подвергались критике за усиление расовой предвзятости. Алгоритмы, опирающиеся на исторические данные, зачастую воспроизводят и закрепляют существующие социальные несправедливости. Это приводит к несоразмерному и несправедливому преследованию чернокожих и других меньшинств, что усиливает недоверие к ИИ среди тех, кто уже сталкивается с системной дискриминацией. Особенно тревожной является ситуация с применением искусственного интеллекта в здравоохранении, где алгоритмы не адаптированы к особенностям людей с инвалидностью или нейроразнообразием.
Такие модели могут не учитывать уникальные потребности и ограничения пациентов, что ведет к ошибочным диагнозам или неэффективному лечению. Это подрывает доверие к медицинским технологиям на базе ИИ и вызывает опасение, что инновации могут усугублять неравенство в доступе к качественной помощи. Анализ представителей разных социальных групп показывает, что настроения относительно искусственного интеллекта сильно различаются в зависимости от идентичности и жизненного опыта. Так, в исследовании выделяется, что трансгендерные и небинарные участники демонстрируют наиболее негативный взгляд на технологии ИИ, что связано с регулярными случаями неверной классификации и дискриминации. Женщины в целом также проявляют меньшую позитивность по отношению к ИИ по сравнению с мужчинами, что отражает более острое восприятие рисков и возможных негативных последствий.
Люди с инвалидностью, особенно если у них есть психические или неврологические особенности, тоже склонны относиться к искусственному интеллекту с осторожностью и недоверием. В то же время исследования выявили одну неожиданную тенденцию — у чернокожих американцев уровень позитивного восприятия ИИ оказался выше, чем у белых участников. Это свидетельствует о более сложном и многоаспектном отношении к технологиям в сообществе людей цвета и подчеркивает необходимость индивидуального подхода к изучению и решению вопросов, связанных с ИИ. Почему эти настроения важны для понимания будущего искусственного интеллекта? Прежде всего, маргинализированные группы представляют значительную часть общества, и если их взгляды и потребности не учитываются, новые технологии рискуют усугубить существующие социальные и экономические неравенства. Создание и внедрение ИИ должно строиться не на предположениях о нейтральности алгоритмов, а на понимании того, что технологии отражают и закрепляют те же предрассудки, что и общество, которое их создаёт.
Профессионалы в области науки, техники и политики должны пересмотреть свои подходы и включить мнения и опыт маргинализированных людей в процесс разработки инноваций. Это позволит создавать более справедливые, точные и этичные системы, которые будут действительно служить всем слоям населения, а не только узкой группе привилегированных. Технологические компании и исследователи должны стремиться к прозрачности алгоритмов, регулярному аудиту на предмет предвзятости и ошибочных решений, а также к созданию инклюзивных команд, понимающих проблемы разных социальных групп. Учёт разнообразия взглядов и жизненного опыта будет способствовать снижению риска нанесения вреда и укреплению доверия к новым технологиям. В конечном итоге будущее искусственного интеллекта зависит от того, насколько общество готово учиться на ошибках и адаптироваться к вызовам, которые ставят перед нами быстро меняющиеся технологии.
Скептицизм маргинализированных американцев к ИИ — это сигнал о необходимости перемен и широкого диалога между разработчиками, пользователями и обществом в целом. Только через сотрудничество и взаимное уважение можно построить технологический мир, где искусственный интеллект станет действительно мощным инструментом равенства и справедливости, а не усилителем дискриминации и страхов.