Современный мир стремительно внедряет искусственный интеллект и связанные с ним технологии во все сферы жизни. Среди таких технологий особое место занимают большие языковые модели (LLM), которые способны генерировать тексты, отвечать на вопросы и даже помогать принимать решения. С развитием таких систем растёт вероятность того, что люди будут обращаться к ним за советом в ключевых моральных и этических вопросах. Однако недавние исследования ученых из области когнитивных и психологических наук выяснили, что LLM не просто повторяют человеческие когнитивные искажения — они их усиливают, что может привести к серьезным последствиям, если не учитывать эту особенность в использовании данных технологий. Одна из главных проблем заключается в том, что при принятии моральных решений LLM проявляют выраженный уклон в сторону бездействия, известный в психологии как «ошибка упущения» или omission bias.
В отличие от человека, который зачастую готов действовать ради достижения справедливого или полезного результата, модели склонны рекомендовать бездействие, избегая каких-либо решений, которые могут привести к негативным последствиям. Это означает, что при обращении к LLM за помощью в решении моральных дилемм существует риск получить пассивный совет, который не всегда соответствует этическим или общественным ожиданиям. Кроме того, исследование выявило уникальный вид искажения, который встречается именно у больших языковых моделей и отсутствует у обычных людей. Модели зачастую отвечают «нет» на вопросы об этическом выборе, и при изменении формулировки вопроса их ответ может полностью измениться, что указывает на то, что LLM подвержены манипуляциям формы вопроса. Такое свойство может приводить к непредсказуемым результатам и снижает надёжность их рекомендаций в моральных вопросах.
Причиной появления подобных искажений ученые считают процесс дообучения моделей для их адаптации под чатботы и интерактивные сервисы. В период fine-tuning модели подвергаются дополнительной настройке на специфических данных, что побуждает их к осторожным ответам и склонности избегать спорных тем и действий. В результате эта дополнительная обработка усиливает склонность LLM к избеганию активных решений и генерированию ответов, ориентированных на отказ. Стоит отметить, что в вопросах коллективных действий и ситуациях, где нужно балансировать между личными интересами и общим благом, языковые модели показали более альтруистичные подходы по сравнению с выборками человеческих респондентов. Такие данные проливают свет на сложность и неоднозначность поведения ИИ и показывают, что модели могут выявлять иные стороны морального принятия решений, отличающиеся от человеческих шаблонов.
Проблема усугубляется тем, что растущая популярность и доступность LLM переходят в широкое применение в обществе, в бизнесе, образовании и даже в политике. Люди начинают все чаще полагаться на рекомендации и советы от этих систем, что порождает опасность коллективного усиления когнитивных искажений и ошибок. В итоге моральные и этические решения, основанные на рекомендациях ИИ, могут отразить не только человеческие предубеждения, но и новые, усиленные машиной, что потенциально опасно для формирования общественного мнения и норм. Изучение таких аспектов стало возможным благодаря серии исследований, в которых LLM сравнивали с данными опросов репрезентативных групп населения США. Результаты показали, что модели последовательно уходят к более осторожным, менее активным ответам, при этом поведение моделей отличается непостоянством и чувствительностью к форме вопроса, что еще больше снижает их надёжность в нервных моральных контекстах.
Кроме исследовательских выводов, этот феномен заставляет задуматься и об этических стандартах разработки и внедрения ИИ. Если большую языковую модель используют в качестве соучастника в психологических экспериментах или консультанта в принятии важных общественных решений, необходимо тщательно контролировать и корректировать возможные искажения, чтобы не провоцировать прогнозируемые ошибки и чрезмерную осторожность. Для разработчиков и пользователей технологий это означает повышенную ответственность. Важно не принимать рекомендации LLM без критического анализа, особенно в моральных и этических вопросах, требующих глубокой эмпатии, контекста и сбалансированности. Разработка методов выявления и коррекции таких когнитивных искажений становится приоритетной задачей в области искусственного интеллекта.
С точки зрения бизнеса и государственных структур, внедряющих ИИ для поддержки решений, крайне необходимо интегрировать механизмы мониторинга, которые отслеживают возможные проявления предвзятости и реагируют на аномалии в ответах моделей. Это позволит минимизировать риски, связанные с неадекватными советами, которые могут повлиять на общественное мнение или привести к неправильным внедрениям политики. Таким образом, большие языковые модели представляют собой мощный инструмент, способный влиять на моральные суждения людей и функционирование общества. Однако, их склонность к усилению когнитивных искажений требует внимательного анализа и грамотной интеграции в процессы принятия решений. В противном случае, необдуманное использование подобных систем способно не только воспроизводить человеческие ошибки, но и усугублять их, создавая новые вызовы для этики и социальной ответственности в цифровую эпоху.
В условиях дальнейшего технологического прогресса важно, чтобы ученые, инженеры, политики и общество в целом совместно работали над тем, чтобы принципы справедливости, прозрачности и ответственности стали неотъемлемой частью развития и применения искусственного интеллекта. Тщательное исследование и контроль когнитивных искажений в больших языковых моделях играет ключевую роль в обеспечении того, чтобы искусственный интеллект служил не угрозой, а надежным помощником человечества в решении моральных и этических вызовов.