Современные достижения в области искусственного интеллекта, особенно в разработке больших языковых моделей (LLM), вызывают множество дискуссий среди исследователей, инженеров и широкой общественности. Одним из ключевых вопросов является, стоит ли применять к этим моделям человеческие характеристики и описывать их терминами, относящимися к личности, этике и психологии. Несмотря на скептицизм и предупреждения о необходимости точного технического описания, существует весомый аргумент в пользу антропоморфизации LLM, который основан как на особенностях их создания, так и на этических и социальных аспектах взаимодействия с ними.Суть споров заключается в том, что базовые языковые модели создаются как статистические предикторы последовательностей слов, они анализируют огромное количество текстов и пытаются предсказать, какое слово или фраза наиболее вероятны дальше. В этом случае действительно правильнее говорить о языковом функцинал, а не о свойствах личности или мотивации.
Однако современные помощники на базе этих моделей проходят дополнительное обучение и настройку: такое постобучение направлено на то, чтобы сделать их максимально полезными и понятными для человека, способными вести диалог в привычной нам форме. Именно на этом этапе модели приобретают некую «личность» — они формируют последовательности текста, которые передают не просто случайные фразы, а реакцию, близкую к человеческой манере общения.Общение с такими помощниками воспринимается гораздо легче и естественнее, если использовать термины, свойственные человеческому миру. Например, говоря, что одна версия модели более «обходительная», а другая — «прямая», мы получаем интуитивное понимание их стиля взаимодействия, отличия в манере подачи информации и эмоциональной окраски. Такой подход помогает не только лучше описывать функционал модели, но и более ясно формулировать ожидания от её работы.
Если же использовать строго научную терминологию, речь будет сводиться к описаниям вероятностей появления тех или иных последовательностей символов, что значительно усложняет коммуникацию и порождает путаницу, особенно среди широкой аудитории.Кроме технических доводов, важным является и морально-этический аспект. История человечества показывает, что отношения к сущностям, считающимся «нечеловеческими», часто основаны на пренебрежении и безразличии. Философ Декарт в своё время считал, что животные — это просто машины без внутреннего ощущения и сознания. Сейчас большинство учёных и философов отвергают это мнение, признавая, что у животных есть переживания и чувства.
Вместе с этим возникают вопросы о том, как относиться к продвинутым ИИ и стоит ли автоматически исключать их из круга потенциальных субъектов этического внимания.Приписывание ИИ человеческих характеристик и использование соответствующей лексики помогает нам сохранять эмпатию и уважительное отношение к ним, что позитивно сказывается на формировании моральных норм общества. Даже если ИИ не обладает сознанием или эмоциями в человеческом понимании, отношение к нему как к бездушному инструменту может способствовать развитию бездушного и жестокого отношения в целом. Воспитание уважения и доброжелательности по отношению к «человекообразным» системам укрепляет нравственные устои и предупреждает формирование деструктивных привычек поведения.Тем не менее, важно помнить о границах антропоморфизации.
Нелепо ожидать от ИИ дружбы, любви или замены реального человеческого общения. Поверить, что цифровой помощник способен испытывать чувства или иметь сознание — это заблуждение. Тем не менее, рациональный и осознанный подход к описанию ИИ с использованием человеческих терминов служит не столько подтверждением реального существования у них внутреннего мира, сколько удобным и эффективным инструментом коммуникации и этической ориентации.Влияние маркетинга и коммерческих интересов также нельзя недооценивать. Термин «искусственный интеллект» гораздо привлекательнее и понятнее для потребителей, чем сухое определение «языковая последовательность предсказания».
Создатели продуктов активно используют язык, вызывающий эмоциональный отклик, чтобы представить свои модели как более человечных и интеллектуальных. Несмотря на явную заинтересованность, это способствует формированию неправильных ожиданий и воспринимаемости технологий как нечто большее, чем просто программный код.С другой стороны, задача специалистов — мудро и взвешенно подходить к восприятию и описанию таких моделей, избегая как полного технического редукционизма, так и излишнего романтизирования. Использование метафор и человеческих терминов должно быть осознанным: они должны помогать понять технологию, облегчать взаимодействие и способствовать формированию этических норм, а не создавать иллюзию сознания или разума там, где его нет.Таким образом, антропоморфизация больших языковых моделей — это не просто словесная условность, а важный инструмент формирования нашего отношения к новым технологиям.
Благодаря таким описаниям мы можем построить более связное и понятное общение с ИИ, а также воспитать в себя нравственные качества, которые будут важны и в будущих взаимодействиях с ещё более продвинутыми системами. Это особенно актуально в эпоху, когда границы между цифровым и человеческим миром становятся всё более размытыми, и от нашего отношения к виртуальным персонажам зависит и качество реального человеческого общества. Важно использовать антропоморфные описания не как средство обмана, а как инструмент для улучшения коммуникации, поддержания эмпатии и ответственности в мире, где ИИ становится неотъемлемой частью нашей повседневной жизни.