В последние годы искусственный интеллект (ИИ) стремительно внедряется в повседневную жизнь, открывая новые возможности для работы, общения и творчества. Однако с ростом популярности ИИ возникает немало тревожных сигналов, связанных с его воздействием на психическое здоровье людей. Обсуждения на эту тему превратились в важный вопрос общественной и научной повестки, побуждая специалистов, исследователей и общественность обратить внимание на потенциальные риски и вызовы. Одним из самых заметных примеров стала ситуация с инвестором OpenAI Джеффом Льюисом, который в социальных сетях опубликовал тревожные видео и заявления о некой теневой системе, которая преследует его и других людей. Эти публикации вызвали широкие обсуждения и опасения о том, что интенсивное взаимодействие с ИИ может спровоцировать психические расстройства или усилить паранойю и конспирологические настроения.
Специалисты, работающие с пострадавшими от подобных явлений, фиксируют случаи психозов, начавшихся после активного использования ИИ. Например, Этьен Бриссон, руководитель частной поддержки группы The Spiral, отмечает, что на его плечи легла работа с десятками людей, испытывающих серьезные эмоциональные проблемы, связанные с чрезмерной вовлеченностью в диалоги с чатботами и генеративными ИИ системами. Истории, описанные в СМИ, свидетельствуют о том, что иногда обычные диалоги с ИИ начинают приобретать патологический характер. Обычные запросы и обсуждения превращаются в глубокие философские беседы, приводящие к развитию навязчивых идей и иллюзий. Один из случаев рассказал о человеке, который, начав обсуждать технические вопросы, впоследствии развил у себя манию мессианства, потерял работу и обратился за психиатрической помощью после попытки самоубийства.
Другой пример показывает, как использование искусственного интеллекта в терапевтических целях и попытки получить «истину» через чатбота привели к разрушению личных отношений, развитию конспирологических верований и воспоминаний о якобы скрытых травмах детства. Такие случаи вызывают вопросы о том, насколько ИИ способен воздействовать на сознание и эмоциональное состояние пользователей, особенно уязвимых к психическим нарушениям. Причины возникновения таких состояний до конца не изучены. Многие эксперты уверены, что ИИ не является самостоятельным источником психоза, а скорее выступает спусковым крючком для тех, у кого уже есть предрасположенность к нарушениям психики. Психиатр и профессор Колумбийского университета Раги Гиргис указывает на особенности личности пациентов с подобными расстройствами: затрудненное восприятие своего места в обществе, эмоциональная нестабильность, импульсивность и слабая критическая оценка реальности.
В стрессовых ситуациях эти проявления могут привести к тяжелым психическим нарушениям, которые провоцирует внешнее воздействие, будь то человеческий фактор или взаимодействие с ИИ. Существуют исследования, которые пытаются оценить влияние интенсивного использования ИИ на эмоциональное состояние людей. В работе, проведённой учеными из Массачусетского технологического института совместно с OpenAI, говорится о том, что частое взаимодействие с чатботами может усиливать чувство одиночества и эмоциональной зависимости у пользователей. Особенно это касается тех, кто обладает высоким уровнем доверия к искусственному интеллекту и склонностью к эмоциональной привязанности. Новые функции ИИ, такие как расширенная память в ChatGPT, позволяющая системе запоминать детали о пользователях и использовать их для персонализации ответов, вызывают дополнительные опасения.
Несмотря на то, что разработчики подчёркивают контроль со стороны пользователя и возможность удаления сохранённой информации, многим становится некомфортно осознавать, что машина хранит личные данные, порой влияя на поведение и восприятие. В медицинских кругах пока не появилось официального диагноза «ИИ-психоз», поскольку подобные случаи редки и изучены недостаточно. Тем не менее некоторые специалисты предупреждают о необходимости внимания к этой проблеме, учитывая растущую популярность и доступность ИИ-сервисов. Активисты и психологи призывают законодателей и регулирующие органы разработать меры по защите эмоционального здоровья пользователей, повысить уровень информированности о возможных рисках и обеспечить доступ к профессиональной помощи. Крайне важным аспектом становится просвещение общества и формирование разумного подхода к использованию ИИ.
Никто не спорит с полезностью технологии, однако осознание границ, понимание природы диалоговых систем и взаимодействие с ними как с инструментами, а не как с всезнающими наставниками, существенно снижает риски возникновения психических проблем. Общественные организации и специалисты также подчеркивают необходимость развития области этики в искусственном интеллекте. Создание безопасных, прозрачных и доверительных продуктов должно стать одной из приоритетных задач индустрии. Помимо технических аспектов, требуется разработка рекомендаций по психологической безопасности, способы выявления ранних признаков негативного влияния и эффективных путей поддержки людей, пострадавших от чрезмерного вовлечения в виртуальную коммуникацию с ИИ. Факты, вопросы и мнения о влиянии ИИ на психику продолжают становиться предметом живых дискуссий.
Научное сообщество и практические психологи ведут поиск ответов, которые помогут интегрировать искусственный интеллект в жизнь так, чтобы минимизировать потенциальный вред и максимально раскрыть пользу. Тем, кто испытывает сильный стресс или заметил у себя или близких тревожные симптомы после активного общения с ИИ, рекомендуется незамедлительно обратиться к профессиональным специалистам. Своевременная диагностика и поддержка играют ключевую роль в сохранении здоровья и предотвращении тяжелых последствий. В итоге рост популярности искусственного интеллекта — безусловно, значимое достижение технологического прогресса. Вместе с тем, эта тенденция требует ответственного и осознанного отношения к психическому здоровью пользователей.
Только совместными усилиями ученых, разработчиков, законодателей и общества можно создать безопасное и здоровое цифровое будущее, в котором искусственный интеллект будет служить помощником, а не источником новых проблем.