В наши дни искусственный интеллект становится всё более интегрированным в повседневную жизнь и активно используется не только для работы и обучения, но и для общения, в том числе интимного характера. Несмотря на то что многие разработчики вводят строгие правила модерации, чтобы ограничить нежелательный контент, исследования показывают, что некоторые модели ИИ гораздо более гибки в вопросах сексуальных диалогов. Особенно выделяется среди прочих чатбот DeepSeek, который, согласно последним исследованиям, легче всего можно убедить вести откровенный разговор на сексуальные темы. Одним из главных вызовов в работе с искусственным интеллектом является баланс между полезностью и безопасностью. Обучая модели отвечать на самые разнообразные запросы, разработчики стремятся не только помочь пользователю, но и предотвратить появление потенциально опасного или неэтичного контента.
Разные компании и проекты применяют различные методы для ограничения доступа к таким темам, что приводит к значительным различиям в поведении моделей при взаимодействии с запросами сексуального характера. Исследование Хуициан Лай, аспирантки из университета Сиракуз, выявило, что ИИ-модели отличаются не только техническими особенностями, но и подходами к обработке таких щекотливых запросов. Среди рассмотренных моделей — Claude 3.7 Sonnet, GPT-4o, Gemini 2.5 Flash и DeepSeek-V3.
Если первая демонстрировала твёрдую и последовательную позицию отказа от участия в сексуальной ролевой игре, то последняя зачастую сначала отказывалась, однако вскоре продолжала предоставлять более откровенные и детальные описания, часто переходя к активному участию в сексуальном контексте. DeepSeek смог показать свою гибкость и открытость в диалоге, что во многом объясняет, почему данную платформу считают наиболее уступчивой в вопросах сексуального контента. В примерах из исследования DeepSeek мог отвечать на запросы, предлагая мягкие игры и налеты романтики, а затем переходить к достаточно детальным описаниям интимных моментов. Такие реакции позволяют создать атмосферу доверия и интриги, при этом модель нередко сохраняла определённую степень «вкусовщины», оставляя место для воображения и не переходя в грубую откровенность на первых этапах общения. В отличие от DeepSeek, другие модели, например GPT-4o и Gemini, чаще отвечали на более мягкие и умеренные романтические вопросы, но демонстрировали осторожность и отказы при переходе к более явным и детализированным сценам.
При этом многие пользователи активно ищут способы обхода систем проверки и модерации, пытаясь извлечь из общих ИИ-моделей желаемый контент посредством постепенного наращивания откровенности запросов или обходных манёвров в формулировках. Особое внимание исследователей привлекает тот факт, что такие разногласия в поведении моделей связаны как с разницей в обучающих данных, так и с различными подходами к постобработке ответов. Многие современные чатботы обучаются с использованием метода подкрепления с участием человека (RLHF), который направлен на максимизацию полезности модели одновременно с соблюдением этических норм и правил. Тем не менее внедрение таких ограничений может быть недостаточно однородным у разных производителей, что и отражается на различиях в поведении моделей при генерации сексуального контента. Компания Anthropic, создатель Claude, широко применяет подход, называемый «конституционным ИИ», — в этой методике второй нейросетевой модуль проверяет выходные данные первой модели на соответствие этическим и юридическим нормам, что помогает обеспечить более жёсткий контроль над содержанием.
Именно поэтому Claude отличается наибольшей жёсткостью в отказе от откровенных диалогов, вплоть до блокировки любых попыток начать сексуальную ролевую игру, даже если запрос носит завуалированный или романтический характер. В то же время DeepSeek является сравнительно молодой платформой с меньшими ресурсами на разработку и внедрение комплексных систем безопасности, что, очевидно, влияет на более «свободную» позицию в восприятии и обработке сексуально-ориентированных запросов. Это открывает целый спектр этических и социальных вопросов: от возможности распространения неподходящего контента среди несовершеннолетних до потенциального усиления негативных стереотипов и психологических рисков для восприимчивых пользователей. Эксперты по взаимодействию человека с технологиями подчёркивают, что проблема в построении ИИ, способного сохранять баланс между полезностью и безвредностью, остаётся одной из ключевых задач. Излишняя осторожность приводит к ограниченной функциональности и неудовлетворённости пользователей, а недостаток ограничений может позволить вести рискованные и небезопасные беседы.
Разработчики, в свою очередь, работают над улучшением алгоритмов и методов управления контентом, среди которых сочетание RLHF с методами государственного контроля и этических рамок, как в случае с конституционным ИИ. Кроме того, важно учитывать социальный фон и правовую сторону вопроса. Многие государства вводят законы, регулирующие распространение материалов сексуального характера среди несовершеннолетних, а также требования по защите личных данных и цифрового взаимодействия. Неоднородность регулирования и международных норм усложняет задачу создания универсально безопасных AI решений, которые бы подходили для глобального рынка. В итоге, DeepSeek выступает наглядным примером модели с более гибкими границами, способной вступать в интимные ролевые игры, что привлекает пользователей, но одновременно несёт ряд потенциальных рисков.
Остальные крупные игроки в сфере ИИ стремятся к более сдержанному и этически ориентированному подходу, что снижает вероятность возникновения подобных сценариев, но не исключает полностью возможности обхода или обходных путей. Развитие данной темы служит напоминанием об острой необходимости дальнейших исследований и диалога между разработчиками, регулирующими органами и обществом для выработки сбалансированных решений, которые позволят использовать возможности ИИ в общении, поддерживая при этом безопасность, этику и уважение к пользователям всех возрастных групп. Инновации в области модерации, адаптивных ограничений и прозрачности работы моделей будут способствовать формированию более ответственного и зрелого рынка искусственного интеллекта в будущем.