В современном цифровом мире вопросы конфиденциальности и защиты личной информации становятся все более актуальными. Особенно эта тема важна в свете распространения искусственного интеллекта и повсеместного использования чат-ботов, таких как ChatGPT от компании OpenAI. Недавние события, связанные с функцией обмена чатами в ChatGPT, продемонстрировали, насколько сложно правильно продумать и реализовать настройки конфиденциальности, чтобы удовлетворять потребности широкой и разношерстной аудитории пользователей. Функция, позволяющая делать чаты обнаруживаемыми в интернете, стала причиной серьезных проблем. Оказалось, что значительное количество пользователей случайно сделало свои приватные переписки доступными для поисковых систем, таких как Google.
Последствия этого были далеко не безобидными – личные данные, в том числе конфиденциальные и потенциально компрометирующие сведения, стали появляться в публичных поисковых результатах, доступных сотням и даже тысячам людей. В ответ на эту ситуацию OpenAI приняла решение удалить опцию «сделать этот чат обнаруживаемым», что говорит о серьезности проблемы и невозможности обеспечить безопасное и понятное использование данной функциональности без риска для пользователей. Такой шаг стал ярким примером того, насколько бросает вызов проектировщикам интерфейсов задача грамотного создания настроек приватности. Проблема в том, что терминология и формулировки, применяемые в интерфейсе, оказались непонятны большинству пользователей. Слово «обнаруживаемый» само по себе является инсайдерским жаргоном, понятным в основном тем, кто профессионально работает с интернет-технологиями.
Даже поясняющая надпись «Позволяет показывать чат в результатах веб-поиска» требует определенного уровня технической грамотности и осознанного подхода к пониманию последствий таких действий. Чтобы по-настоящему оценить риски, пользователям необходимо понимать основополагающие концепции: что такое URL и как его можно сделать доступным, но наполовину скрытым; как работают поисковые системы, и чем они отличаются от внутренних инструментов поиска на сайтах; каким образом контент попадает в индекс поисковых систем и какие последствия это влечет за собой; наконец, что выполнение действия по «обнаруживаемости» влечет за собой возможный публичный доступ к содержимому чата для всех пользователей сети. Однако реальность такова, что среди более чем миллиарда пользователей ChatGPT подавляющее большинство не имеют этих базовых знаний в области цифровой безопасности. Более того, поведенческая психология современных пользователей свидетельствует о том, что они зачастую стремятся пройти все шаги максимально быстро, не вчитываясь в детали, и привычно соглашаются на все предлагаемые опции. В результате такая кнопка или чекбокс о публичности чата легкомысленно отмечаются без осознавания потенциальных рисков.
Еще одной проблемой является то, что сама концепция данной опции кажется многим пользователям нелогичной. В большинстве случаев люди рассчитывают поделиться своим чатом с конкретным человеком или группой, а не выставлять его на всеобщее обозрение поисковым системам. Опция, предполагающая автоматическую индексацию чата, воспринимается как лишняя и не соответствующая основной цели обмена. Происходящее с ChatGPT не уникально – схожие ошибки допускают и другие крупные технологические компании. Примером служит Meta AI, чей чат-бот в свое время внедрил функцию «Опубликовать в ленте», подталкивающую пользователей делать свои переписки публичными.
Несмотря на то, что формулировки там были более понятными и простыми, миллионы пользователей по-прежнему нажимали эту кнопку, не осознавая, что их личные данные становятся достоянием общественности. Эти ситуации ставят важные вопрос: как обеспечить высокий уровень безопасности личной информации, если целевая аудитория настолько разнообразна и содержит неоднородный уровень цифровой компетенции? Как сделать дизайн интерфейса не только функциональным, но еще и интуитивно понятным для пользователей с любым уровнем знаний? Как разработки в сфере искусственного интеллекта и автоматизации не ставили под угрозу приватность и безопасность? Ответы на эти вопросы требуют коллективных усилий дизайнеров, UX-специалистов, юристов и специалистов по этике. Главным приоритетом должна стать прозрачность предлагаемых функций, четкость и простота объяснений на языке, доступном большинству пользователей. Важно дизайнерски реализовывать настройки таким образом, чтобы не давать никакой возможности случайного нажатия или недопонимания. Например, можно применять дополнительные подтверждения, подробные подсказки и предупреждения, а также обучение пользователей в процессе использования.
Одновременно необходимо совершенствовать культурное поведение пользователей, пропагандировать внимательность и базовые навыки в сфере цифровой гигиены. Для этого важны информационные кампании, обучение и улучшение общей цифровой грамотности населения. В итоге ситуация с диалогом обмена в ChatGPT является наглядной демонстрацией того, насколько сложна задача проектирования настроек конфиденциальности для массовых продуктов, особенно в сфере быстроразвивающихся технологий искусственного интеллекта. Она подчеркивает необходимость более вдумчивого подхода, учитывающего и технические реалии, и человеческие факторы, чтобы минимизировать риски утечки личных данных и защитить право каждого пользователя на приватность в интернете.