В мире стремительно растущих технологий и искусственного интеллекта ChatGPT завоевал огромное внимание и популярность благодаря своим возможностям создавать тексты, поддерживать диалоги и помогать в разных сферах жизни. Однако многие пользователи не осознают, что опубликованные и даже те, которые они считали временными, разговоры с ChatGPT могут сохраняться навсегда – где-то в глубинах интернета, доступные исследователям, другим пользователям и, что важнее, потенциально третьим сторонам. Недавние события и расследования лишний раз это подтвердили, открыв глаза общественности на сложную ситуацию с сохранением переписок. Основной повод для дискуссии возник после статьи, посвященной удалению из индекса Google почти 50 тысяч публично доступных разговоров ChatGPT, что казалось бы должно было поставить точку в вопросе приватности, но на деле оказалось лишь верхушкой айсберга. Исследование, проведенное совместно с бельгийским исследователем Николя Делёром, выявило, что более 110 000 сессий ChatGPT сохранены в базе данных Archive.
org через популярный сервис Wayback Machine. Это означает, что пользователи, нажимая кнопку «Поделиться» в интерфейсе ChatGPT, фактически не создавали только временную ссылку для обмена с друзьями или коллегами, а формировали постоянный публичный архив своих мыслей, вопросов, конфессий и даже иногда сомнительных или незаконных действий. Директор Wayback Machine Марк Грэм пояснил, что сервис не получил от OpenAI официальных запросов на исключение URL-адресов, связанных с chatgpt.com, из индекса, поэтому они продолжают хранить и делать доступными эти записи. За этим последует еще более серьезный вопрос о том, возможно ли полностью контролировать содержание, опубликованное с помощью онлайн-сервисов, и как обеспечить приватность в эпоху сохранения больших данных, когда даже удалённые страницы восстанавливаются из кэша и архивов.
Новость о сохранении разговоров вызвала большой резонанс, ведь среди них обнаружены не только повседневные диалоги и безобидные вопросы, но и разговоры, в которых содержатся юридически, этически или морально спорные темы. К примеру, удалось найти обсуждения с участием людей, которые использовали ChatGPT для обоснования сомнительных бизнес-стратегий. Один из таких эпизодов – диалог с итальянским юристом крупной энергетической компании, который явно описывал план по выселению коренных жителей Амазонки для строительства гидроэлектростанции. В разговоре звучали фразы о том, как можно максимально дешево провести переговоры с коренными общинами, используя их недостаток понимания рыночной стоимости земли. Эти данные вызывают тревогу и поднимают вопросы о том, какую ответственность и контроль должна нести компания OpenAI за содержание создаваемых ее сервисами материалов и что с этим делать пользователям.
Еще одна актуальная выявленная тема связана с политическим dissentом в авторитарных режимах. В одном из заархивированных диалогов пользователь из арабской страны просил ChatGPT создать критическую историю о президенте, обвиняя его в коррупции и репрессиях. Этот диалог остается в открытом доступе и показывает, как инструменты ИИ могут быть использованы для выражения политических взглядов, что несет определенные риски для их создателей в условиях цензуры и репрессий. Помимо политики, среди опубликованных разговоров обнаружены многочисленные случаи академического мошенничества. Некоторые пользователи открыто признавались в написании с помощью ChatGPT научных статей и даже удовлетворении требований профессоров без реального труда.
В одном из персидских диалогов исследователь спрашивал ИИ о создании частей своей работы – от аннотации и обзора литературы до анализа данных, кроме того, пользователи жаловались на необходимость добавления «более серьезных источников», но в итоге просто сдавали составленные AI статьи преподавателям. Это ставит под сомнение качество и честность учебных процессов, а также требует переосмысления подходов к оценке знаний в эпоху ИИ. На попытки OpenAI очистить Google от ссылок на эти разговоры быстро отреагировали специалисты и интернет-сообщество. Удаление из поиска не остановило распространения информации, ведь основное хранение находится вне зоны влияния Google. Archive.
org и другие архивные службы продолжают предоставлять доступ к этим материалам, делая их практически неуничтожимыми. Несмотря на технические попытки ограничить доступ, базовые правила интернета гласят: ничего действительно не исчезает. Пользователям важно понимать, какой след они оставляют в интернете, особенно при работе с искусственным интеллектом. Постоянное кеширование и архивирование информации могут привести к неожиданным последствиям, вплоть до судебных разбирательств и проблем с репутацией. OpenAI в этом контексте стоит задача нахождения баланса между удобством функций “поделиться”, обеспечением приватности и выполнением этических стандартов хранения данных.