В последние годы искусственный интеллект становится неотъемлемой частью нашей жизни, особенно в сфере обработки информации и общения. ChatGPT, разработанный компанией OpenAI, заслужил признание за свою способность генерировать развернутые ответы на разнообразные запросы пользователей. Однако за всеми достоинствами скрывается серьезная проблема — галлюцинации искусственного интеллекта, когда система выдумывает факты и события, не имеющие под собой никакой основы в реальности. Один из самых резонансных случаев связан с тем, что ChatGPT создал ложное обвинение в отношении обычного пользователя из Норвегии, представив его как осужденного убийцу собственных детей. Этот инцидент не только вызвал волну общественного возмущения, но и стал поводом для подачи жалобы в органы по защите данных с обвинением OpenAI в нарушении принципов GDPR.
Анализируя данное событие, можно выявить серьезные проблемы работы современных AI-решений, а также определить пути их устранения и минимизации рисков для пользователей. Инцидент с порождением ложной информации в ChatGPT произошло, когда норвежский пользователь Арве Хялмар Хольмен хотел узнать, имеется ли у ИИ какая-либо информация о нем. Вместо правдивых сведений чатбот с уверенностью создал целую вымышленную историю, обвиняя его в убийстве двух из своих детей и попытке убийства третьего. Что вызывает особое беспокойство, так это включение реальных личных данных пользователя — количества детей, их пола, а также названия его родного города. Этот контраст между подлинностью и ложью наносит огромный урон репутации пострадавшего и повышает вероятность того, что кто-то воспримет подобную информацию как правду.
Почему же появляется такая проблема? В своей основе ChatGPT построен на алгоритмах прогнозирования текста: он подбирает самые вероятные слова и фразы в ответ на запрос, основываясь на ранее изученных данных. Это достигается путем тренировки на обширных текстовых корпусах, содержащих миллиарды предложений и фактов. Однако эти системы не обладают внутренним пониманием правды или лжи, а лишь имитируют человеческую речь. В ряде случаев это приводит к так называемым «галлюцинациям» — созданию ответов, которые не соотносятся с реальностью, но выглядят достаточно убедительно. Последствия таких ошибок могут быть фатальными для человека.
В отличие от безобидных фантазий, упоминание о тяжких преступлениях способно иметь долгосрочные негативные последствия: потеря работы, семейные конфликты, психологический стресс и даже угрозы безопасности. Кроме того, в некоторых странах подобные клеветнические факты могут привести к судебным разбирательствам, что влечет дополнительные финансовые и моральные затраты. С юридической точки зрения ситуация серьезно осложняется нормами европейского Общего регламента по защите данных (GDPR). Согласно статье 5(1)(d) GDPR, персональные данные обязаны быть точными и актуальными. Если информация ложная, у субъектов данных есть право требовать их исправления или удаления.
В случае с OpenAI ситуация осложняется тем, что компания отказывается корректировать неточные сведения, ссылаясь на технические ограничения и предлагая лишь заблокировать определённые запросы. Такой подход вызывает опасения у экспертов по защите данных, которые настаивают, что использование предупреждающих надписей и отказ от коррекции не освобождают от ответственности перед законом. Наряду с этим был установлен факт, что после инцидента ChatGPT получил возможность извлекать свежие сведения из интернета для улучшения качества ответов. Это помогло устранить конкретный случай ложного обвинения в адрес Хольмена. Однако остается большой вопрос, насколько старые некорректные данные остаются частью обучающей модели, ведь ее переработка и переобучение — сложный и дорогостоящий процесс.
И, что еще важнее, пользователи не имеют доступа к информации о том, какие данные обрабатываются AI или используются для выдачи ответов, что усложняет соблюдение их права на доступ и исправление. Эксперты в области права и защиты данных предупреждают, что если не принять меры по уменьшению количества AI-галлюцинаций, количество случаев нанесения ущерба репутации и нарушения личных прав будет только расти. Клеанти Сардели, юрист по защите данных в организации noyb, подчеркнула, что предупреждения о потенциальных ошибках не могут служить оправданием для пренебрежения обязанностями по обеспечению точности данных. Компании должны активно работать над устранением ложных данных внутри своих систем и соблюдать действующее законодательство, вместо того чтобы скрывать проблему под маской технических сложностей. Проблема галлюцинаций искусственного интеллекта касается не только OpenAI и ChatGPT, но и всей индустрии AI в целом.
Усиление внимания со стороны регуляторов, появление прецедентных судебных решений и рост требований к прозрачности алгоритмов свидетельствует о том, что эпоха безнаказанного распространения дезинформации скоро может закончиться. При этом сохранение баланса между инновациями и ответственностью становится ключевым вызовом для разработчиков, пользователей и законодателей. Для пользователей, которые используют AI-инструменты, важно осознавать потенциальные риски и проверять полученную информацию на достоверность, особенно если она касается личных или репутационных данных. При возникновении подозрений на ложные обвинения или другие вредоносные данные следует обращаться к официальным органам по защите данных и добиваться восстановления своей репутации. В заключение, история с вымышленным убийцей детей, созданным ChatGPT, служит тревожным призывом к системным изменениям в сфере искусственного интеллекта.
Только сочетание технологических доработок, строгого соблюдения правовых норм и повышения культуры ответственного использования AI позволит предотвратить повторение подобных инцидентов и защитить права каждого человека в цифровом пространстве.