В последние годы искусственный интеллект все активнее внедряется в различные сферы нашей жизни, трансформируя подходы к поиску информации, созданию текстов и обработке данных. Одной из компаний, находящихся в центре внимания в мире ИИ, стала Perplexity — стартап, работающий над развитием AI-поисковых систем. Однако недавно Perplexity оказалась в центре скандала после обвинений в плагиате и нарушении принципов этики, связанных с использованием материалов СМИ и обходом механизмов защиты контента в интернете. Обвинения в адрес Perplexity основаны на расследовании, опубликованном в авторитетном издании WIRED. Журналисты выяснили, что Perplexity использует веб-краулеры для сбора информации с сайтов, даже если владельцы этих ресурсов специально ограничивали доступ через Robots Exclusion Protocol — стандарт, призванный регулировать взаимодействие поисковиков и других автоматических систем с веб-страницами.
Это обходное поведение компании противоречит заявленной политике, согласно которой Perplexity обязуется уважать данные ограничения. Более того, анализ работы чатбота Perplexity выявил случаи так называемого «буллшитинга» — ситуации, когда AI-агент генерирует недостоверную или вымышленную информацию, выдавая её за факты. Примером служит история с девочкой по имени Амелия, которая якобы следовала за светящимися грибами в волшебном лесу. Эта выдумка появилась в ответ на запрос о содержании статьи, к которой Perplexity на самом деле не имела доступа. Такое поведение подрывает доверие к системам ИИ и ставит под сомнение их информационную точность.
Этическая сторона вопроса вызывает оживлённые дискуссии. С одной стороны, использование технологий ИИ для автоматического создания резюме и обработки больших массивов информации может значительно облегчить работу пользователей и расширить доступ к знаниям. С другой — копирование и частичное воспроизведение материалов без должного цитирования и признания источника противоречит журналистским нормам и добросовестному использованию контента, может считаться плагиатом. Эксперты в сфере медиа и права разделились в своих оценках. Некоторые считают, что даже воспроизведение нескольких последовательных слов из оригинального текста без кавычек и ссылки на источник входит в рамки плагиата, что негативно влияет на репутацию как журналистов, так и компаний, которые прибегают к таким практикам.
Другие же подчёркивают, что юридическая ответственность за подобные действия не всегда однозначна, так как понятие плагиата является в основном этическим и не всегда сопровождается правовыми санкциями. С точки зрения законодательства о защите интеллектуальной собственности, сложность ситуации возрастает из-за специфики работы ИИ. По мнению некоторых юристов, перефразирование и суммирование фактов технически не нарушают авторские права, ведь факты не подлежат охране авторским правом. В то же время частичное копирование изложения и ключевых формулировок может создавать правовые риски, особенно если это происходит в коммерческом контексте и без разрешения первоначальных правообладателей. Кроме того, существуют вопросы, связанные с применением секции 230 Закона о коммуникационной неприкосновенности, которая защищает интернет-платформы от ответственности за контент, созданный пользователями.
Однако некоторые юристы утверждают, что эта защита может не распространяться на случаи, когда ИИ и компании сознательно искажают или неверно интерпретируют исходные данные, что может привести к юридическим претензиям по обвинениям в клевете или недобросовестной торговой практике. Проблемы, выявленные в работе Perplexity, отражают более широкие вызовы, с которыми сталкивается индустрия ИИ сегодня. Её развитие идёт стремительными темпами, но законодательство и этические нормы ещё не успели адаптироваться к новых реалиям. Это создает потенциальные риски для авторов, журналистов, издателей и других правообладателей, интересы которых могут пострадать из-за массового использования ИИ без должных механизмов контроля и регулирования. В то же время, ведущие специалисты подчеркивают необходимость поиска баланса между инновациями и уважением к интеллектуальной собственности.
Создание новой юридической базы, которая защитит интересы создателей контента и одновременно позволит развивать технологии искусственного интеллекта, является одной из важнейших задач современного общества. Подобные случаи, как с Perplexity, демонстрируют, насколько сложным и многогранным оказывается переплетение технологий, права и этики. Они наглядно показывают, что за техническим прогрессом должны следовать не только инновации, но и продуманные правовые и моральные рамки, обеспечивающие стабильность и доверие пользователей. Для компаний, работающих с ИИ, особенно важно выработать принципы прозрачности и ответственности. Это включает честное информирование о способах работы алгоритмов, источниках данных и возможных ошибках.
В частности, признание источников информации и недопущение недобросовестного копирования являются ключевыми аспектами, способствующими укреплению репутации и снижению риска правовых споров. В конечном итоге, ситуация с Perplexity — это серьезный сигнал для всей отрасли и общества в целом. Она подчеркивает необходимость взаимодействия между технологическими компаниями, законодателями, экспертами в области интеллектуальной собственности и пользователями для создания устойчивой экосистемы, в которой инновации идут рука об руку с уважением к авторскому труду и правам всех участников процесса. Пока же продолжаются дискуссии и поиск справедливых решений, важно сохранять критическое отношение к появляющимся технологиям, внимательно анализировать источники информации и поддерживать журналистские стандарты, которые служат фундаментом доверия в эпоху цифровых трансформаций и искусственного интеллекта.