В современную эпоху стремительного развития технологий искусственного интеллекта (AI) всё серьёзнее встаёт вопрос использования интеллектуальной собственности и авторского контента в алгоритмах обучения и функционирования AI-систем. Крупнейший британский новостной гигант BBC недавно заговорил о защите своих интересов в этой сфере, угрожая принять юридические меры к американской компании Perplexity, специализирующейся на AI-чатаках. В центре конфликта оказалось несанкционированное воспроизведение BBC-контента в ответах чатбота, что вызвало широкие дискуссии о правовом статусе и этичности способы использования материалов медиаорганизаций для развития искусственного интеллекта. Суть претензий BBC заключается в том, что Perplexity без разрешения копирует и воспроизводит контент новостного портала буквально «дословно», нарушая условия использования BBC и современные нормы об авторских правах, действующие на территории Великобритании. Эта прецедентная ситуация стала примером того, как традиционные медиа всё активнее защищают свои материальные и нематериальные активы в условиях растущих вызовов, связанных с технологическим прогрессом.
В письме, направленном генеральному директору Perplexity Аравинду Срінивасу, BBC требует немедленно прекратить использование её контента, удалить всё уже полученное и предоставить финансовую компенсацию за нанесённый ущерб. Ранее в 2025 году BBC опубликовала исследование, выявившее проблемы в том, как четыре популярных AI-чатбота, в том числе Perplexity, неправильно обобщают новости, в ряде случаев искажая информацию и нарушая стандарты точности и беспристрастности, установленные BBC Editorial Guidelines. Такие результаты не только несут урон репутации BBC, но и подрывают доверие миллионов британских лицензированных платильщиков, которые финансируют корпорацию. Основная проблема с использованием контента заключается в процессе, известном как веб-скрапинг – автоматическом извлечении данных с различных веб-сайтов с помощью специальных ботов и краулеров. Именно с помощью таких технологий AI-компании выбирают и собирают огромное количество информации для обучения и поддержки своих алгоритмов.
Однако при этом далеко не всегда соблюдаются нормы авторского права и соглашения с владельцами ресурсов. Многие медиаорганизации, включая BBC, применяют файл robots.txt в структуре своего сайта, чтобы ограничить доступ подобных ботов к определённым страницам и материалам, тем самым пытаясь защитить собственный контент от массового копирования. В то же время соблюдение данных запросов является добровольным, и некоторые боты просто игнорируют эти запреты, что и обвиняется в случае Perplexity. Несмотря на обвинения, сами представители Perplexity настаивают, что их деятельность не нарушает таких правил и что компания не использует напрямую контент для обучения моделей глубинного интеллекта (foundation models), ограничиваясь поиском и синтезом информации в режиме реального времени.
В официальном ответе Perplexity заявление BBC охарактеризовали как попытку сохранить монополию Google на обработку и распространение новостной информации, однако никаких доказательств и пояснений по этому поводу не было предоставлено. Заявленная позиция Perplexity отражает сложные и запутанные отношения между крупнейшими технологическими компаниями и медиаиндустрией. Этот конфликт вскрывает более масштабную проблему, которая касается не только BBC и Perplexity, но всего рынка цифрового медиаконтента и его использования в эпоху AI. Профессиональная ассоциация издателей Великобритании (PPA), объединяющая свыше 300 медиа-брендов, выразила глубокую обеспокоенность тем, что многочисленные AI-платформы в настоящий момент не соблюдают законодательство о авторском праве, активно используя контент без разрешения и выплаты лицензионных платежей. Это создаёт серьёзные угрозы для индустрии стоимостью более 4,4 миллиарда фунтов стерлингов и миллионов рабочих мест, задействованных в сфере издательства и журналистики.
Задействованные стороны, судебные перспективы и законодательные инициативы находятся в фокусе внимания общественности и экспертов. В Великобритании уже звучат призывы к государственным структурам обеспечить более чёткое юридическое регулирование использования оригинального контента в обучении и работе AI, а также усилить меры по обеспечению соблюдения авторских прав в цифровой среде. Такой шаг может включать более жёсткий контроль за роботами-краулерами, повышение требований к прозрачности действий AI-компаний, а также создание систем справедливой компенсации правообладателям. Этот конфликт также сигнализирует о необходимости более ответственного отношения к качеству и точности информации, которая поступает от искусственного интеллекта. Наличие случаев неточностей и искажений в материалах, созданных AI, подрывает не только доверие к самим технологиям, но и вредит репутации традиционных медиа, которые связаны с общественной миссией обеспечения объективного и беспристрастного освещения событий.