Недавнее судебное решение, связанное с использованием авторских материалов для обучения моделей искусственного интеллекта, вызвало широкий резонанс в технологическом и творческом сообществах по всему миру. Компания Anthropic получила частичную победу в споре с тремя авторами, которые обвинили её во внедрении охраняемых законом произведений в библиотеку, служащую основой для тренировки модели Claude. Однако данное судебное решение, которое на первый взгляд кажется значительным прорывом для любых компаний, занимающихся ИИ, на деле имеет множество нюансов и вызывает споры о будущем авторского права в эпоху цифровых инноваций. Важную роль в этом процессе сыграл судья Уильям Алсуп, представляющий Северный округ Калифорнии, чья позиция была сформулирована как поддержка концепции «справедливого использования» материалов для целей обучения ИИ. Он утверждал, что использование текстов для обучения машинному интеллекту в значительной степени похоже на процесс, которым руководствуются люди: чтение, запоминание и творчество на основе полученной информации.
Судья считал, что с этих позиций было бы невозможно обязать платить авторам каждый раз, когда кто-то вспоминает или использует тексты в своей работе, потому что это противоречит самой идее творческого процесса и обучения. Судебное мнение охарактеризовало процесс обучения модели Claude как «исключительно преобразующий», приравнивая его к действиям любого читателя, который стремится стать автором. Такая аргументация дала повод представителям технологического сектора провозгласить это решение «большой победой» для индустрии искусственного интеллекта и будущее обучение ИИ моделей на основе больших массивов данных. Эксперты в области интеллектуальной собственности, включая Андреса Гвадамуса из Университета Сассекса, подтвердили, что данное постановление является значимым с правовой точки зрения, но при этом подчеркнули, что для конкретно компании Anthropic ситуация может быть менее однозначной, учитывая вероятность продолжения судебных разбирательств по другим аспектам дела. Судебное решение стало стартовой точкой для длительного юридического процесса, в ходе которого стороны будут спорить о границах применения авторских прав в цифровом обучении, сфере ИИ и инновативных технологиях.
Специалисты, такие как Эд Ньютон-Рекс, основатель организации Fairly Trained, занимающейся сертификацией компаний по уважению авторских прав в сфере ИИ, считают, что суд не до конца учёл важные аргументы создателей контента. По мнению Ньютон-Рекса, выводы суда о том, что ИИ учится подобно человеку, и что это не препятствует стимуляции творчества, могут быть легко оспорены в последующих апелляциях. Он отмечает, что подобная судебная практика поначалу кажется негативной для авторов, но на деле выступает только отправной точкой для дальнейших споров, которые будут влиять не только на технологические компании, но и на всю креативную индустрию. В контексте массового развития искусственного интеллекта и его применения в создании текстов, изображений, музыки и других видов контента, вопрос о правовой регуляции использования охраняемых произведений становится всё более острым. Судебное решение в деле Anthropic отражает попытку системы права найти баланс между необходимостью стимулирования инноваций и защитой прав творцов.
Стороны конфликта по-прежнему не имеют единого мнения и проявляют готовность продолжать борьбу в судах различных инстанций. В практическом плане данное решение может означать, что компании, строящие свои ИИ на огромных датасетах, содержащих защищённый контент, смогут продолжать обучение своих моделей без обязательного согласия авторов или лицензирования каждого произведения отдельно — если только суды в будущем не решат иначе. Это означает, что такие модели, как Claude или GPT, смогут обрабатывать и накапливать знания из больших массивов данных, преобразовывая их в новые тексты и решения, что стимулирует развитие технологий и открывает новые возможности для бизнеса. Однако творческое сообщество выражает беспокойство, что такое положение дел может привести к уменьшению мотивации авторов создавать оригинальный контент, поскольку их права становятся менее защищёнными. Кроме того, отрасль сталкивается с необходимостью разработки новых механизмов компенсации и этических стандартов, учитывающих специфику создания и использования ИИ.