Одним из последних знаковых событий в области регулирования искусственного интеллекта в Европе стало официальное одобрение Европейской комиссией Кодекса Практики для Общего Назначения ИИ (GPAI). Это решение принято ровно за сутки до вступления в силу второй фазы Европейского закона об искусственном интеллекте, что ознаменовало начало нового этапа ответственности и контроля за развитием и использованием инновационных технологий на всему континенте. Кодекс Практики GPAI представляет собой комплексный набор обязательств и принципов, направленных на обеспечение прозрачности, безопасности и соблюдения интеллектуальных прав в сфере разработки и внедрения ИИ. В документе четко прописаны требования, соответствующие статьям 53 и 55 закона об ИИ, а также предназначенные для достижения целей, обозначенных в статье 56. Несмотря на формальное одобрение, комиссия выделила ряд важных сложностей и нюансов, которые стоит понимать всем участникам рынка.
В основе Кодекса лежит трехглавый принцип рассмотрения: прозрачность, соблюдение авторских прав и обеспечение безопасности. В первом блоке регламентируются обязанности по документированию моделей ИИ, обновлению информации и поддержанию доступа к данным об алгоритмах. Особенно важным аспектом становится требование к разработчикам и поставщикам ИИ предоставлять понятные и актуальные данные о технической архитектуре и обучающих наборах моделей. Вторая глава посвящена вопросам авторского права. Здесь владельцы ИИ должны внедрять меры по выявлению контента с ограниченными правами и создавать каналы для обращения правообладателей.
Законодательство настойчиво призывает к уважительному отношению к интеллектуальной собственности, что особо актуально в эпоху генеративных моделей и массового использования данных. Безопасность и системные риски — третий и, возможно, самый кропотливый аспект. Кодекс устанавливает десять обязательств, направленных на идентификацию, анализ и снижение рисков, связанных с применением ИИ. Важным нововведением стала итеративная модель оценки безопасности — постоянное выявление угроз и реагирование на них на протяжении всего жизненного цикла модели. Одним из наиболее инновационных элементов Кодекса стало введение категории «аналоги по безопасности» или «модели, обеспечивающие сходный или более высокий уровень безопасности».
Эта гибкость предполагает возможность применения упрощенных процедур для моделей, доказавших безопасность на уровне или выше уже компетентно проверенных решений. Такой подход позволит сократить излишние бюрократические барьеры и ускорить выход новых технологий на рынок. Также значительное внимание уделяется роли независимых оценщиков, которые будут выступать в качестве внешних экспертов для проверки соответствия моделей установленным нормам. Создается новая ниша на рынке — услуги по сертификации ИИ, которые станут своеобразным гарантом качества и безопасности. Нельзя не отметить, что Кодекс был разработан с участием более тысячи экспертов, объединяющих интересы провайдеров, властей, научного сообщества и гражданского общества.
Такая мультистейкхолдерная структура призвана обеспечить баланс интересов и формирование действительно эффективных и справедливых правил. Вместе с тем Европейская комиссия признает ряд недостатков и вызовов, сопровождающих принятый документ. В частности, в Кодексе отсутствуют конкретные ключевые показатели эффективности. Это связано с тем, что отрасль искусственного интеллекта находится на стадии активного развития, и на сегодняшний день сложно предугадать все необходимые метрики для оценки реализации норм. Еще одним спорным моментом стала тема прозрачности в части описания обучающих данных моделей.
Здесь отмечаются разногласия между участниками рынка относительно детализации и объема представляемой информации. Вопрос по-прежнему открыт и будет дорабатываться с учетом мнений заинтересованных сторон. Особое внимание уделено авторским правам — комиссия четко заявляет, что одобрение Кодекса не отменяет действие существующих законов в области интеллектуальной собственности, а лишь обеспечивает дополнительные механизмы для доказательства соответствия им. Одной из неожиданных и революционных составляющих стал механизм постоянного мониторинга. Новая система предполагает регулярную проверку деятельности моделей ИИ компетентными органами, обновление правил минимум раз в два года и быструю реакцию на выявление новых угроз.
Координация на национальном и международном уровнях позволит максимально эффективно поддерживать безопасность и надежность искусственного интеллекта. Кроме того, в Кодексе прописаны четыре сценария «экстренного реагирования», при которых возможна незамедлительная корректировка регулятивных мер. Речь идет о появлении новых системных рисков, обнаружении новых векторов атак, изменениях контекста применения решений и появлении революционных технологий. Для итальянских компаний принятие Кодекса открывает новые перспективы и задачи. Технологические гиганты должны немедленно привести свои разработки в соответствие с новыми требованиями, усилив внутреннюю систему управления рисками и подготовив процедуры обязательной отчетности.
Для быстроразвивающихся стартапов наступает момент оценки порогов регулирования и поиска выгодных партнерств с независимыми оценщиками — те, кто станет пионерами внедрения норм, получат преимущество на рынке и рост доверия со стороны клиентов. Сам итальянский технологический ландшафт получит мощный импульс для развития нового сегмента рынка — услуг по аудиту, сертификации и управлению ИИ. Компании, готовые и способные интегрировать принципы Кодекса в свои бизнес-процессы, смогут использовать это как фактор конкурентоспособности не только на внутреннем, но и в глобальном масштабе. Важными индикаторами эффективности внедрения Кодекса станут скорость его принятия игроками рынка, первые толкования и реализация положений национальными органами, а также реакция зарубежных компаний — в этом будет проявляться влияние так называемого «бруссельского эффекта», когда правила ЕС становятся де-факто стандартом во всем мире. Принятие Кодекса Практики включает в себя конкретные временные рамки, которые не только структурируют процесс, но и оказывают давление на участников рынка для выполнения обязательств.
Уже в августе 2025 года Кодекс начинает работать в полном объеме, открывая сбор подписей и подготовку к оценкам соответствия. К концу года запланированы первые инспекции и проверки, в августе следующего года — полноценное соблюдение всех норм, с дедлайном для уже существующих моделей в августе 2027 года. Одобрение Европейской комиссией Кодекса Практики GPAI знаменует собой окончание экспериментальной фазы закона об ИИ и начало нового, практического этапа внедрения регуляций. Компании, рассматривающие эти изменения как возможность для инноваций и роста, получат преимущество на динамично меняющемся рынке. Законодательство Европы уже сегодня поддерживает принципы прозрачности, безопасности и этичности, а Кодекс лишь конкретизирует и структурирует эти требования.
Таким образом, будущее искусственного интеллекта в Европе перестает быть теоретической областью дискуссий и становится предметом системной и последовательной реализации, в которой технологии развиваются в рамках четких и понятных правил. Именно эти правила определят лидеров индустрии следующего десятилетия и зададут новый стандарт глобального технологического развития.