Появление искусственного интеллекта в различных сферах деятельности ставит все новые и новые вызовы для законодательного регулирования. Как обеспечить баланс между стимулированием инноваций и защитой прав потребителей и общества? Именно с этой целью сенатор США Синтия Ламмис в 2025 году представила законопроект под названием Responsible Innovation and Safe Expertise Act, или сокращенно RISE Act. Этот документ позиционируется как первая попытка регулировать ответственность в области «профессионального» ИИ, ориентированного на узкие сферы применения – медицину, юриспруденцию, инженерное дело и другие профессиональные отрасли. Несмотря на своевременность и актуальность инициативы, законопроект вызывает неоднозначные оценки, поскольку содержит ряд важных пробелов и вызывает вопросы относительно баланса интересов различных участников рынка. Ключевая идея RISE Act состоит в защите разработчиков ИИ от прямой гражданской ответственности за ущерб, причиненный их продуктами, при условии соблюдения требований прозрачности и раскрытия технических характеристик моделей.
Сенатор Ламмис и сторонники законопроекта считают, что именно чрезмерное юридическое давление и риск открытых исков могут остановить развитие ключевых технологий, поскольку компании будут слишком опасаться последствий «непредсказуемого поведения» систем. Отсюда предложение предоставить разработчикам узкую защиту от ответственности при условии, что профессионалы – врачи, юристы, инженеры – смогут ознакомиться с достоверной и подробной информацией о возможностях и ограничениях конкретных ИИ-инструментов. Такие специалисты, используя систему, будут сами ответственны за принятые решения и за последствия применяемых рекомендаций. Однако специалисты и эксперты отмечают, что предлагаемая схема создает перекос в сторону защиты интересов разработчиков и, одновременно, возлагает слишком большую нагрузку на конечных пользователей – особенно профессионалов, которые не всегда имеют объективные инструменты и полные данные для оценки рисков. Одним из основных требований RISE Act является публичное раскрытие разработчиками моделей так называемых model cards и технологических спецификаций.
Это своего рода паспортные данные алгоритмов – описание их архитектуры, принципов работы, возможных ограничений и потенциальных ошибок. Тем не менее, этого оказывается недостаточно для формирования полноценного понимания того, какой уровень надежности гарантирует ИИ и какие именно риски могут возникнуть в конкретном сценарии использования. Противники законопроекта здесь видят опасность того, что ИИ-компании смогут избегать ответственности, ссылаясь на собственную техническую «прозрачность», при этом не неся реальных обязательств перед пострадавшими. В частности, упоминаются случаи, когда ИИ применяется не через профессионального посредника, а напрямую в общении с конечными пользователями, включая детей и уязвимые категории. Примером стала трагедия во Флориде, когда подросток совершил самоубийство после регулярного взаимодействия с чат-ботом, вызвав вопросы о допустимости эксплуатации ИИ без достаточных мер безопасности.
В европейском законодательстве работодатели идут по другому пути – в ЕС действует комплексный AI Act, направленный на обеспечение защиты прав человека и этических стандартов применения искусственного интеллекта. Европейский подход ориентирован на «права пользователя», предусматривает повышенную ответственность разработчиков и поставщиков решений и требует демонстрации предварительного соблюдения норм безопасности и прозрачности. При этом идея заключается именно в защите конечного потребителя и обеспечении возможности ему получить реальные права и компенсации в случае возникновения вреда. Сравнение этих двух систем демонстрирует фундаментальное различие в акцентах: американская модель RISE Act – риск-ориентированная и пропагандирующая защиту тех, кто создает технологию, ожидая от профильных специалистов грамотного взаимодействия; европейская – правозащитная, ориентированная на усиление ролей сами пользователей и ограничение потенциальных вредов впереди процесса внедрения. Судьба RISE Act пока неопределенна, проекты требуют доработок, прежде всего касающихся расширения прозрачности, усиления механизмов аудита и отчетности, а также расширения сферы действия на сценарии с прямым влиянием ИИ на конечного клиента.
Юридические эксперты, участвующие в обсуждениях, подчеркивают, что без четких и единых стандартов ответственность будет неоднородной и недостаточной, что может тормозить общественное принятие технологий ИИ и создавать размытость в области профессиональной этики. Таким образом, RISE Act является важным стартом для федерального регулирования, но требует серьезной доработки, чтобы обеспечить баланс интересов и повысить уровень доверия со стороны всех участников процесса. Можно с уверенностью сказать, что опыт внедрения этого закона станет своим родом тестом для всей индустрии искусственного интеллекта в США. По мере развития технологий возникнут новые вызовы и ситуации, которые потребуют дополнительных мер. Уже сейчас очевидно, что законодательство должно учитывать сложность и неоднозначность применения ИИ, а также обеспечивать интеграцию мнений и потребностей различных групп – от разработчиков и пользователей до общества в целом.
Параллельно с законодательными инициативами важна прозрачность на уровне бизнес-практик и развитие систем независимого аудита и сертификации ИИ-решений. Без этого даже при наличии защиты от гражданской ответственности могут возникать серьезные репутационные риски и недопонимания с потребителями, что негативно скажется на развитии всей области искусственного интеллекта. Планы внедрения RISE Act с датой вступления в силу 1 декабря 2025 года демонстрируют желание своевременного реагирования законодателей на вызовы цифровой революции. Тем не менее, фундаментальные вопросы о качестве раскрытия данных, механизмах контроля и гарантии прав пострадавших остаются открытыми и требуют активного диалога между всеми заинтересованными сторонами. В итоге, законопроект RISE символизирует важный этап в становлении системы регулирования искусственного интеллекта, в которой нужно найти золотую середину между поощрением инноваций и обеспечением безопасности общества.
Его развитие и окончательная редакция могут стать образцом для будущих законодательных инициатив как в США, так и в других странах, заинтересованных в эффективном управлении быстрыми технологическими изменениями.