В современную эпоху стремительного развития искусственного интеллекта (ИИ) и его внедрения в профессиональную сферу вопросы ответственности за решения, принятые с помощью ИИ, становятся все более острыми. Сенатор США Синтия Ламмис внесла в 2025 году законопроект Responsible Innovation and Safe Expertise Act, более известный как RISE Act, который вызвал активные обсуждения в профессиональной среде и среди экспертов в области права и технологий. Этот законопроект направлен на создание баланса между стимулированием инноваций в области ИИ и защитой пользователей, таких как врачи, юристы и инженеры, от рисков, связанных с использованием ИИ в их работе. Несмотря на то, что инициатива была воспринята большинством специалистов как своевременная и необходимая, она вызывает вопросы в части конкретики и полноты предложенных мер. Главная цель RISE Act заключается в защите разработчиков ИИ от гражданско-правовой ответственности за непредвиденные ошибки их моделей при условии соблюдения определенных требований по прозрачности.
Законопроект предусматривает обязательство разработчиков предоставлять технические спецификации — так называемые модельные карты — с детальным описанием возможностей, ограничений и характеристик ИИ-систем. Это поможет профессионалам лучше понять, как и в каких пределах можно применять интеллектуальные инструменты, снижая риски ошибок и неправильных решений. Однако такие меры вызывают опасения среди ряда экспертов, поскольку основная ответственность при этом лежит на пользователях ИИ — специалистах, которые, по мнению законодателей, должны проявлять должную осмотрительность при выборе и использовании технологий. Критики отмечают, что эти меры защитят разработчиков от судебных исков, даже если именно алгоритмы приведут к существенным ошибкам и ущербу. Это вызывает вопрос о том, насколько справедлива и эффективна такая модель распределения ответственности.
Профессор Хамид Экбия из Университета Сиракуз охарактеризовал RISE Act как «своевременный и нужный» законопроект, но при этом высказал мнение, что он слишком смещает баланс в сторону разработчиков. По его словам, предоставление лишь условной «прозрачности» в виде технических бумаг без полноценной ответственности может создать опасную прецедентную ситуацию, в которой конечные пользователи программ в лице профессионалов будут нести основной риск последствий. Подобное мнение разделяет и политическое сообщество, включая представителей демократических кругов, которые критикуют законопроект за то, что он станет своего рода «подарком» для ИИ-компаний, снимая с них значительную часть регуляторных и правовых обязательств. В то же время юристы, такие как Феликс Шипкевич, видят в RISE Act разумный подход с юридической точки зрения, аргументируя необходимость ограничения гражданской ответственности разработчиков из-за сложности контроля за поведением больших языковых моделей, неизбежно обладающих непредсказуемостью. Законопроект фокусируется преимущественно на ситуациях, когда квалифицированные специалисты применяют ИИ в своей работе, формируя взаимодействие с клиентами или пациентами.
Примером может служить использование врачом программного обеспечения для диагностики или финансовым консультантом — инструментов для анализа рынка. Однако RISE Act практически не затрагивает случаи, когда ИИ взаимодействует напрямую с конечным пользователем без посредничества специалистов. Такое упущение особенно заметно на фоне недавних трагичных событий, например, связанных с суицидом подростка во Флориде, который регулярно общался с чат-ботом, созданным без достаточных мер безопасности для несовершеннолетних. В этой связи возникает вопрос о необходимости разработки единых и четких стандартов ответственности и безопасности, которые были бы понятны и обязательны для всех участников процесса — разработчиков, пользователей и регуляторов. Юридический эксперт Райан Абботт отмечает, что искусственный интеллект создаёт уникальные виды вреда из-за своей сложности, автономности и оптической непрозрачности процедур принятия решений.
Особые вызовы в этом плане стоят в медицине, где в ряде случаев вмешательство человека-интерпретатора может привести к худшим результатам, чем полностью автоматизированные медицинские алгоритмы. Таким образом, возникает непростой вопрос распределения ответственности между человеком и машиной. Некоторые организации, занимающие исследовательские и общественные инициативы в области ИИ, выражали условную поддержку RISE Act, отмечая, что законопроект стал первым шагом на пути к федеральному регулированию прозрачности и ответственности. Вместе с тем они подчеркивают, что нынешние требования к раскрытию информации недостаточны для обеспечения общественной безопасности и информированности, поскольку не требуют раскрытия целей, ценностей, предвзятости и других важных аспектов, которые влияют на функции и поведение ИИ-систем. Принципиально важен сравнительный анализ RISE Act с законодательными инициативами в Европейском союзе.
ЕС исторически придерживается более правозащитного подхода, который направлен на расширение полномочий конечных пользователей, предоставляя им конкретные права и возможности для обращения в случае причинения вреда. В то время как RISE Act сфокусирован на управлении рисками через требования к процессам, документации и оценке, европейская модель подчёркивает гарантии защиты прав человека, что существенно влияет на структуру и содержание нормативных актов. Политические и юридические эксперты ЕС подчёркивают необходимость, чтобы разработчики ИИ демонстрировали соблюдение правил безопасности и прозрачности уже на этапе вывода продукта на рынок. Это более проактивный подход, который нацелен на предотвращение нежелательных последствий, а не только на реакцию после их возникновений. Эксперты признают, что законопроект Ламмис нуждается в доработках и дополнениях, чтобы полноценно выполнить свою функцию регулирования быстроразвивающейся и высокотехнологичной области.
В частности, важным условием успеха станет внедрение полноценных требований к прозрачности, включая независимый аудит и комплексные оценки рисков. Это позволит избежать ситуаций, когда улыбчиво представленные технические данные создают иллюзию безопасности, не подкреплённую реальными гарантиями. Заместитель вице-президента по политике организации Americans for Responsible Innovation Джастин Буллок также отмечает сильные стороны законопроекта, призывая к принятию федеральных стандартов и правил прозрачности. Вместе с тем он напоминает, что без независимых проверок и аудита публикация модельных карт может обмануть ожидания пользователей и регуляторов, создавая ложное чувство защищённости. Если RISE Act будет принят и подписан в закон, он вступит в силу с 1 декабря 2025 года.
Этот закон станет важным этапом в формировании правовой базы, регулирующей применение ИИ в профессиональной среде США, и, возможно, окажет влияние на международные стандарты в сфере искусственного интеллекта. В то же время дальнейшие дискуссии и корректировки законопроекта будут необходимы для создания сбалансированной и эффективной системы ответственности, учитывающей интересы всех участников рынка и общества в целом. Таким образом, RISE Act обозначает первый шаг к структурированному подходу регулирования искусственного интеллекта в США, который признаёт необходимость защиты инноваций наряду с обеспечением прозрачности и ответственности. Его роль в дальнейшем развитии законодательства об ИИ будет зависеть от того, насколько удастся найти баланс между стимулированием технологического прогресса и защитой прав людей, использующих и подвергающихся воздействию ИИ-технологий.