В последние годы развитие искусственного интеллекта (ИИ) стремительно изменяет ландшафт различных отраслей, вызывая не только технологический прогресс, но и новые вызовы в области правового регулирования. В ответ на эти изменения сенатор США Синтия Луммис представила законопроект Responsible Innovation and Safe Expertise (RISE Act) в 2025 году. Он направлен на создание основ для регулирования профессионального использования ИИ, предлагая уникальную модель ответственности и прозрачности, однако вызывает немало вопросов по поводу своей полноты и эффективности. Суть законопроекта RISE заключается в защите разработчиков ИИ от прямой гражданской ответственности в случаях, если профессионалы, такие как врачи, юристы и инженеры, используют ИИ как инструмент при оказании своих услуг. Идея состоит в том, чтобы обеспечить специалистам возможность принимать осознанные решения о возможностях и ограничениях ИИ без страха перед излишними юридическими рисками для разработчиков программного обеспечения.
На первый взгляд, такой подход кажется своевременным и необходимым для поддержки инноваций и внедрения новых технологий. Несмотря на положительную реакцию экспертов и социума, законопроект все же подвергается критике за ограниченность охвата и, что важнее, недостаточную конкретику в области прозрачности и ответственности. Противники указывают, что предоставление разработчикам ИИ широкого иммунитета от судебных исков может нивелировать влияние этих инструментов на конечных пользователей и создать позицию перекладывания ответственности на профессионалов, которые используют эту технологию в своей практике. Профессор Хамид Экбия из Университета Сиракуз отметил, что несмотря на важность и своевременность RISE Act, законопроект в значительной степени смещает баланс в пользу разработчиков, возлагая основную часть риска на профессионалов. Требования ограничены публичным раскрытием технических характеристик моделей — так называемых «модельных карточек», что, по мнению многих, недостаточно для обеспечения полной прозрачности.
Такой подход вызывает опасения определённых слоев общества, которые воспринимают законопроект как попытку «дарить» ИИ-компаниям иммунитет от ответственности. В то же время юрист Феликс Шипкевич подчеркнул, что отказ от иммунитета для разработчиков может обернуться бесконечным юридическим риском, особенно учитывая непредсказуемое поведение сложных языковых моделей. С его точки зрения, защита разработчиков от ответственности при отсутствии злого умысла и небрежности является обоснованной и необходимой мерой. Однако важным ограничением законопроекта является его узкая направленность — он преимущественно рассматривает случаи, когда профессионалы применяют ИИ в взаимодействии с клиентами или пациентами. В то время как случаи, в которых ИИ взаимодействует напрямую с конечным пользователем без вмешательства специалиста, остаются неохваченными.
К примеру, инцидент во Флориде с подростком, который совершил самоубийство после длительного общения с ИИ-чатботом, поднимает вопрос об ответственности разработчиков за безопасность конечных пользователей, особенно уязвимых групп, что законопроект RISE не регулирует. В этой связи эксперты обращают внимание на необходимость разработки чётких и единых стандартов ответственности и защиты прав всех участников процесса — пользователей, разработчиков и профессионалов. Как отмечает профессор права и здоровья Райан Эбботт, ИИ создает новые виды потенциального вреда из-за своей сложности и автономности, что особенно заметно в медицине. Там возникают двусмысленные ситуации, когда в некоторых случаях человеческое вмешательство ухудшает результаты диагностики по сравнению с полностью автоматизированными системами ИИ. В таком контексте традиционные модели медицинской ответственности сталкиваются с серьёзными вызовами.
Вопросы распределения ответственности при ошибках, допущенных в результате применения ИИ, остаются без ответов. Кто компенсирует ущерб: врач, использующий инструмент; страховые компании или разработчики? Могут ли существующие системы страхования покрывать такие риски? Пока что законодательная база не предлагает конкретных решений по этим задачам. Не менее важна и проблема прозрачности. Организация AI Futures Project косвенно поддержала законопроект, но указала на недостаточность раскрытия информации. По словам её исполнительного директора Дэниела Кокотайло, общественность заслуживает знать не только технические параметры, но и цели, ценности, предвзятости и другие установки, которые вкладывают разработчики в ИИ.
Текущий законопроект оставляет эти вопросы без должного внимания, что снижает его эффективность в обеспечении действительно ответственного внедрения технологий. Также существует опасение, что компании смогут «выбирать» прозрачность добровольно, избегая ответственности, когда это выгодно, что делает систему заложенную в RISE неспособной полноценно защитить общественные интересы. В международном контексте стоит сравнить американский подход с европейским. В Евросоюзе действует AI Act 2023 — комплексный регламент, ориентированный на права человека и защиту конечного пользователя. В отличие от риск-ориентированного подхода RISE, европейское законодательство нацелено на расширение прав и возможностей людей, пострадавших от потенциального ущерба ИИ.
Правовое поле Европы требует, чтобы разработчики изначально доказывали соблюдение правил безопасности и прозрачности, что обеспечивает проактивный контроль. Хотя первоначальная директива по ответственности ЕС была отозвана в 2025 году, частично из-за давления индустрии, общий подход остаётся более жёстким и нацеленным на защиту интересов пользователей. Для США такой опыт может стать отправной точкой при дальнейшей доработке RISE, ведь создание ясных и справедливых стандартов имеет существенное значение для поддержки инноваций и одновременно защиты общества от возможных рисков. Юридические специалисты подчёркивают, что RISE Act должен рассматриваться как первый шаг в долгом процессе формирования законодательства об ИИ, а не как окончательное решение. Благодаря некоторым ключевым элементам, например безопасной гавани для разработчиков, законопроект предлагает баланс интересов, однако необходимость усилить требования к раскрытию информации и обеспечению контроля очевидна.
Кроме того, эксперты акцентируют внимание на важности введения независимого аудита и оценки рисков, поскольку простая публикация «модельных карточек» может создать ложное ощущение безопасности без реальной проверки и контроля. В заключение, законопроект RISE сенатора Луммис – это своевременная инициатива, призванная дать развитие новой технологической реальности без излишнего юридического давления на инновационные компании. Однако предложенная модель остаётся недостаточно конкретизированной для понимания всех рисков и ответственности, особенно в чувствительных сферах, таких как медицина и взаимодействие с уязвимыми группами населения. Для эффективной реализации и принятия RISE Act потребуется дальнейшая доработка с учётом международного опыта, практических аспектов использования ИИ и междисциплинарного сотрудничества вне только технологических и юридических сообществ. В конечном счёте, правильная законодательная рамка для ИИ должна поддерживать технологический прогресс и одновременно защищать интересы общества, обеспечивая прозрачность, ответственность и права конечных пользователей.
Ожидается, что при прохождении всех согласований, законопроект вступит в силу с 1 декабря 2025 года, открывая новую страницу в регулировании ИИ в США и задавая тон дальнейшему развитию политики в этой быстро меняющейся сфере технологий и законодательства.