В современном мире искусственный интеллект становится неотъемлемой частью различных отраслей: от медицины до юриспруденции и инженерии. Этот технологический прорыв несет с собой массу новых возможностей, но вместе с тем и высокие риски, особенно в плане юридической ответственности за ошибки и нарушения, которые могут возникать при использовании ИИ-систем. В ответ на эти вызовы американский сенатор Синтия Ламмис предложила законопроект RISE (Responsible Innovation and Safe Expertise Act), направленный на регулирование вопросов гражданской ответственности при использовании профессионального искусственного интеллекта. Несмотря на положительную оценку ряда экспертов, законопроект сталкивается с критикой за свою ограниченность и отсутствие конкретики в ряде ключевых вопросов. Целью RISE Act является создание правовой основы, которая бы защитила разработчиков ИИ от излишних исков, одновременно обязывая профессионалов — врачей, юристов, инженеров — понимать возможности и ограничения используемых ими ИИ-инструментов.
Сенатор Ламмис охарактеризовала предложение как первую в США целенаправленную реформу гражданской ответственности для профессионального ИИ. Однако баланс, предложенный в законопроекте, вызывает споры среди специалистов. Эксперты отмечают, что RISE Act возлагает основную ответственность на «обученных профессионалов», требуя от разработчиков лишь раскрытия технических характеристик моделей — например, в форме карточек модели с описанием параметров и особенностей. В то же время разработчики получают широкую иммунитетную защиту от юридической ответственности за непредсказуемые действия их систем, что по мнению некоторых критиков, является односторонним преимуществом в пользу индустрии ИИ. Дебаты вокруг законопроекта затрагивают важный вопрос: не превращается ли RISE Act в инструмент свободного от наказаний «прощения» ошибок ИИ-компаний? Некоторые считают, что закон облегчит защиту разработчиков от законных исков по поводу сбоев и недостатков их технологий, даже если эти сбои приведут к серьезным последствиям для пользователей.
Однако есть и иное мнение, согласно которому защита разработчиков от строгой ответственности оправдана. Юрист Феликс Шипкевич обращает внимание на то, что современные большие языковые модели обладают высокой степенью автономности и непредсказуемыми результатами. Без иммунитета разработчики рискуют подвергнуться бесконечным судебным искам за воздействия, которые они объективно не могут контролировать. Такая перспектива могла бы затормозить инновации и развитие технологий. В то же время аргументы критиков сводятся к тому, что ограниченная прозрачность и сфокусированность исключительно на профессиональном использовании упускают из виду важные категории применения ИИ.
Например, случаи, когда ИИ взаимодействует напрямую с конечными пользователями без посредников-профессионалов, остаются без четкого регулирования. Это особенно актуально в свете недавних трагических инцидентов, связанных с использованием чатботов несовершеннолетними, когда реализация ИИ-продуктов оказалась небезопасной. Профессор Гамид Экбия из Университета Сиракуз считает, что необходимо установить ясные и единые стандарты, которые бы одновременно защищали права пользователей и стимулировали ответственное поведение разработчиков. Между тем, законодательство в этом направлении пока остается незрелым. Особое внимания уделяется медицинской сфере, где ответственность за применение ИИ особенно сложна.
Медицинские работники традиционно несут ответственность за диагнозы и лечение, однако с интеграцией ИИ возникают новые правовые вопросы, в частности, когда искусственный интеллект выступает в качестве вспомогательного или даже основного диагностического средства. Плохое взаимодействие врача с ИИ может привести к худшим результатам, чем использование ИИ прогноза «в одиночку». В таких случаях непонятно, кто будет отвечать за медицинские ошибки: врач, страховая компания, разработчик программного обеспечения или иные участники процесса. Этот аспект требует дальнейшего законодательного прояснения. Другой важный критический голос принадлежит исполнительному директору некоммерческой организации AI Futures Project Дэниелу Кокотайло.
Он указывает на недостаточную глубину требований к прозрачности в законопроекте. По его мнению, закон предлагает лишь раскрытие технических характеристик, не затрагивая вопросы целей, ценностей, предвзятости и иных важных параметров работы мощных ИИ-систем. Кроме того, закон подразумевает возможность для компаний отказаться от прозрачности, если они предпочитают принимать на себя ответственность. Кокотайло подчеркивает, что такой подход не может обеспечить должного уровня надзора и информирования общества. Для сравнения, подход Европейского союза к регулированию гражданской ответственности в области ИИ опирается на принципы прав человека и направлен на расширение прав и возможностей конечных пользователей.
В 2023 году ЕС предложил комплексный AI Act, предусматривающий более строгий контроль и предписания для разработчиков, включая обязательные стандарты безопасности и прозрачности. Хотя AI liability directive ЕС был отозван в 2025 году под давлением индустрии, сама правовая система ЕС остается ориентированной на права потребителей и защиту пользователей, в отличие от риск-ориентированного подхода, который выбирает законопроект RISE, делая упор на процессы, документацию и оценки рисков как инструменты управления. Этот контраст привлекает внимание к необходимости поиска оптимального баланса между защитой разработчиков и сохранением прав пользователей, а также к важности прозрачности и ответственности на всех уровнях внедрения ИИ. В настоящее время RISE Act рассматривается многими экспертами как начальная точка для дальнейшего развития законодательства, а не как окончательный и исчерпывающий документ. Некоторые юристы и специалисты по политике считают, что предложение имеет смысл, если будет расширено и дополнено более жесткими требованиями по прозрачности, а также обязательствами по управлению рисками.
С точки зрения американского рынка и правового поля, принятие RISE Act может стать важным шагом в формировании национальной стратегии регулирования ИИ, задав тон и направление для дальнейшей законодательной работы. Однако для того чтобы такое регулирование действительно способствовало ответственной и безопасной интеграции ИИ, необходимо усилить требования по прозрачности, уделить внимание взаимодействию с пользователями и предусмотреть защиту всех участников процесса. Введение закона запланировано на декабрь 2025 года, при условии его принятия и подписания. К этому времени законопроект может пройти ряд изменений и дополнений, чтобы лучше соответствовать реалиям и вызовам стремительно развивающейся области искусственного интеллекта. Таким образом, законопроект RISE сенатора Ламмис представляет собой своевременный и важный шаг в направлении регулируемого внедрения ИИ в профессиональные сферы.
Однако его успех и эффективность будут зависеть от того, сможет ли закон учесть все сложные нюансы и установить сбалансированные правила игры, обеспечивающие защиту и права как разработчиков, так и пользователей искусственного интеллекта.