В условиях стремительного развития искусственного интеллекта вопросы правовой ответственности и регулирования становятся все более актуальными. Именно в этот момент сенатор США Синтия Ламмис представила законопроект под названием Responsible Innovation and Safe Expertise Act 2025, сокращенно RISE Act. Его цель – создать правовую основу, которая защитит разработчиков AI от необоснованных судебных исков и одновременно обеспечит профессионалам — врачам, юристам, инженерам — возможность понять рамки работы AI-инструментов, прежде чем их использовать в своей деятельности. Несмотря на позитивную оценку идеи законопроекта, эксперты отмечают его ограниченный охват и недостаточную детализацию, что вызывает споры о том, кому на самом деле он принесет пользу и не станет ли он оправданием для AI-компаний, уклоняющихся от ответственности. Одним из ключевых моментов в дискуссии вокруг RISE Act является баланс между защитой инноваций и необходимостью прозрачности.
Сенатор Ламмис подчеркивает, что civil liability law, или гражданское право ответственности, если оно плохо сформулировано, может создать серьезные препятствия для развития технологий, поскольку разработчики могут столкнуться с чрезмерными юридическими рисками. Однако критики указывают на то, что закон слишком смещает этот баланс в пользу производителей AI, возлагая львиную долю ответственности на конечных пользователей – профессионалов, которые, по сути, становятся последней линией обороны и должны прояснять границы возможностей AI-систем самостоятельно. Так, профессор Хамид Экбия из Сиракузского университета называет RISE Act «своевременным и необходимым», однако считает, что потенциально закон защищает разработчиков слишком широко, ограничиваясь требованием раскрывать лишь технические спецификации машинного обучения, такие как модельные карты. Это создает ситуацию, когда профессионалы должны самостоятельно брать на себя риски при использовании AI, в то время как компании-разработчики получают широкую юридическую неприкосновенность. По мнению отдельных критиков, подобный подход можно рассматривать как «подарок» AI-индустрии, которая давно стремится избежать ответственности за возможные ошибки и негативные последствия своих продуктов.
Напротив, некоторые юристы, например, Феликс Шипкевич, придерживаются мнения, что подобная защита разработчиков имеет под собой веские юридические основания. Он объясняет, что предоставление полной ответственности за непредсказуемое поведение больших языковых моделей без обвинения в халатности или умысле может стать невозможным. Без такого правового щита разработчики смогут столкнуться с неограниченными претензиями, которые непрактично контролировать из-за автономной и сложной природы AI-систем. При этом рамки законопроекта оказываются достаточно узкими и ориентируются главным образом на ситуации, где профессии используют AI-инструменты в своей работе с клиентами или пациентами. Примером может служить применение AI финансовым консультантом для формирования инвестиционной стратегии или использование врачом программного обеспечения для интерпретации медицинских снимков.
Случаи же с прямым взаимодействием AI и конечных пользователей, особенно уязвимых групп, например, детей, остаются за пределами регулирования. В одной из таких историй, произошедших недавно во Флориде, подросток покончил с собой после длительного общения с AI-чатботом, который, по словам семьи, не был достаточно безопасен и адекватен для несовершеннолетних. Этот и аналогичные случаи ставят вопрос о том, кто должен нести ответственность за вред, причиненный подобных образом. Такие ситуации на данный момент не учитываются в законопроекте RISE Act, что говорит о его пробелах в обеспечении комплексной защиты пользователей. Правоотношения и стандарты в области ответственности за AI сталкиваются с рядом уникальных сложностей, поскольку технологии характеризуются сложностью, непрозрачностью и определенной степенью автономии.
Особенно остро такие вызовы проявляются в здравоохранении, где традиционно основу принятия решений составляют компетенции врачей. Однако современные исследования показывают, что в некоторых областях медицинской практики использование AI без «человеческого участия» может приводить к лучшим результатам. Это открывает новые вопросы – кто будет отвечать и нести расходы при ошибках, допущенных AI, если врач окажется «вне процесса»? Будет ли покрывать это медицинская страховка? Пока ответы однозначны не даны. Необходимость прозрачности и открытости AI-систем также остается в центре обсуждения. НПО AI Futures Project, принимавший участие в подготовке законопроекта, выражает поддержку, однако считает, что требования к раскрытию информации слишком ограничены.
Например, общественность имеет право знать, какие цели, ценности, предубеждения и инструкции закладываются в AI, что отражает суть прозрачности, а не только предоставление технических данных модели. К сожалению, нынешняя редакция не требует таких подробностей, оставляя дело на усмотрение компаний, которые могут отказаться от ответственности, если сочтут нужным. Важно сравнить подход США с законодательством Европейского союза в области AI. ЕС традиционно ориентируется на права человека и проводит «права-ориентированный» подход, способствующий защите пользователей, будь то пациенты, потребители или клиенты. Законодательство ЕС требует доказательства соответствия AI систем стандартам безопасности и прозрачности заранее, а не после возникновения проблем.
В отличие от этого США предлагают конструкцию, сфокусированную на управлении рисками, документации и оценках, что подразумевает акцент на выявление и снижение предвзятостей и других недостатков. Учитывая новизну и сложность темы, законопроект RISE Act воспринимается экспертами скорее как инициатива, начало разговора и основа для дальнейших доработок. Специалисты подчеркивают важность включения более строгих обязательств по прозрачности и управлению рисками, которые помогут сбалансировать интересы разработчиков, профессионалов и конечных пользователей. Американская организация Americans for Responsible Innovation выделяет, что законопроект вводит важные концепции, такие как федеральные рекомендации по прозрачности и безопасные зоны для профессионалов, использующих AI. Однако без привлечения независимых экспертов для аудита и оценки рисков публикуемые технические данные смогут создать иллюзию надежности там, где она не гарантируется.