В последние годы искусственный интеллект стремительно развивается, проникая во все сферы жизни — от медицины и юриспруденции до финансов и образования. Вместе с ростом применения ИИ возникает острая необходимость в регулировании этой технологии, чтобы предотвратить негативные последствия и защитить как профессионалов, использующих ИИ, так и конечных пользователей. В этой связи громкий общественно-политический резонанс вызвал новый законопроект — Responsible Innovation and Safe Expertise Act, или RISE Act 2025, предложенный американским сенатором Синтией Луммис. Этот документ призван стать первой попыткой адаптировать нормы гражданской ответственности к сложностям, которые влечет за собой профессиональное применение искусственного интеллекта. Несмотря на то что законопроект получил много положительных оценок как своевременный и важный, эксперты указывают на его недостатки и обширные пробелы, особенно в части прозрачности и защиты прав пользователей.
Законопроект RISE стремится обеспечить баланс между интересами разработчиков ИИ и профессионалов, таких как врачи, юристы, инженеры, которые все чаще используют ИИ инструменты в своей работе. Главной целью является создание правовых механизмов, защищающих разработчиков от необоснованных судебных исков, в то время как специалисты получат возможность понять ограничения и возможности конкретного ИИ, на основании чего принимать решение о его использовании. В своей основе законопроект вводит понятие «гражданской неприкосновенности» для разработчиков ИИ, освобождая их от опасности быть привлеченными к ответственности за непредсказуемые результаты моделей, если отсутствует умышленный вред или явная халатность. Вместо этого значительная часть ответственности перекладывается на пользователей — профессионалов, которые должны принимать во внимание предоставленную информацию о характеристиках и ограничениях ИИ, прежде чем полагаться на него в критически важных решениях. Одним из ключевых требований RISE Act является обязательное предоставление так называемых «карточек моделей» — технических спецификаций и описаний возможностей ИИ — что должно помочь специалистам лучше понимать, как функционирует тот или иной автономный инструмент.
Тем не менее, важнейшая проблема заключается в том, что обязательства разработчиков ограничиваются именно этой публикацией технических данных, при этом отсутствуют более глубокие требования к прозрачности целей, ценностей и возможных искажений, заложенных в алгоритмах. Критики отмечают, что такая декларативная прозрачность не гарантирует реального понимания рисков и не исключает возможности уклонения от ответственности. Если компания не желает раскрывать более содержательную информацию о своей модели, она может просто отказаться от использования иммунитета, что по сути дает искусственный лазейку и, возможно, снизит уровень защиты пользователей. Таким образом, законопроект RISE можно рассматривать как «работу в процессе», которая создает основу для регулирования, но не достигает полного баланса между стимулированием инноваций и защитой интересов общества. Консультации с экспертами из академических и общественных кругов показывают, что необходимость более комплексного подхода к оценке рисков и ответственности пользователей и поставщиков ИИ остается крайне актуальной.
Важным аспектом, который вызывает споры, является выделение особой категории «профессионалов» как пользователей ИИ, которым даруется ответственность за понимание и оценку рисков в своей деятельности. Это значит, что разработчики ИИ по сути получают широкую защиту от гражданской ответственности, что некоторые участники рынка и общественные активисты расценивают как чрезмерное облегченное положение для IT-компаний. Примером негативных последствий, которые не полностью охватываются законопроектом, служит случай в штате Флорида, где подросток, продолжительное время общавшийся с чатботом на базе ИИ, покончил с собой. Семья погибшего утверждала, что программное обеспечение было небезопасно для несовершеннолетних. Подобные инциденты поднимают вопросы о целесообразности ограниченной ответственности разработчиков и необходимости расширенного регулирования, включающего требования к безопасности конечных пользователей, особенно уязвимых групп.
При сравнении с европейским подходом, отраженным в AI Act ЕС 2023 года, методика США представляется более сдержанной и ориентированной на процессы и документооборот. Европейское законодательство строится вокруг прав наименьшего ущерба и защиты личности, стремится к предоставлению гражданам реальных правовых механизмов для обращения в случае неисправностей и вреда от ИИ. В то время как американский «риск-ориентированный» подход фокусируется на раскрытии технических спецификаций и снижении ответственности разработчиков при отсутствии их прямой вины, европейский – акцентирует внимание на правах пользователей, обязанностях производителей и предупреждающих мерах. Отдельно стоит выделить сферу здравоохранения, где искусственный интеллект активно внедряется и уже влияет на качество диагностики и лечения. Сложность здесь усугубляется тем, что в ряде случаев искусственный интеллект может работать эффективнее или хуже человеческого специалиста, а вовлечение человека в цикл принятия решений порождает новые дилеммы в плане ответственности за ошибки и последствия лечения.
Специалисты задаются вопросом, кто и как будет компенсировать ущерб, связанный с медицинскими ошибками при использовании ИИ — врач, разработчик или страховая компания? Законопроект RISE слабо затрагивает эти многомерные проблемы, что указывает на необходимость более внимательной проработки и вовлечения представителей медицины, права и технологии в дискуссию. В заключение можно отметить, что предложение сенатора Луммис внесло важный вклад в обсуждение регулирования гражданской ответственности в сфере профессионального искусственного интеллекта. Законопроект является первым комплексным шагом в США, направленным на балансировку интересов разработчиков, пользователей и общества в контексте быстрого технологического прогресса. Однако он нуждается в доработке, в частности, в части расширения требований к прозрачности, улучшения механизмов защиты прав пользователей и конкретизации правил для уязвимых групп. Для успешного внедрения и эффективность законопроекта потребуется консультация с эксперами в области ИИ, права, этики и экономики, а также возможно, интеграция международного опыта, чтобы создать действительно устойчивую и справедливую правовую основу для развития искусственного интеллекта в самом ближайшем будущем.
Ожидается, что если проект закона будет принят, он вступит в силу 1 декабря 2025 года, что дает время для формирования четких процедур, адаптации рынка и работы над выявленными недочетами.