Институциональное принятие

Законопроект RISE сенатора Ламмис: своевременное решение с пробелами в деталях

Институциональное принятие
 Lummis’ RISE Act is ‘timely and needed’ but short on details

Обзор законопроекта RISE, предложенного сенатором Синтией Ламмис, его значение для регулирования искусственного интеллекта и вызовы, связанные с прозрачностью и распределением ответственности между разработчиками и пользователями AI-технологий.

В условиях стремительного развития искусственного интеллекта вопросы правовой ответственности и регулирования становятся все более актуальными. Именно в этот момент сенатор США Синтия Ламмис представила законопроект под названием Responsible Innovation and Safe Expertise Act 2025, сокращенно RISE Act. Его цель – создать правовую основу, которая защитит разработчиков AI от необоснованных судебных исков и одновременно обеспечит профессионалам — врачам, юристам, инженерам — возможность понять рамки работы AI-инструментов, прежде чем их использовать в своей деятельности. Несмотря на позитивную оценку идеи законопроекта, эксперты отмечают его ограниченный охват и недостаточную детализацию, что вызывает споры о том, кому на самом деле он принесет пользу и не станет ли он оправданием для AI-компаний, уклоняющихся от ответственности. Одним из ключевых моментов в дискуссии вокруг RISE Act является баланс между защитой инноваций и необходимостью прозрачности.

Сенатор Ламмис подчеркивает, что civil liability law, или гражданское право ответственности, если оно плохо сформулировано, может создать серьезные препятствия для развития технологий, поскольку разработчики могут столкнуться с чрезмерными юридическими рисками. Однако критики указывают на то, что закон слишком смещает этот баланс в пользу производителей AI, возлагая львиную долю ответственности на конечных пользователей – профессионалов, которые, по сути, становятся последней линией обороны и должны прояснять границы возможностей AI-систем самостоятельно. Так, профессор Хамид Экбия из Сиракузского университета называет RISE Act «своевременным и необходимым», однако считает, что потенциально закон защищает разработчиков слишком широко, ограничиваясь требованием раскрывать лишь технические спецификации машинного обучения, такие как модельные карты. Это создает ситуацию, когда профессионалы должны самостоятельно брать на себя риски при использовании AI, в то время как компании-разработчики получают широкую юридическую неприкосновенность. По мнению отдельных критиков, подобный подход можно рассматривать как «подарок» AI-индустрии, которая давно стремится избежать ответственности за возможные ошибки и негативные последствия своих продуктов.

Напротив, некоторые юристы, например, Феликс Шипкевич, придерживаются мнения, что подобная защита разработчиков имеет под собой веские юридические основания. Он объясняет, что предоставление полной ответственности за непредсказуемое поведение больших языковых моделей без обвинения в халатности или умысле может стать невозможным. Без такого правового щита разработчики смогут столкнуться с неограниченными претензиями, которые непрактично контролировать из-за автономной и сложной природы AI-систем. При этом рамки законопроекта оказываются достаточно узкими и ориентируются главным образом на ситуации, где профессии используют AI-инструменты в своей работе с клиентами или пациентами. Примером может служить применение AI финансовым консультантом для формирования инвестиционной стратегии или использование врачом программного обеспечения для интерпретации медицинских снимков.

Случаи же с прямым взаимодействием AI и конечных пользователей, особенно уязвимых групп, например, детей, остаются за пределами регулирования. В одной из таких историй, произошедших недавно во Флориде, подросток покончил с собой после длительного общения с AI-чатботом, который, по словам семьи, не был достаточно безопасен и адекватен для несовершеннолетних. Этот и аналогичные случаи ставят вопрос о том, кто должен нести ответственность за вред, причиненный подобных образом. Такие ситуации на данный момент не учитываются в законопроекте RISE Act, что говорит о его пробелах в обеспечении комплексной защиты пользователей. Правоотношения и стандарты в области ответственности за AI сталкиваются с рядом уникальных сложностей, поскольку технологии характеризуются сложностью, непрозрачностью и определенной степенью автономии.

Особенно остро такие вызовы проявляются в здравоохранении, где традиционно основу принятия решений составляют компетенции врачей. Однако современные исследования показывают, что в некоторых областях медицинской практики использование AI без «человеческого участия» может приводить к лучшим результатам. Это открывает новые вопросы – кто будет отвечать и нести расходы при ошибках, допущенных AI, если врач окажется «вне процесса»? Будет ли покрывать это медицинская страховка? Пока ответы однозначны не даны. Необходимость прозрачности и открытости AI-систем также остается в центре обсуждения. НПО AI Futures Project, принимавший участие в подготовке законопроекта, выражает поддержку, однако считает, что требования к раскрытию информации слишком ограничены.

Например, общественность имеет право знать, какие цели, ценности, предубеждения и инструкции закладываются в AI, что отражает суть прозрачности, а не только предоставление технических данных модели. К сожалению, нынешняя редакция не требует таких подробностей, оставляя дело на усмотрение компаний, которые могут отказаться от ответственности, если сочтут нужным. Важно сравнить подход США с законодательством Европейского союза в области AI. ЕС традиционно ориентируется на права человека и проводит «права-ориентированный» подход, способствующий защите пользователей, будь то пациенты, потребители или клиенты. Законодательство ЕС требует доказательства соответствия AI систем стандартам безопасности и прозрачности заранее, а не после возникновения проблем.

В отличие от этого США предлагают конструкцию, сфокусированную на управлении рисками, документации и оценках, что подразумевает акцент на выявление и снижение предвзятостей и других недостатков. Учитывая новизну и сложность темы, законопроект RISE Act воспринимается экспертами скорее как инициатива, начало разговора и основа для дальнейших доработок. Специалисты подчеркивают важность включения более строгих обязательств по прозрачности и управлению рисками, которые помогут сбалансировать интересы разработчиков, профессионалов и конечных пользователей. Американская организация Americans for Responsible Innovation выделяет, что законопроект вводит важные концепции, такие как федеральные рекомендации по прозрачности и безопасные зоны для профессионалов, использующих AI. Однако без привлечения независимых экспертов для аудита и оценки рисков публикуемые технические данные смогут создать иллюзию надежности там, где она не гарантируется.

Автоматическая торговля на криптовалютных биржах Покупайте и продавайте криптовалюты по лучшим курсам Privatejetfinder.com (RU)

Далее
 Bitcoin Knots gain ground: Will a chain split kill BTC price?
Среда, 17 Сентябрь 2025 Рост популярности Bitcoin Knots: угрожает ли разделение цепи падению курса BTC?

Bitcoin Knots стремительно набирает популярность среди узлов сети Bitcoin, что может свидетельствовать о серьезных противоречиях внутри экосистемы. Анализируя исторические прецеденты и современную ситуацию, можно понять, как потенциальное разделение блокчейна повлияет на стоимость и стабильность BTC.

 Bitcoin in a post-Trump world worries hedge fund execs: Eric Semler
Среда, 17 Сентябрь 2025 Будущее Биткоина после эпохи Трампа: взгляд управляющего хедж-фондом Эрика Семлера

Размышления эксперта Эрика Семлера о состоянии и перспективах Биткоина в посттрамп эпоху, анализ настроений хедж-фондов и прогнозы развития криптовалютного рынка в США и мире.

 Twitter User Claims TradingView Has Ignored a Fibonacci Retracement Bug for 5 Years
Среда, 17 Сентябрь 2025 Пользователь Twitter утверждает, что TradingView игнорировал ошибку в инструменте Фибоначчи на протяжении 5 лет

В последние годы популярная платформа для технического анализа TradingView стала объектом критики из-за багов в одном из основных инструментов - линии Фибоначчи, который, по мнению пользователей, работает некорректно при построении на логарифмических графиках. Несмотря на многочисленные обращения, проблема оставалась нерешённой в течение долгого времени.

 Musk wants Grok AI to ‘rewrite the entire corpus of human knowledge’
Среда, 17 Сентябрь 2025 Илон Маск и его амбиции: Grok AI перепишет всю историю человеческих знаний

Илон Маск планирует пересобрать и переписать всю мировую базу знаний с помощью искусственного интеллекта Grok, стремясь устранить ошибки и неактуальную информацию для создания более точной и продвинутой модели ИИ.

 FTX rejects 3AC’s $1.5B claim, citing ‘failed trading strategy’
Среда, 17 Сентябрь 2025 FTX отвергает иск Three Arrows Capital на 1,5 миллиарда долларов из-за неудачной торговой стратегии

Рассмотрение спора между криптобиржей FTX и ликвидаторами хедж-фонда Three Arrows Capital по иску на 1,5 миллиарда долларов выявляет ключевые нюансы в юридической оценке ответственности за потерю средств в криптоиндустрии и последствиях рискованных торговых стратегий.

 Saylor hints next Bitcoin buy as investor sues over Strategy’s Q1 loss
Среда, 17 Сентябрь 2025 Майкл Сейлор намекает на новую покупку биткоинов на фоне иска инвестора из-за убытков Strategy в первом квартале

Глобальное влияние стратегии инвестирования MicroStrategy в биткоин продолжает привлекать внимание: компания столкнулась с крупным судебным иском из-за убытков на $5,9 млрд в первом квартале. В то же время Майкл Сейлор намекает на новые покупки криптовалюты, что вызывает бурные обсуждения среди инвесторов и экспертов.

 Bitcoin price risks sub-$100K dive after Trump confirms Iran strikes
Среда, 17 Сентябрь 2025 Риски падения цены Bitcoin ниже 100 тысяч после подтверждения ударов по Ирану Трампом

Разбор влияния геополитической напряжённости на цену Bitcoin, анализ текущих рыночных тенденций и прогнозы экспертов по криптовалютному рынку в условиях конфликта между США и Ираном.