В современном мире стремительное развитие искусственного интеллекта (AI) вызывает не только восхищение, но и серьезные вопросы по поводу безопасности, ответственности и этических норм использования технологии. Одной из попыток урегулировать эти важные общественные вопросы стал законопроект Responsible Innovation and Safe Expertise (RISE Act) 2025 года, предложенный сенатором США Синтией Луммис. Этот документ призван заложить фундамент для регулирования ответственности в сфере профессионального использования AI, однако его детали вызывают неоднозначные оценки экспертов и общественности. Основная идея законопроекта RISE заключается в предоставлении разработчикам искусственного интеллекта определенной защиты от гражданских исков, особенно в тех случаях, когда профессионалы, такие как врачи, юристы и инженеры, применяют AI-инструменты в своей деятельности. Сенатор Луммис отмечает, что целью законопроекта является создание условий, при которых специалисты смогут полноценно понимать возможности и ограничения AI, прежде чем полагаться на него в своей практике.
Это важный шаг к тому, чтобы интеграция AI в профессиональную среду была максимально безопасной и предсказуемой. Среди положительных откликов на законопроект фигурирует мнение Хамида Экбии, профессора Школы гражданственности и государственных дел при Университете Сиракуз. Экбия подчеркивает актуальность и необходимость данного законодательного предложения, называя его первой инициативой в США, направленной на реформу гражданской ответственности в контексте профессионального AI. В то же время он выражает обеспокоенность тем, что документ слишком смещает баланс в пользу разработчиков AI, возлагая основную тяжесть рисков на плечи профессионалов, которые используют технологию. Закон требует от разработчиков лишь раскрытия технических спецификаций, без обязательств по более глубокому уровню ответственности.
Критика со стороны общественных движений, таких как Democratic Underground, фокусируется именно на предоставлении широкого иммунитета AI-компаниям. Оппоненты опасаются, что закон позволит разработчикам уклоняться от ответственности за возможные негативные последствия работы их продуктов. Впрочем, не все эксперты разделяют такую категоричность. Например, юрист Феликс Шипкевич отмечает, что подобная иммунитетная норма оправдана с юридической точки зрения, ведь из-за непредсказуемого поведения больших языковых моделей (large language models) разработчики могут столкнуться с бесконечными судебными исками, даже если не проявляли халатность или вредоносное намерение. Область применения законопроекта ограничена ситуациями, когда AI используется профессионалами в отношении их клиентов или пациентов.
Это значит, что вопросы гражданской ответственности в случаях, когда AI взаимодействует напрямую с конечными пользователями без посредников, остаются вне зоны регуляции. Например, инцидент с самоубийством подростка во Флориде после длительного общения с чат-ботом на базе AI остался без внимания RISE Act. Семья потерпевшего утверждает, что программное обеспечение было потенциально опасным для несовершеннолетних, и внутренние вопросы ответственности так и не получили официального правового решения. Особенно сложно законодательство применимо в сфере здравоохранения, где AI всё активнее входит в диагностические и лечебные процессы. Профессор права и медицины Райан Аббот из Университета Суррея указывает на новые дилеммы, возникающие из-за смешанных моделей взаимодействия между врачом и AI.
В некоторых случаях полный отказ от человеческого вмешательства дает лучшие медицинские результаты, что ставит под вопрос традиционные механизмы ответственности и страхования при врачебных ошибках. Кроме того, критики отмечают недостаточность прозрачности, предусмотренной законопроектом. Представители некоммерческого исследовательского института AI Futures Project подчеркивают, что для общественности важно получать информацию о целях, ценностях, потенциальных предвзятостях и алгоритмических инструкциях, заложенных в AI. Документ же ограничивается лишь раскрытием технических деталей, что эксперты считают явно недостаточным для формирования полного доверия к AI-системам. Сравнивая законодательную инициативу США с аналогами в Европейском союзе, стоит отметить различные концептуальные подходы.
Евросоюз изначально попытался реализовать права пользователей как основу AI-регулирования, акцентируя внимание на защите индивидуальных прав и безопасности. В то время как подход RISE Act зиждется на управлении рисками и процедурных гарантиях для разработчиков и пользователей технологии. Представители AI-сообщества склоняются скорее к риск-ориентированному регулированию, считая упор на защиту создателей и внедренцев технологии более практичным и адаптивным к динамике AI. Несмотря на спорные моменты, законопроект RISE заслуживает внимания как первая масштабная попытка донести регуляторные рамки до быстроразвивающейся сферы AI. Эксперты сходятся во мнении, что ключ к успеху - доработка норм, усиление требований к прозрачности и ответственности, а также дополнение рисков управления при использовании AI в разных сферах.
Политические и юридические дискуссии вокруг RISE Act продолжаются, и многое зависит от того, как именно будут интегрированы предложения к изменению документа в ходе законодательного процесса. При условии принятия, закон вступит в силу с 1 декабря 2025 года, что даст участникам рынка время адаптироваться к новым стандартам. Таким образом, RISE Act от сенатора Луммис выступает важным шагом в формировании правового регулирования AI в США. Он открывает дорогу здоровому взаимодействию между технологическими разработчиками и профессионалами, которые активно внедряют искусственный интелект в свою практику. Главная задача нынешней фазы — найти баланс между защитой инноваций и обеспечением безопасности и прозрачности для пользователей.
Путь к этому — через совместные усилия законодателей, экспертов и широкой общественности, понимающей масштаб и значение искусственного интеллекта в будущем общества.