В последние годы технологии искусственного интеллекта стремительно развиваются и проникают во все сферы жизни — от медицины до юриспруденции и финансовых услуг. С этим связаны не только огромные возможности, но и новые серьезные вызовы, особенно в области ответственности за использование ИИ и рисков, связанных с его внедрением. Понимая это, в июне 2025 года сенатор США Синтия Луммис представила законопроект Responsible Innovation and Safe Expertise Act (RISE Act), который призван стать первым целенаправленным законодательством по реформе гражданской ответственности за применение профессиональных ИИ-систем. Несмотря на безусловную важность и актуальность инициативы, уже на ранних этапах обсуждения выявились и недостатки текста, которые вызывают споры среди экспертов и общественности. Законопроект RISE акцентирует внимание на защите разработчиков ИИ от гражданских исков, одновременно возлагая ответственность и бремя оценки рисков на профессионалов, использующих ИИ в своей деятельности.
Таким образом, доктор, юрист, инженер или другой специалист должен сам понимать возможности и ограничения ИИ-инструмента, прежде чем полагаться на него в работе с клиентами или пациентами. Сторонники законопроекта утверждают, что это поможет избежать излишних юридических барьеров для разработчиков ИИ, стимулируя инновации и развитие отрасли. По словам самой Луммис, RISE Act — это необходимый и своевременный первый шаг по реформе ответственности в отношении профессиональных систем ИИ. Однако критики отмечают, что данный подход слишком смещает баланс в пользу создателей ИИ. Среди ключевых претензий — слишком узкая сфера применения закона, ограниченная ситуациями, когда между пользователем ИИ и конечным бенефициаром есть профессиональный посредник.
Например, когда финансовый советник использует ИИ для разработки инвестиционной стратегии или врач использует ИИ для помощи в диагностике. Законопроект не охватывает ситуации с прямым взаимодействием ИИ и конечного пользователя без профессионала, что вызывает обоснованные опасения. Один из резонансных случаев, произошедших во Флориде, где подросток совершил самоубийство после длительного общения с ИИ-чатботом, поставил вопрос о том, кто несет ответственность в таких трагедиях. Семья погибшего указала, что программное обеспечение не было создано с учетом безопасности для несовершеннолетних. RISE Act не содержит положений, регулирующих подобные происшествия, что вызывает вопросы о полноте и эффективности предложенной реформы.
Другой существенный момент — прозрачность ИИ-систем. Закон требует от разработчиков публично раскрывать технические спецификации и характеристики моделей, что должно помочь профессионалам принимать информированные решения. Однако эксперты указывают, что такие требования слишком формальны и не гарантируют реальной понятности и доступности информации для пользователей. Без дополнительных обязательств по глубокому аудиту, оценке рисков и раскрытию целей, ценностей, возможных предвзятостей и инструкций, встроенных в модели, добиться подлинной прозрачности вряд ли удастся. Сравнивая американский законопроект с аналогичной инициативой Европейского союза — AI Act 2023, видно принципиальное отличие подходов.
ЕС стремится к более комплексному регулированию, основанному на правах человека и защите конечных пользователей, требуя от разработчиков строгого соблюдения стандартов безопасности и прозрачности с самого начала. В то время как RISE Act больше ориентирован на управление рисками через процессуальные инструменты и документацию, что делает акцент на профессионалах, которые пользуются ИИ, и менее защищает обычных пользователей. Юридические эксперты, такие как Феликс Шипкевич, подчеркивают, что предоставление определенной защиты разработчикам, особенно в отношении непредсказуемого поведения сложных языковых моделей, логично. Без этого разработчики могут столкнуться с неограниченной ответственностью за последствия, которые они фактически не в состоянии контролировать. Тем не менее, необходимость выстраивания баланса между стимулированием инноваций и обеспечением справедливой ответственности крайне важна и требует дальнейших доработок законопроекта.
Значительная неопределенность связана и с тем, как будут компенсироваться убытки в случае ошибок ИИ при оказании профессиональных услуг. Например, в медицине, где сегодняшние данные свидетельствуют, что в некоторых случаях участие человека в оценке диагноза, основанного на ИИ, приводит к худшим результатам, чем полный автоматический анализ. В этом случае остаются открытыми вопросы о том, кто понесет ответственность и будут ли существующие страховые механизмы покрывать подобные риски. Исполнительный директор некоммерческого исследовательского проекта AI Futures, Дэниел Кокотайло, хотя и дал «условное одобрение» законопроекту, отметил, что требования к прозрачности не выходят за рамки технических описаний и оставляют открытой возможность компаниям обходить обязанности путем выбора между раскрытием и взятием на себя ответственности. В целом, такие днищевые возможности могут снизить эффективность защиты общественных интересов.
Американская организация Americans for Responsible Innovation также поддерживает многие идеи RISE Act, включая федеральные руководящие принципы по прозрачности и ограниченную законодательную защиту для пользователей-профессионалов ИИ, но выражает опасения относительно того, насколько публично доступная информация будет подкреплена надежным внешним аудитом и оценками рисков. В целом, несмотря на существующие недостатки, большинство комментаторов рассматривают законопроект как полезный старт для национального диалога в США о том, как именно должна выглядеть регуляция прозрачности и ответственности в области профессионального использования ИИ. Полагают, что работа над проектом продолжится, и он будет дорабатываться перед возможным принятием. Если RISE Act будет принят и подписан президентом, то он вступит в силу 1 декабря 2025 года, что даст время участникам отрасли подготовиться к новым требованиям. В то же время критика и дискуссии показывают, что путь к сбалансированному и эффективному законодательному регулированию ИИ остается долгим и сложным процессом.
Будущее за комплексным подходом, учитывающим интересы как разработчиков, так и профессионалов и конечных пользователей, особенно в чувствительных сферах, таких как здравоохранение и образование. Таким образом, законодательная инициатива сенатора Луммис выступает важным и своевременным шагом, сигнализирующим о готовности американского Конгресса к решительному диалогу о регулировании ИИ. Однако для создания действительно эффективного баланса и общественного доверия потребуется дальнейшее расширение объема ответственности, повышение прозрачности и защита прав всех участников цифровой экосистемы.