В современном мире искусственный интеллект (ИИ) становится все более влиятельным фактором, меняющим различные сферы жизни — от медицины до юриспруденции и финансов. В свете стремительного развития технологий и их широкого применения в профессиональной деятельности возникает необходимость новейшего законодательства, способного учесть специфику и риски, связанные с ИИ. Сенатор Соединенных Штатов Цинтия Ламмис предложила законопроект Responsible Innovation and Safe Expertise (RISE) Act 2025 года, который многие эксперты называют своевременным, но критикуют за недостаточную проработку деталей и ограниченный охват. Авторы и сторонники RISE Act стремятся создать правовую основу, которая позволит защитить разработчиков искусственного интеллекта от необоснованных гражданских исков. Главная идея законопроекта заключается в том, чтобы предоставить врачам, юристам, инженерам и другим профессионалам ясное понимание возможностей и ограничений AI-систем, прежде чем они начнут полагаться на эти технологии в своей работе.
Прозрачность ИИ должна обеспечиваться открытым раскрытием технических характеристик, таких как модели и спецификации, так называемые model cards. Тем самым законопроект ставит своей целью снизить юридическую нагрузку на разработчиков и предотвратить торможение инновационного процесса. Несмотря на положительные отзывы, в том числе от профессора Университета Сиракуз Хамида Экбии, который обозначил предложение Ламмис как «своевременное и необходимое», многие отмечают серьезные ограничения законодательства. В частности, акцент делается на высококвалифицированных профессионалах, которые взаимодействуют с AI-системами в контексте своей работы с клиентами или пациентами. В то же время закон недостаточно четко регулирует ситуации, в которых ИИ применяется напрямую конечным пользователем без участия посредников, например, случаи использования чатботов с несовершеннолетними.
Это явление приобрело трагическую резонансность после инцидента во Флориде, где подросток покончил с собой после затяжного общения с таким искусственным собеседником. Критика касается также сравнительно узкой ответственности разработчиков ИИ, которой предоставляет широкие юридические гарантии, несмотря на обязательства раскрывать техническую информацию. Некоторые правовые эксперты и активисты обеспокоены, что подобный подход фактически перекладывает большую часть риска на конечных профессионалов, лишая пользователей прав и защиты. Известные сообщества, ориентированные на политическую критику отрасли, воспринимают законопроект как подарок крупным AI-компаниям, позволяющий им избегать ответственности за ошибки их систем. Другой сторонник более взвешенного мнения, юридический консультант Феликс Шипкевич, объясняет, что иммунитет для разработчиков оправдан с точки зрения предотвращения безграничной ответственности за непредсказуемое поведение моделей, над которыми создатели зачастую не имеют полного контроля.
Выстраивание баланса между защитой инноваций и обеспечением ответственности — одна из ключевых задач, стоящих перед законодателями. Также следует учитывать, что законодательство сосредоточено преимущественно на ситуациях в профессиональной среде, где AI — вспомогательный инструмент, тогда как использование ИИ напрямую широкими слоями населения и дети остаются вне зоны регулирования. Важную роль в адаптации и совершенствовании модели AI-регулирования играет опыт Евросоюза. Европейский союз выдвинул собственный комплексный правовой акт о регулировании искусственного интеллекта в 2023 году с акцентом на защиту фундаментальных прав и обеспечение ответственности разработчиков через предписанные стандарты безопасности и прозрачности. Хотя инициатива ЕС по внедрению директивы по гражданской ответственности была отозвана в начале 2025 года, общая стратегия опирается на права конечных пользователей, усиливая их положение и обеспечивая четкие механизмы контроля.
Подход, предлагаемый в США через RISE Act, можно охарактеризовать как риск-ориентированный, подчеркивающий важность процессов оценки, документации и диагностики алгоритмических рисков, но при этом он не предусматривает расширенных прав для пользователей. Эксперты, такие как Райан Абботт из университета Суррея, отмечают, что предсказать и контролировать новые виды вреда от ИИ крайне сложно из-за его технологической сложности и автономности, особенно в чувствительных областях, таких как здравоохранение. Недостаток подробных требований к прозрачности вызывает особую обеспокоенность. Некоммерческая организация AI Futures Project, принимавшая участие в консультировании при разработке законопроекта, отмечает, что раскрытия технических характеристик не затрагивают более глубокие, социально значимые аспекты, такие как цели, ценности, инсенты и внутренние алгоритмические предубеждения. Как подчеркнул исполнительный директор организации, отсутствие этих элементов ограничивает возможности общества адекватно контролировать развитие ИИ.
Для создания эффективной законодательной базы требуется внедрение комплексного механизмя аудита и оценок рисков со стороны независимых экспертов. Без этого публикуемые модель-карты могут создавать ложное ощущение защищенности у профессионалов и пользователей, что усугубит проблемы доверия к технологиям. Среди юристов и политиков все чаще звучит мнение, что законопроект RISE Act должен восприниматься как отправная точка для серьезного диалога по вопросам правовой ответственности в сфере искусственного интеллекта. Опытная доработка документа с введением расширенных требований к прозрачности и обязанностей по управлению рисками, совместно с эффективными мерами контроля, позволит создать более сбалансированную систему, защищающую интересы всех участников. Если Сенат одобрит законопроект, он должен вступить в силу с 1 декабря 2025 года.
Этот шаг будет иметь значительное влияние на индустрию разработки и применения AI в США, задавая тон дискуссии на международном уровне. В заключение, законопроект RISE Act представляет собой важный, хотя и не окончательный, шаг в направлении регулирования искусственного интеллекта. Он актуален и необходим для современного этапа технологического прогресса, но требует дальнейшей доработки и расширения, чтобы обеспечить справедливый баланс интересов разработчиков, профессионалов и конечных пользователей. Учитывая динамичное развитие AI, политика в этой области должна оставаться гибкой и адаптивной, что позволит эффективно управлять рисками и минимизировать потенциальные негативные последствия для общества.