Регулирование искусственного интеллекта становится все более актуальной темой на фоне стремительного развития технологий и их интеграции в различные сферы жизни. Одним из важных шагов в этом направлении штаты США смогли сделать благодаря инициативе сенатора Синтии Ламмис, которая представила законопроект Responsible Innovation and Safe Expertise Act (RISE Act) в 2025 году. Проект вызвал широкий резонанс среди экспертов, законодателей и общественности, обозначая новые правила взаимодействия между разработчиками ИИ, профессионалами и конечными пользователями. Однако многие аналитики отмечают, что, несмотря на своевременность и значимость инициативы, законопроект пока что демонстрирует недостаток конкретных механизмов и стандартов, что может повлиять на его эффективность и практическую реализацию. Основной целью RISE Act является защита разработчиков сложных AI-систем от необоснованных исков в гражданских судах.
Сенатор Ламмис подчеркивает, что при активном использовании искусственного интеллекта врачами, юристами, инженерами и другими специалистами необходимо четко понимать возможности и ограничения этих инструментов. Законопроект предлагает ввести обязательство по раскрытию технических характеристик и спецификаций моделей, чтобы профессионалы имели возможность делать осознанный выбор и использовать AI-инструменты с пониманием рисков и потенциальных последствий. Несмотря на положительные отзывы о главной задумке закона, существует существенная критика касательно баланса ответственности. Многие отмечают, что проект слишком смещен в сторону освободить разработчиков ИИ от возможных последствий и в то же время возложить основную ответственность на «обученных профессионалов», которые применяют инструменты в своей работе. Соответственно, именно врачи, адвокаты и инженеры будут вынуждены принимать последствия, если алгоритмы повели себя непредсказуемо или ошибочно, а разработчики получат иммунитет за счет предоставления лишь технической документации и спецификаций.
Профессор Хамид Екбия из университета Сиракуз охарактеризовал проект как «своевременный и необходимый». Действительно, повышение прозрачности и ответственность пользователей ИИ выглядят логичным шагом, учитывая сложность систем и их потенциал к неожиданным результатам. Однако по мнению профессора, выступающего как эксперт Cointelegraph, юридическая нагрузка, возлагаемая на конечных специалистов, может оказать давление на отрасль, и не всегда будет справедливой по отношению к инженерам и врачам. Более того, иммунитет для разработчиков, по его словам, может создать прецедент для ухода от ответственности. Сообщество технологий и законодательные эксперты обсуждают, насколько оправданно предоставлять широкий иммунитет компаниям-разработчикам.
Оппоненты напоминают, что искусственный интеллект способен оказывать серьезное воздействие на жизнь людей, особенно в медицинской сфере. Пример тому – недавно произошедший трагический случай во Флориде, когда подросток покончил с собой после длительного общения с чат-ботом. Семья заявляла, что ПО было разработано без должной безопасности для несовершеннолетних. Важный вопрос, который поднимается в таких ситуациях, – кто несет ответственность за подобные трагедии? Законопроект RISE пока не дает ответа на эту проблему, ограничиваясь лишь случаем использования ИИ с участием профессионального посредника между разработчиком и конечным пользователем. В отличие от инициативы США, Европейский союз предпринимает иной подход к регулированию ИИ, в основе которого лежит защита прав человека.
Проект AI Act, первый масштабный нормативный акт ЕС, предусматривает требования о предварительным подтверждении безопасности и соблюдении стандартов прозрачности для разработчиков. Этот более «правоориентированный» подход делает акцент на усиление прав самого пользователя, будь то пациент, клиент или потребитель, создавая четкие механизмы защиты от возможных нарушений. Эксперт по праву и медицинским наукам Райан Эбботт из университета Суррея выделяет, что медицинская сфера станет одним из главных полигонов тестирования новых юридических норм, связанных с ИИ. Исторически врачи часто демонстрировали лучшие результаты по сравнению с алгоритмами компьютерного распознавания в диагностике. Но современная практика показывает новые тенденции, когда в отдельных случаях человеческое вмешательство может ухудшать общие исходы по сравнению с полностью автономной работой AI-системы.
Возникает вопрос ответственности при ошибках: кто оплатит компенсацию и покрытие вреда, если врач «выпал» из цепочки принятия решений, и ошибка произошла именно из-за взаимодействия с ИИ? Не все вопросы страховки и права пока имеют ясные ответы в законодательстве. Научно-исследовательская организация AI Futures Project участвовала в консультировании при подготовке законопроекта и высказалась довольно осторожно. Ее исполнительный директор Даниэл Кокотайло подчеркнул недостаточность требований к прозрачности, предусматриваемых законом, которые сводятся к предоставлению технической информации и спецификаций моделей. Для общественности важна понимание не только технических данных, но и целей, ценностей, заложенных в системы алгоритмов, а также потенциальных предвзятостей и инструкций, которые управляют поведением AI. По словам Кокотайло, предлагаемые меры прозрачности не учитывают возможности злоупотреблений, особенно если компании просто откажутся от ответственности, выбрав менее прозрачный путь.
Позиция большинства американских экспертов состоит в том, что закон стран задания должен видеть баланс между инновациями и защитой прав пользователей. Законопроект RISE рассматривается как первый шаг, от которого требуется дальнейшее развитие и доработка. Аналогично, представители Американской организации за ответственное инновационное развитие (Americans for Responsible Innovation) признают сильные стороны документа в части представления федеральных руководящих принципов прозрачности и ограниченного безопасного пространства для профессионалов, но указывают на риски, связанные с недостаточностью внешнего аудита и оценки рисков. В будущем ожидается, что законопроект подвергнется изменениям и усовершенствованиям, учитывая вызовы, которые ставит сложная и постоянно эволюционирующая технология искусственного интеллекта. Важно, чтобы законодательные нормы поддерживали развитие инноваций, но вместе с тем эффективно защищали граждан от возможных негативных последствий.
Принятие RISE Act и его вступление в силу, запланированное на декабрь 2025 года, станет важной вехой в американских законотворческих процессах, но, вероятно, оно не будет финальной точкой в регулировании ИИ. Учитывая перспективы, нужно продолжать диалог между специалистами в технологиях, правовой сфере и обществом для создания действительно сбалансированной системы. Лишь при достижении комплексного понимания рисков и возможностей ИИ можно будет соблюдать интересы всех участников — от разработчиков до конечных пользователей, обеспечивая безопасность, прозрачность и справедливость в эпоху цифровых технологий.