В эпоху стремительного развития искусственного интеллекта вопросы правовой ответственности и регулирования становятся все более актуальными. Недавний законопроект Ответственного Инновационного и Безопасного Опытного Использования (RISE Act), представленный американским сенатором Синтией Ламмис, вызвал широкий резонанс в профессиональном и экспертном сообществе. Его цель — сбалансировать интересы разработчиков ИИ и пользователей, в первую очередь профессионалов, таких как врачи, юристы и инженеры, которые все активнее используют ИИ-инструменты в своей практике. Несмотря на то, что RISE Act признан своевременным и нужным, в нем наблюдаются значительные недостатки по части детализации и прозрачности, что вызывает опасения у многих экспертов. Законопроект наполняется идеями защиты разработчиков ИИ от излишних судебных рисков, чтобы стимулировать инновации без страха перед постоянными исками.
Согласно позициям сторонников, подобная защита необходима, ведь современные модели ИИ часто ведут себя непредсказуемо, и их создатели не всегда могут контролировать каждый аспект работы своих алгоритмов. В частности, RISE Act предусматривает обеспечение прозрачности посредством раскрытия технических характеристик моделей — так называемых "модельных карт" (model cards). Это позволит профессионалам лучше понимать возможности и ограничения используемых технологий, принимая более взвешенные решения. Тем не менее, в законе возлагается почти вся ответственность за результаты использования ИИ на конечных пользователей — профессионалов, которые должны самостоятельно оценивать риски и принимать решения, основанные на полученной информации. Такая позиция вызывает критику со стороны представителей академического мира и общественных организаций.
Они отмечают, что закон предоставляет непомерную защиту разработчикам, освобождая их от множества форм ответственности, и фактически требует от врачей, юристов и специалистов полагаться на предоставленную им техническую документацию без гарантий безопасности и адекватной оценки рисков. Ключевой вопрос, вызывающий споры, — кто понесет ответственность в случаях, когда ИИ совершит ошибку, приведшую к вреду человеку. Например, если врач использует ИИ для постановки диагноза, и в результате возникает серьезная ошибка, будет ли ответственность лежать на медике, системе страхования или разработчиках ИИ? Отсутствие четких правил в этом направлении порождает неопределенность как для профессионалов, так и для разработчиков. Помимо ограниченного юридического регулирования, законопроект критикуется за недостаток требований к раскрытию более глубокой информации о целях и ценностях, заложенных в ИИ-системы. Эксперты и общественные активисты настаивают на необходимости публичного информирования о потенциальных предубеждениях, инструкциях и алгоритмических установках, которые могут влиять на результаты работы моделей.
Это важный момент, поскольку скрытые алгоритмические решения могут вести к дискриминации или ошибкам, особенно в сферах здравоохранения, юриспруденции и финансов. Еще одним значимым аспектом является узкая направленность RISE Act. Закон сосредоточен в основном на ситуациях, где ИИ применяют профессионалы при работе с клиентами и пациентами — к примеру, финансовые консультанты, применяющие ИИ для разработки инвестиционных стратегий, либо радиологи, использующие алгоритмы для анализа медицинских снимков. При этом закон практически не затрагивает случаи прямого взаимодействия конечных пользователей с ИИ без участия профессионалов. Примером могут служить чатботы и цифровые помощники, которые сейчас применяются в работе с несовершеннолетними или в иных уязвимых группах.
Недавний трагический случай в штате Флорида, когда подросток совершил самоубийство после длительного общения с таким чатботом, показал, насколько важно обеспечить безопасность ИИ в подобных условиях. Такой прецедент не рассматривается в RISE Act, что подчеркивает пробелы в законодательной инициативе. В сравнении с законодательством Европейского союза, США предлагают более формализованный подход, ориентированный на управление рисками и соблюдение процедур. Европейская модель, напротив, больше ориентирована на права и защиту конечных пользователей, заставляя разработчиков демонстрировать ответственность и принимать на себя обязательства по безопасности и прозрачности с самого начала. Отмена директивы по ответственности за ИИ в ЕС в 2025 году была воспринята как поддавливание со стороны индустрии, однако европейские законодатели продолжают продвигать идеи защиты прав человека и конечного пользователя как приоритетные.
В США законопроект Ламмис пытается найти баланс между поощрением инноваций и ограничением юридических рисков для индустрии, но при этом ориентируется на технический контроль и документацию как основные механизмы регулирования. Эксперты, включая юристов и исследователей интерфейсов ИИ, подчеркивают необходимость доработки инициативы. Они предлагают усилить требования к прозрачности, обеспечить систему независимых аудитов для проверки честности и точности раскрываемых данных. Также важно установить четкие правила возмещения ущерба в случае ошибок или злоупотреблений технологиями, чтобы ни профессионалы, ни пользователи не оставались без защиты. В частности, в области здравоохранения актуальны вопросы взаимодействия «человек в цикле» и автономных систем.
Некоторые исследования показывают, что человеческое вмешательство при использовании ИИ может ухудшать результаты диагностики — это ставит под вопрос традиционные подходы к ответственности и требует переосмысления. Возможно, необходимо новое законодательное поле для страхования и компенсаций в ситуациях, когда ИИ берет на себя существенную часть решений. По мнению аналитиков, законопроект RISE Act может стать отправной точкой для обсуждения нормативных основ регулирования профессиональных ИИ-инструментов в США. Однако для того, чтобы законодательство было эффективным и сбалансированным, оно должно эволюционировать, включать более строгие механизмы контроля и ответственности, а также учитывать как интересы разработчиков, так и конечных пользователей и общества в целом. Его вступление в силу планируется на 1 декабря 2025 года, что предоставляет дополнительное время для обсуждений и доработок.
В конечном итоге, регулирование искусственного интеллекта — сложная и многогранная задача, которая требует привлечения экспертов из разных областей, общественных и государственных институтов. RISE Act отражает осознание необходимости законодательной базы для управления рисками и ответственности, но без дальнейших изменений и расширения он вряд ли сможет обеспечить должный баланс между инновациями и защитой прав людей в эпоху цифровых технологий.