Сегодня искусственный интеллект стремительно внедряется в самые разные сферы бизнеса и повседневной жизни. AI-агенты, автоматизирующие задачи от поддержки клиентов до обновления баз данных и даже написания программного кода, становятся неотъемлемой частью корпоративных систем. Однако возникает вопрос, чью же идентичность они используют при взаимодействии с системами? Ответ на него далек от простоты и имеет существенное значение для управления безопасностью и контролем доступа в крупных организациях. В современном цифровом мире существует несколько подходов к формированию идентичности AI-агентов, которые отличаются в зависимости от архитектуры платформы и целей бизнеса. Один из первых путей — это автономная идентичность, где агент получает полный набор собственных учетных данных и становится полноценным цифровым сотрудником.
Хорошим примером служит платформа Salesforce с ее Agentforce, где у AI-агента есть собственный профиль пользователя внутри системы. Такой агент самостоятельно создает все необходимые записи, а его действия отображаются под его именем, что облегчает аудит и контроль. Тем не менее, даже в этой модели иногда присутствует возможность использовать учетные данные других пользователей, усложняя картину подлинного источника действий. Второй подход — делегированная идентичность. Она построена на принципе, что AI-агенты не имеют собственных учетных записей, а вместо этого временно заимствуют полномочия реальных пользователей.
Примером здесь служит протокол Model Context Protocol (MCP), который опирается на механизмы OAuth для передачи авторизации от человека к агенту. Такое решение разумно для сценариев, где важно четко связывать действия с конкретным пользователем, например, при бронировании встреч через виртуальных помощников. Однако у этого метода есть свои недостатки: агент не имеет постоянного цифрового следа, а его действия сложно отслеживать вне контекста конкретного пользователя. Третий, более сложный и гибкий, эволюционный тип идентичности — гибридный. Его роль ярко демонстрирует Microsoft с ее Copilot Studio.
Здесь агенты получают не полноценный пользовательский аккаунт, а обособленную учетную запись приложения в Entra ID (прежнее Azure AD). Такой агент может менять свою идентичность в зависимости от ситуации — он способен использовать полномочия инициирующего пользователя, свои собственные привилегии или учетные данные разработчика. Это создает уникальный вызов для систем безопасности, поскольку один и тот же AI-агент в рамках одного диалога может выполнять операции под разными идентичностями, что осложняет аудит, контроль и разграничение прав доступа. Сложность сценариев с агентскими идентичностями создает актуальную проблему для специалистов по безопасности. Традиционные модели управления доступом, построенные на ролевой политике и единой идентичности пользователя, не приспособлены для ситуаций, когда одному агенту соответствует смена ролей и полномочий в пределах одной сессии.
Это порождает риски, связанные с недостаточной прозрачностью действий и потенциальным расширением прав за пределы необходимых, что противоречит принципу наименьших привилегий. Кроме того, из-за отсутствия единого отраслевого стандарта или согласованного протокола возникает фрагментация — каждая платформа реализует свои правила взаимодействия агентов с системами. Это затрудняет предприятиям интеграцию нескольких решений и разработку комплексной стратегии управления AI-агентами. Без четкого понимания, под какой именно идентичностью действует агент в конкретный момент, сложно обеспечить надежный контроль и реагирование на инциденты безопасности. Особенно непростая ситуация складывается с ростом сложности агентных экосистем, когда AI-агенты начинают взаимодействовать между собой, делегируя полномочия и вызывая цепочки идентичностей, напоминающие вложенный делегированный доступ.
Такая многоуровневая система затрудняет анализ источников действий и повышает нагрузку на средства мониторинга и аудита. Чтобы справиться с этими вызовами, предприятиям необходимы новые инструменты и инфраструктуры, которые способны обеспечить прозрачность и управление множественными идентичностями AI-агентов. Важно разрабатывать решения, позволяющие адекватно отображать связь между агентом и используемой им ролью, вести точный аудит и создавать политики безопасности, охватывающие все возможные модели идентификации. В то же время бизнесы должны переосмыслить традиционные подходы к управлению идентичностью, учитывая, что AI-агенты — не просто сервисные аккаунты или пользователи, а отдельные сущности с возможностью динамического переключения ролей и полномочий. Применение новых концепций и протоколов, таких как те, которые сейчас разрабатываются в рамках организаций и сообществ, позволит перейти от хаотичной фрагментации к единому контролируемому пространству.
На переднем крае решения этих вопросов стоят компании, которые предлагают так называемые «площадки управления агентской идентичностью». Они разрабатывают целостные подходы и технические средства, направленные на создание единой картины идентичности AI-агентов вне зависимости от платформы или используемой модели. Благодаря таким усилиям предприятия смогут обеспечить надежный контроль, снизить риски безопасности и повысить эффективность работы с AI. В заключение можно сказать, что агентские идентичности — это новый и быстро развивающийся аспект цифровой безопасности, оказавшийся в центре внимания специалистов и руководителей. Разнообразие подходов, от автономных до смешанных моделей, отражает степень зрелости рынка и технологических возможностей.
В ближайшие годы именно успешное решение задач управления агентской идентичностью станет одним из ключевых факторов безопасности и устойчивости современных организаций в эпоху искусственного интеллекта.