Современные технологии искусственного интеллекта стремительно внедряются в бизнес-процессы по всему миру, значительно повышая производительность и позволяя компаниям быстро адаптироваться к изменяющимся условиям рынка. Особое внимание сегодня уделяется генеративному ИИ (GenAI) — инновационным сервисам, способным создавать контент, анализировать данные и автоматизировать сложные задачи. При этом на рынке активно развиваются китайские решения GenAI, пользующиеся большой популярностью в компаниях США и Великобритании. Однако широкое использование этих инструментов сопряжено с рядом серьезных рисков, которые требуют особого внимания корпоративных служб безопасности и менеджмента. Основным источником тревог является то, что многие сотрудники используют китайские GenAI-платформы без предварительного согласования с ИТ-отделом или службами безопасности, что приводит к потенциальным утечкам конфиденциальной информации и нарушению норм законодательства по защите данных.
Согласно исследованию Harmonic Security, которое охватило активность 14 000 сотрудников в различных компаниях, около восьми процентов сотрудников без контроля применяют китайские генеративные ИИ-сервисы, такие как DeepSeek, Kimi Moonshot, Baidu Chat, Qwen от Alibaba и Manus. Эти продукты привлекательны своей доступностью и функциональностью, но при этом практически не предоставляют информации о том, как обрабатываются, хранются и используют загружаемые пользователями данные. В ходе анализа было зафиксировано более 17 мегабайт данных, загруженных на китайские платформы, включая важную коммерческую документацию, исходный код, финансовые отчеты, юридические контракты и персональные данные клиентов. Такое масштабное распространение чувствительной информации без должной защиты повышает риски нарушения требований нормативных актов, таких как GDPR или законы о защите коммерческой тайны. Особенно тревожит тот факт, что DeepSeek ответственен за около 85 процентов всех зафиксированных инцидентов с утечкой данных.
В то время как сервисы Kimi Moonshot и Qwen быстро набирают популярность, что указывает на потенциальное дальнейшее усиление проблемы. Немаловажным аспектом является политика использования данных самих сервисов. В ряде случаев китайские платформы позволяют применять загруженный контент для обучения собственных моделей ИИ, что создает значительные риски утраты контроля над интеллектуальной собственностью и коммерческими секретами. Это особенно опасно для организаций, работающих в регулируемых отраслях или имеющих стратегическую ценность внутрихозяйственных разработок. Текущий разрыв между скоростью внедрения инноваций и уровнем контроля над ими становится ключевой проблемой корпоративного управления.
В компаниях с интенсивной разработкой программного обеспечения требования скорости могут превалировать над соблюдением ИТ-безопасности, что ведет к неподготовленности к потенциальным угрозам. Для минимизации этих угроз необходимо применять комплексный подход к обеспечению безопасности использования китайских GenAI-инструментов. В первую очередь важна интеграция специализированных технических решений, способных в режиме реального времени мониторить активность сотрудников и блокировать передачу чувствительной информации через запрещенные платформы. К таким инструментам относятся системы, предоставляемые Harmonic Security, которые обеспечивают детальный контроль на уровне приложений, позволяют ограничивать доступ к определенным сервисам на основании их географического размещения и характера обрабатываемых данных. Помимо технического уровня контроля, не менее значима организационная составляющая.
Компании должны разработать четкие политики использования генеративного ИИ, которые гарантируют осознание сотрудниками рисков и ответственность за соблюдение требований безопасности. Обучение и регулярные коммуникации с персоналом помогают повысить уровень осведомленности и снизить число случаев несанкционированного применения китайских GenAI-сервисов. На стратегическом уровне умение управлять рисками, связанными с генеративным ИИ, становится конкурентным преимуществом. В то время как многие организации испытывают сложности с балансировкой между инновациями и регуляторными обязательствами, эффективное внедрение систем управления безопасностью позволяет использовать мощь искусственного интеллекта без компромиссов для защиты компании. Демонстрацией устойчивости и ответственности перед клиентами и партнерами становится грамотное регулирование инструментария ИИ, включая зарубежные решения.
В итоге использование китайских генеративных ИИ-инструментов имеет как свои преимущества, так и значительные риски. Реальное сокращение угроз возможно лишь при комплексном подходе, сочетающем современные технологические средства контроля и выстроенную организационную политику. Учитывая постоянно растущую популярность таких платформ, игнорирование правил безопасности чревато как утратой конфиденциальных данных, так и нанесением вреда репутации бизнеса. Поэтому ключевой задачей ИТ-безопасности станет не только борьба с потенциальными угрозами, но и поддержка сотрудников на пути ответственного, прозрачного и контролируемого использования возможностей генеративного ИИ для повышения общей эффективности и конкурентоспособности компании.