Asana, известная платформа для управления проектами и задачами, недавно заявила о значимом инциденте безопасности, связанного с её новой функцией на базе ИИ — Model Context Protocol (MCP). Эта функция, внедрённая для улучшения пользовательского опыта через возможности искусственного интеллекта, к сожалению, имела логическую ошибку, которая привела к потенциальной утечке данных между разными организациями, использующими платформу. Для российских компаний, использующих Asana в рабочих процессах, это событие стало тревожным сигналом, подчеркивающим важность контроля над безопасностью и понимания ограничений современного ИИ-инструментария. Платформа Asana широко признана и используется множеством предприятий по всему миру для оптимизации управления задачами, распределения обязанностей и координации командной работы. На момент внедрения функции MCP в мае 2025 года платформа обслуживала более 130 тысяч платных клиентов и миллионы бесплатных пользователей, охватывая 190 стран.
Новая функция позволяла применять возможности больших языковых моделей, предоставляя такие инструменты, как суммирование информации, интеллектуальные ответы и запросы на естественном языке. Однако вскоре выяснилось, что программная ошибка в реализации MCP могла приводить к тому, что данные из одного аккаунта становились доступны пользователям других организаций. При этом утечка не касалась всего рабочего пространства одной компании, а лишь части информации в пределах прав доступа конкретных пользователей, которые, тем не менее, могли видеть задачи, комментарии, метаданные проектов и даже загруженные файлы из чужих рабочих областей. Подобные инциденты могут вызвать не только нарушение конфиденциальности, но и привести к серьёзным юридическим последствиям, особенно если в утёкших данных содержатся сведения, регулируемые законодательством о защите персональных данных, например, российским ФЗ-152 "О персональных данных". Помимо прямого риска распространения конфиденциальной информации, данный случай отражает общий тренд, связанный с внедрением ИИ в корпоративные сервисы.
Хотя интеграция искусственного интеллекта предоставляет значительные преимущества в плане повышения эффективности и снижения рутинных задач, ошибки в реализации таких технологий способны стать источником новых уязвимостей. Asana обнаружила проблему 4 июня 2025 года, после чего MCP-сервер был временно отключён для устранения неисправностей. По предварительным данным, около тысячи клиентов могли пострадать от инцидента, а утечки длились свыше месяца. Представители компании рекомендовали администраторам систем немедленно проверить логи доступа к MCP, внимательно изучить автоматические ответы и сводки ИИ, а также сообщить о любых подозрительных совпадениях данных из других компаний. Кроме того, Asana советовала временно ограничить интеграцию ИИ и приостановить автоматические подключение ботов до тех пор, пока не будет восстановлено полное доверие к безопасности функций.
Отсутствие публичных разъяснений со стороны Asana вызвало определённое беспокойство в профессиональном сообществе, однако технические специалисты подчёркивают важность оперативного реагирования и внедрения превентивных мер на уровне компаний-пользователей. Для российских предприятий, активно использующих облачные и SaaS-сервисы с интеграцией ИИ, инцидент Asana служит напоминанием о необходимости усиления внутренней политики безопасности. В первую очередь следует регулярно обновлять и проверять права доступа, ограничивать излишние разрешения и поддерживать коммуникацию с поставщиками услуг для раннего обнаружения и устранения возможных угроз. Также важна культура повышения осведомлённости сотрудников о рисках, связанных с обработкой конфиденциальной информации, особенно учитывая рост сложных угроз, связанных с утечками через сторонние сервисы и новые технологии. Наряду с этим, технические специалисты должны уделять внимание деталям внедрения ИИ-решений, особенно в части контроля над распределением данных и возможности межорганизационного обмена.
Недопустимо автоматическое или несанкционированное раскрытие информации, даже если это происходит по технической ошибке. Опыт Asana показывает, что алгоритмы и логика работы ИИ нужно тщательно тестировать в условиях, максимально приближенных к реальным, с учётом всех возможных сценариев взаимодействия пользователей. Более того, компании могут рассмотреть возможность выбора сервисов с интеграцией ИИ, ориентированных на строгие стандарты безопасности и конфиденциальности, соответствующие требованиям российского и международного законодательства. Стратегия управления рисками в области цифровой трансформации должна учитывать не только преимущества новых технологий, но и их потенциальные уязвимости. В конечном итоге, инцидент с MCP от Asana подчеркивает сложность и многогранность вопросов безопасности в эпоху искусственного интеллекта.
Для успешного использования возможностей ИИ необходим комплексный подход, включающий техническую надежность, грамотное администрирование и соблюдение нормативных требований. Российским компаниям следует внимательно следить за развитием подобных ситуаций, оперативно реагировать на известные угрозы и постоянно совершенствовать свои информационные системы. Такой подход позволит минимизировать риски и максимально эффективно использовать инновационные технологии для достижения бизнес-целей.