Виртуальная реальность Стартапы и венчурный капитал

Анализ безопасности кода, написанного искусственным интеллектом: что показало тестирование более 100 моделей ИИ в 2025 году

Виртуальная реальность Стартапы и венчурный капитал
We Asked 100 AI Models to Write Code

В 2025 году была проведена масштабная проверка безопасности кода, созданного более чем 100 моделями искусственного интеллекта. В исследовании оценивалась уязвимость программного обеспечения на разных языках программирования, выявлялись основные проблемы и давались практические рекомендации по обеспечению безопасности при использовании кодов, сгенерированных ИИ.

Искусственный интеллект уже давно преобразует многие сферы жизни, и программирование — одна из самых заметных. Сегодня разработчики активно используют AI для автоматизации рутинных задач, ускорения процесса написания кода и повышения производительности. Однако вместе с удобствами и скоростью приходит серьезная проблема — безопасность создаваемого ИИ кода. Летом 2025 года компания Veracode представила результаты масштабного исследования, которое проливает свет на то, насколько надежна и безопасна продукция современных языковых моделей. Более сотни ИИ-моделей были протестированы на предмет уязвимостей при написании кода на популярных языках программирования, таких как Java, Python, C# и JavaScript.

Полученные результаты оказались тревожными и требуют пристального внимания со стороны разработчиков, специалистов по безопасности и управления предприятиями. Исследование выявило, что почти половина сгенерированного кода содержит серьезные уязвимости, в том числе входящие в топ-10 самых опасных проблем по стандарту OWASP. Особенно уязвимым оказался язык Java, где 72% примеров кода не прошли базовые проверки безопасности. Другие широко используемые языки не показали значительно лучших результатов: Python имел почти 40% проваленных проверок, JavaScript — 43%, а C# — около 45%. Такие показатели свидетельствуют о том, что создание функционального кода и создание по-настоящему безопасного кода — это задачи разного уровня сложности.

Тот факт, что даже самые продвинутые модели ИИ по-прежнему не справляются с проблемами безопасности, разрушает миф о том, что современные и большие языковые модели по умолчанию обеспечивают надежность своих решений. Одной из наиболее частых и опасных обнаруженных уязвимостей стала Cross-Site Scripting (CWE-80), с которой ИИ столкнулся в 86% релевантных случаев. Это тип атаки, широко используемый злоумышленниками для внедрения вредоносных скриптов через веб-приложения, и его присутствие в сгенерированном коде прямо угрожает безопасности пользователей и бизнесов. Вопреки ожиданиям, новейшие версии и большие языковые модели не обеспечивали существенного повышения в плане безопасности. Хотя работа с синтаксисом и функционалом заметно улучшилась, значимых изменений в способности моделей предотвращать уязвимости и писать надежный код обнаружено не было.

Это подчеркивает необходимость не только слепо доверять ИИ, но и тщательно проверять любое сгенерированное им ПО, включать в процесс разработки контроль качества, направленный на безопасность. Еще более важным становится понимание, что проблемы безопасности касаются не только команд самих разработчиков, использующих генеративный ИИ напрямую. AI-генерируемый код уже широко проник в разработку через сторонних поставщиков, открытые проекты, платформы с низким уровнем кода и аутсорсинговых подрядчиков. Это означает, что многие компании уже используют программное обеспечение с элементами искусственного интеллекта без осознания этого, значительно увеличивая риски возможных утечек данных, сбоев и репутационных потерь. Отсутствие должного внимания к анализу безопасности в таких случаях может привести к серьезным финансовым и юридическим последствиям.

Сегодняшняя ситуация заставляет пересмотреть подход к разработке и интеграции AI-решений. Скорость создания ПО не должна идти в ущерб безопасности и надежности. Как и при выпуске традиционных приложений, код, сгенерированный искусственным интеллектом, должен проходить обязательное сканирование уязвимостей и тестирование на соответствие стандартам безопасности. В отчете Veracode по безопасности AI-кода также приводятся конкретные рекомендации для разных категорий участников процесса разработки ПО. Для программистов важно улучшать навыки понимания и выявления типичных уязвимостей, а также использовать современные инструменты автоматической проверки безопасности, интегрируемые в процессы CI/CD.

Специалисты по информационной безопасности должны внедрять более сложные стратегии анализа кода, учитывающие особенности AI-генерации, и развивать методики оценки рисков, связанных с использованием языковых моделей. Руководство компаний должно инвестировать в создание безопасных практик разработки и формировать культуру ответственности за качество и защиту продуктов, включая обязательное обучение сотрудников. В целом, индустрия разработки программного обеспечения стоит на пороге серьезных изменений. Искусственный интеллект, с одной стороны, предоставляет колоссальные возможности для ускорения и повышения качества написания кода, с другой — открывает новые угрозы, которые нельзя упускать из виду. Обеспечение безопасности AI-сгенерированного кода — задача общего приоритета, требующая слаженного взаимодействия всех участников: разработчиков, менеджеров, специалистов по безопасности и конечных пользователей.

Следующие годы определят, насколько эффективно индустрия сможет адаптироваться к вызовам, связанным с генеративным ИИ, и поможет ли это технологическое новшество работать на благо, а не во вред цифровой безопасности. Верное понимание и применение выводов таких исследований, как 2025 GenAI Code Security Report от Veracode, станет фундаментом для построения более надежной и защищенной цифровой экосистемы будущего.

Автоматическая торговля на криптовалютных биржах Покупайте и продавайте криптовалюты по лучшим курсам Privatejetfinder.com (RU)

Далее
Why "vibe physics" is the ultimate example of AI slop
Вторник, 18 Ноябрь 2025 Почему «vibe physics» — ярчайший пример недостатков искусственного интеллекта в физике

Разбор феномена «vibe physics» и объяснение, почему общение с ИИ о сложных физических теориях зачастую приводит к недостоверным и заблуждающим результатам. Объяснение ограничений современных больших языковых моделей и их неспособности формулировать или проверять фундаментальные физические законы.

Thinking Is Becoming a Luxury Good
Вторник, 18 Ноябрь 2025 Размышления как предмет роскоши: почему способность думать становится дефицитом

В современном мире способность сосредоточенно и критически мыслить становится редкостью, что связано с распространением технологий и изменением образа жизни, ведущим к социальной и интеллектуальной неравенстве.

Building an AI-native multi-model UI with SurrealDB and Rust
Вторник, 18 Ноябрь 2025 Создание многофункционального AI-интерфейса с использованием SurrealDB и Rust

Обзор современных возможностей SurrealDB и интеграции с Rust для разработки AI-нативного многофункционального пользовательского интерфейса, позволяющего эффективно обрабатывать и связывать данные с помощью встроенных возможностей базы данных и генеративного искусственного интеллекта.

What do you get out of the StackOverflow Dev Survey Results?
Вторник, 18 Ноябрь 2025 Что можно узнать из результатов опроса разработчиков Stack Overflow

Результаты ежегодного опроса разработчиков Stack Overflow предоставляют уникальные данные о современных трендах в сфере программирования, технологиях и проблемах, с которыми сталкиваются профессионалы по всему миру. Анализ этих данных помогает понять, куда движется IT-индустрия, какие инструменты и языки программирования наиболее востребованы, а также выявить ключевые тенденции развития отрасли.

Show HN: A JSON MCP that doesn't clutter your LLM context
Вторник, 18 Ноябрь 2025 JSON MCP: Умный способ управлять контекстом LLM без лишнего шума

Подробный обзор JSON MCP — эффективного сервера для фильтрации и генерации схем JSON, который помогает оптимизировать контекст больших языковых моделей, снижая избыточность данных и повышая точность работы.

MemoCall – I built an AI that listens to service calls and fills work orders
Вторник, 18 Ноябрь 2025 MemoCall: Искусственный интеллект нового поколения для автоматизации обработки заказов в логистике

MemoCall предлагает революционное решение для автоматизации обработки служебных звонков и заполнения заявок, позволяя логистическим компаниям сократить ошибки и оптимизировать рабочие процессы благодаря ИИ, способному в реальном времени распознавать и обрабатывать данные заказов.

Why Does the Universe Exist? CERN Just Found a Clue
Вторник, 18 Ноябрь 2025 Почему существует Вселенная? Новое открытие CERN раскрывает загадку

Ученые CERN сделали важный шаг в понимании загадки существования Вселенной, открыв новые свидетельства нарушения симметрии между материей и антиматерией. Это открытие поможет понять фундаментальные причины нашего бытия и даст толчок будущим исследованиям во вселенной физики частиц.