В мире сегодня стремительными темпами развивается область искусственного интеллекта (ИИ), и его применение охватывает все сферы жизни, включая оборону. Япония, одна из ведущих мировых держав в технологической сфере, недавно объявила о публикации новых официальных руководств, которые регулируют использование ИИ в исследовательских и конструкторских разработках оборонного оборудования. Эти рекомендации впервые дают четкие рамки и правила для интеграции ИИ в системы, используемые Министерством обороны (МО) и Силами самообороны Японии (ССО Японии). Публикация новых руководств произошла 6 июня 2025 года Агентством по приобретению, технологии и логистике Японии (ATLA). Цель подобных мер — гарантировать надёжное участие человека в процессе разработки и эксплуатации ИИ-систем, а также управление рисками, связанными с их использованием.
Кроме того, руководства направлены на создание понятных и прозрачных условий для бизнеса, который заинтересован в разработках для оборонного сектора. Такой подход способствует развитию технологий, одновременно учитывая этические, юридические и операционные риски. Япония уделяет особое внимание опасностям, связанным с применением полностью автономных боевых систем, способных идентифицировать, выбирать и поражать цели без участия человека. Такие системы известны как летальные автономные боевые системы (LAWS). В мире отсутствует единое международное определение LAWS, однако в японских документах они определяются чётко как устройства, которые после активации способны самостоятельно принимать решения, ведущие к применению смертоносной силы.
Япония открыто заявляет о запрете разработки подобных систем и выступает за их глобальное запрещение. Это соответствует общему международному тренду, стремящемуся избежать рисков неконтролируемого насилия с применением технологий ИИ. Новые министерские рекомендации отражают ключевой принцип, который японское правительство называет «человеко-центричным». Важной составляющей концепции является необходимость поддержания контроля человека над системами с ИИ, особенно там, где речь идет о применении военной силы. Документ подробно описывает процесс оценки и снижения рисков, которые могут возникнуть на разных этапах научно-исследовательских работ, а также в производстве и эксплуатации оборонных ИИ-систем.
Япония выступает за соблюдение норм международного гуманитарного права (МГП) и утверждает, что все оборонные системы с искусственным интеллектом должны соответствовать этим нормам. В основу национальной системы контроля легли три этапа риск-менеджмента. Прежде всего, оборудование с ИИ разделяется на «высокорисковые» и «низкорисковые» в зависимости от степени влияния искусственного интеллекта на боевые характеристики систем. Для высокорисковых проектов требуется тщательная демонстрация правового соответствия и техническая экспертиза, тогда как для низкорисковых допускается более простой процесс самопроверки. Далее следует детальный юридический и политический анализ, который осуществляется Специальным советом по правовым и политическим вопросам.
На этом этапе система оценивается на предмет соответствия международным и национальным законам, а также того, что она не будет работать без адекватного человеческого контроля, учитывающего ответственность оператора. Если система не удовлетворяет этим требованиям, проект не допускается к дальнейшим научно-исследовательским работам. Последним этапом проводится техническая экспертиза, которая учитывает семь ключевых критериев, в том числе обеспечение ответственности человека, прозрачность алгоритмов, надёжность и безопасность систем, меры борьбы с предвзятостью данных и обоснованность работы. Все это направлено на создание функциональных и безопасных ИИ-модулей, способных работать под контролем человека и минимизировать риск ошибок или злоупотреблений. Япония не только стремится укрепить свои оборонные технологии, но и активно участвует в международных дискуссиях по регулированию автономных боевых систем.
Её позиция, изложенная в рабочих документах, представленных в ООН в 2024 году, акцентирует внимание на прозрачности, ответственности и соблюдении правил ведения вооружённых конфликтов. Кроме того, Япония подписала политическую декларацию, инициированную США, поддерживающую этические принципы использования ИИ в военном деле. Все эти меры служат не только национальной безопасности, но и повышают доверие международного сообщества к японским оборонным разработкам. Они демонстрируют взвешенный подход, совмещающий продвижение технологического прогресса с этическими принципами, что в условиях глобальных вызовов и новой гонки вооружений с элементами искусственного интеллекта приобретает особо важное значение. Важным аспектом является то, что японские правила являются одними из самых строгих по сравнению с аналогичными практиками в США, Великобритании, Австралии и Франции.
Это подчеркивает намерение Японии не просто следовать мировым трендам, а стать законодателем международных стандартов в сфере разработки и внедрения ИИ для оборонных целей. С технической стороны, вместе с новыми руководствами, Япония стремится внедрять ИИ в такие области, как обнаружение и анализ целей, управление командованием, поддержка логистики, кибербезопасность и эффективное использование беспилотных средств. Благодаря этому, оборонный сектор страны становится более современным и адаптивным к будущим вызовам, оставаясь подчеркнуто безопасным и контролируемым. Принятие этих рекомендаций также поддерживает развитие отечественного бизнеса, стимулируя инновации и давая компаниям чёткое понимание требований и рамок, в которых они могут работать. Это не только укрепляет национальную экономику, но и повышает конкурентоспособность Японии на глобальном рынке технологий.
Таким образом, новые руководства Японии по внедрению ИИ в оборонное оборудование являются важной вехой на пути к ответственному и устойчивому развитию искусственного интеллекта в военной сфере. Они подчеркивают решимость страны сочетать технологический прогресс с соблюдением общечеловеческих ценностей и международных норм, играя при этом активную роль в глобальном формировании политики в области ИИ и автономных боевых систем.