В современном мире искусственный интеллект (ИИ) уверенно проникает в самые разные сферы человеческой деятельности — от бизнеса и медицины до безопасности и военных действий. В частности, конфликт в Газе стал своеобразным полигоном для Израиля, где новейшие ИИ-технологии были протестированы и внедрены в реальных боевых условиях. Это вызвало широкий резонанс, ознаменовав начало новой эры использования искусственного интеллекта в военном деле, а также подняв острые вопросы этики, законности и ответственности. Одним из значимых примеров является операция по ликвидации Ибрагима Бияри, высокопоставленного командира ХАМАС, который активно участвовал в подготовке нападений 7 октября 2023 года. Израильская разведка долгое время не могла найти местоположение Бияри, скрывающегося в лабиринтах подземных туннелей Газы.
В такой сложной ситуации был задействован ранее разработанный еще десять лет назад, но не применявшийся в боевых действиях, аудиоинтеллектуальный инструмент с ИИ. Интеграция искусственного интеллекта позволила с высокой точностью определить примерное место, откуда Бияри вел телефонные разговоры на арабском языке. На основе этой информации израильские военные нанесли авиаудары 31 октября 2023 года, в результате которых был убит командир и, к сожалению, погибло более 125 мирных жителей — трагическая цена, которая вновь ставит вопрос о последствиях применения подобных технологий. Этот аудиоаналитический инструмент — лишь один из многочисленных способов, которыми Израиль задействовал ИИ в ходе конфликта. Сотрудники легендарного подразделения 8200, аналога американского Агентства национальной безопасности, тесно сотрудничали с резервистами, работающими в ведущих технологических компаниях мира — Google, Microsoft и Meta.
Совместные усилия варьировались от интеграции технологий распознавания лиц, способных идентифицировать даже частично закрытые или искалеченные лица, до создания продвинутых моделей на арабском языке, способных обрабатывать тексты, социальные сети и сообщения. Особое место в этой экосистеме занял инновационный центр «The Studio», призванный объединить лучших экспертов и обеспечить быструю разработку и внедрение инновационных проектов с применением ИИ. Такая кооперация позволила не только ускорить процесс создания интеллектуальных алгоритмов, но и раскрыть потенциал технологий в условиях реальных боевых задач. Тем не менее результаты применения ИИ в войне далеко не всегда были безупречными. Часто происходили ошибки в распознавании и идентификации, что приводило к необоснованным арестам и летальным исходам среди гражданского населения.
Эти моменты встречают сильную критику со стороны специалистов по этике и исследователей прав человека. Эксперты подчеркивают, что внедрение ИИ в военных операциях требует особого внимания к вопросам прозрачности и подотчетности. Технологии должны оставаться инструментом в руках человека, а не работать автономно, особенно когда речь идет о принятии решений об убийстве или задержании. Многие опасаются, что отсутствие строгих ограничений и механизмов контроля может привести к массовому нарушению прав и свобод мирных жителей. История Израиля не нова в плане использования технологических инноваций в военном деле.
Конфликты в Газе и Ливане служили площадкой для испытания дронов, систем перехвата ракет и кибертехнологий. Однако масштаб внедрения именно ИИ в текущем цикле боевых действий оказался беспрецедентным. Международные наблюдатели и аналитики отмечают, что опыт Израиля может стать образцом для других государств, но одновременно служит предупреждением о рисках. Среди последних достижений — разработка больших языковых моделей для арабского языка, предназначенных для анализа и обработки огромных объемов текстовой и мультимедийной информации. Такой подход позволяет быстро оценивать настроения в арабоязычных сообществах, отслеживать реакцию на военные события и даже предугадывать возможные действия противника.
Однако ограничения моделей, связанные с различием диалектов и недостаточной устойчивостью к сленгу или словам с английским происхождением, требуют постоянного участия специалистов. Технология распознавания лиц, внедренная на временных контрольно-пропускных пунктах между севером и югом Газы, предоставила возможность улучшить идентификацию подозреваемых. Но и она показала свои уязвимости, поскольку частично закрытые лица или специфические условия съемки приводили к ошибкам и обычным людям приходилось отвечать за чужие подозрения. Также важным элементом вооруженного ИИ-арсенала Израиля стал алгоритм «Lavender», способный анализировать миллионы данных на предмет выявления членов ХАМАС и их возможных союзников. Система помогла отсортировать множество сводок и ускорить процесс принятия решений по целям для атак, однако и здесь наблюдались случаи ошибочных прогнозов.
Безусловно, углубленная интеграция искусственного интеллекта в конфликтные ситуации ведет к новому уровню войны, где скорость анализа и возможность обрабатывать невиданные ранее объемы данных предоставляют заметное преимущество. Тем не менее это сопряжено с необходимостью выработки жестких этических норм и международных правил для использования подобных технологий, с акцентом на соблюдение международного гуманитарного права. Особенно остро проблема стоит в свете того, что военное применение ИИ тесно связано с вопросами приватности, слежки и безопасности данных. Использование перехваченных коммуникаций, социальной активности и геолокационной информации граждан ставит под удар фундаментальные права человека. Израильская армия заявляет о своей приверженности законности и ответственному подходу к применению данных технологий.