С развитием технологий искусственного интеллекта мир столкнулся с беспрецедентными возможностями создания визуального и текстового контента. Однако эти достижения несут в себе не только положительный потенциал, но и серьезные вызовы, связанные с использованием так называемых глубоких фейков — синтетических изображений и видеороликов, созданных с помощью ИИ, которые могут вводить в заблуждение и искажать реальность. Организация Объединённых Наций (ООН) в своем последнем докладе «Информационная целостность на цифровых платформах» обратила внимание на опасность неконтролируемого распространения таких технологий и их влияния на глобальную информационную безопасность. В этом документе подчеркивается критическая необходимость ответственного подхода к применению искусственного интеллекта с акцентом на сохранение достоверности и надежности информации в цифровом пространстве. Суть проблемы заключается в том, что глубокие фейки всё чаще применяются для распространения ненавистнических высказываний, ложных новостей и дезинформации, что способствует разжиганию конфликтов, манипуляциям общественным мнением и подрыву доверия к традиционным источникам информации.
При этом генеративный ИИ, который способен создавать реалистичные тексты, изображения и видео, фактически расширяет горизонты тех, кто намеренно или непреднамеренно распространяет вредоносный контент. Технологии, как отмечает Генеральный секретарь ООН Антониу Гутерриш, обладают колоссальным потенциалом для решения глобальных проблем, однако при этом несут в себе риски, способные подорвать информационную целостность и привести к серьёзным социально-политическим последствиям. Одной из наиболее тревожных тенденций является использование глубоких фейков в зонах конфликтов, где дезинформация может провоцировать насилие и даже геноцид. ООН напоминает, что Конвенция о предотвращении и наказании преступления геноцида 1948 года запрещает публичные призывы к геноциду и любые прямые подстрекательства, что сейчас становится особенно актуальным на фоне растущей активности в сети. Глубокие фейки способны убедительно изображать события, которых на самом деле не происходило, создавать провокационные сцены с участием политических или общественных деятелей, искажающие их действия и высказывания.
Примером стала широкая огласка AI-сгенерированного изображения с арестом экс-президента США Дональда Трампа, которое быстро распространилось в марте 2023 года, вызывая недоумение и усиливая политическую напряженность. В том же месяце компания Midjourney, разработчик популярного текстово-визуального генератора изображений на базе ИИ, прекратила бесплатный доступ к сервису из-за масштабного злоупотребления технологией для создания неподобающего и ложного контента. Подобные ситуации показывают, что без жесткого контроля и этических норм использование генеративного ИИ может привести к усугублению проблем в области информационной безопасности. В борьбе с распространением глубоких фейков в ООН призывают к установлению международных стандартов и законодательных мер, которые помогут регулировать деятельность в сфере искусственного интеллекта. Не менее важным является повышение цифровой грамотности пользователей, способность которых критически оценивать получаемую информацию и распознавать манипуляции.
Эксперты также подчеркивают необходимость разработки эффективных технических инструментов для обнаружения и маркировки синтетического контента, что позволит обеспечить прозрачность и минимизировать последствия его негативного воздействия. Кроме того, важна кооперация между государственными структурами, технологическими компаниями и международными организациями, ведь только комплексный подход сможет противостоять деструктивным тенденциям. Очевидно, что будущее информационного пространства будет тесно связано с развитием искусственного интеллекта, поэтому регулирование его применения становится стратегической задачей для безопасности и стабильности общества. ООН предупреждает: «бизнес как обычно» в эпоху ИИ невозможен. Необходимы новые формы сотрудничества и адаптации к реалиям цифровой эпохи, чтобы сохранить честность, точность и доверие к информации, а также предотвратить рост ненавистнической риторики и социальных конфликтов.
Таким образом, вопросы контроля и этики в сфере генеративного искусственного интеллекта становятся более актуальными, чем когда-либо ранее. Глубокие фейки, обладающие силой менять восприятие реальности, требуют ответственности, понимания и технологических инноваций для обеспечения безопасности каждого пользователя интернета. Только в этом случае можно будет максимально использовать потенциал ИИ для добра, минимизируя при этом его вредоносные последствия в цифровом мире.