В последние годы технологии искусственного интеллекта стремительно развиваются, предоставляя новые возможности и инструменты, которые могут как улучшить качество жизни, так и создать существенные риски для общества. Одним из серьезных вызовов стала технология глубоких фейков — видеоролики или аудиозаписи, искусственно созданные с помощью ИИ, которые выглядят и звучат как реальные, но содержат ложную информацию. Эту проблему остро обозначил в своих заявлениях министр внутренних дел Великобритании Джеймс Клеверли, подчеркнув, что глубокие фейки способны стать мощным оружием в руках враждебных государств, в частности России, для вмешательства в выборы и подрыва демократических основ страны. Глубокие фейки — это синтезированные цифровые материалы, которые позволяют имитировать образы и голоса реальных людей с поразительной точностью. Благодаря развитию генеративных нейросетей создание таких материалов стало относительно доступным и быстрым.
В результате зловредные акторы могут создавать тысячи поддельных видео и аудиозаписей, распространять их в социальных сетях и мессенджерах, что ведет к массовому дезинформированию и манипуляции мнением избирателей. Политический контекст Великобритании ставит перед страной серьёзные вызовы, особенно в свете заявлений премьер-министра Риши Сунака о проведении в 2024 году всеобщих выборов. Именно в предвыборный период уровень политического напряжения и заинтересованность общественности усиливаются, создавая благоприятную среду для распространения дезинформации. Министр Клеверли выразил озабоченность тем, что технология глубоких фейков уже активно используется для создания и тиражирования ложных посланий, направленных на подрыв доверия к политическим институтам и отдельным политикам. Примером реального воздействия ИИ и глубоких фейков на общественно-политическую ситуацию стал инцидент с мэром Лондона Садиком Ханом, когда был распространён поддельный аудиозапись, приписывающая ему оскорбительные высказывания, направленные против памятных мероприятий в честь ветеранов.
Это послужило формой провокации и спровоцировало общественный резонанс, наглядно продемонстрировав силу искусственно созданного контента в эпоху цифровой информации. В ответ на эти угрозы крупные технологические компании подписали соглашение о добровольном принятии мер для предотвращения использования своих платформ в целях вмешательства в выборы. Тем не менее критики отмечают, что в данном соглашении отсутствуют обязательства по запрету или удалению глубоких фейков, что оставляет пространство для дальнейшего распространения подобных манипуляций. В связи с этим глава МВД Великобритании планирует встретиться с руководителями технологических гигантов Кремниевой долины, чтобы обсудить пути усовершенствования механизмов контроля и усиления ответственности интернет-платформ. Особое внимание в борьбе с угрозой глубоких фейков уделяется необходимости разработки новых правил и прозрачных стандартов в сфере цифрового контента.
По словам Джеймса Клеверли, цифровое пространство становится ареной борьбы идей и политических взглядов, и поскольку технологии меняются стремительно, законодательство должно успевать за этими изменениями. Требуется создавать законодательные рамки, направленные на защиту пользователей от манипуляций, а также просвещение населения в вопросах критической оценки получаемой информации. В мировой практике борьба с дезинформацией и ИИ-манипуляциями приобретает всё большее значение. В ряде стран уже внедряются алгоритмические решения, способные выявлять и маркировать подозрительный контент, однако этот процесс далеко не идеален ввиду сложностей распознавания и параметров доступа к данным. Важным аспектом остается взаимодействие государственных структур с частным сектором и экспертным сообществом для обмена знаниями и совместной разработки эффективных инструментов противодействия.
Не менее значима роль общества в противостоянии дезинформации. Повышение цифровой грамотности, критическое мышление и ответственность пользователей за распространённый ими контент — ключевые факторы в укреплении демократических процессов. В период выбора представительских органов власти информационный пузырь и влияние социальных сетей могут серьёзно искажать восприятие реальности, поэтому формирование устойчивости общества к манипуляциям становится приоритетной задачей. Подводя итоги, можно сказать, что искусственный интеллект и технологии глубоких фейков представляют собой одновременно новые возможности и новые угрозы. В руках злонамеренных акторов они способны коренным образом изменить ход демократических процессов и подорвать доверие к избирательной системе.
Государственные органы Великобритании уже осознают эту опасность и активно работают над мерами по защите выборов, включая сотрудничество с технологическими компаниями и разработку законов, регулирующих цифровой контент. Однако вызовы быстро развивающихся технологий требуют постоянной адаптации и инновационных подходов. Технологии глубоких фейков продолжают усложнять информационное пространство, поэтому успех в борьбе с ними зависит от комплексного подхода, включающего законодательное регулирование, технические решения и просвещение общества. Лишь совместными усилиями возможно защитить демократию от новых цифровых угроз и сохранить честность и прозрачность выборов в эпоху искусственного интеллекта.