DeFi Институциональное принятие

Почему исполнительный указ Байдена по ИИ имеет опасные ограничения — мнение экспертов в области обнаружения дипфейков

DeFi Институциональное принятие
President Biden's AI executive order has 'dangerous limitations,' says deepfake detection company CEO

Разбор основных проблем и ограничений в исполнении недавнего исполнительного указа президента Байдена, направленного на регулирование искусственного интеллекта, а также взгляд CEO компании Reality Defender на недостатки подхода с водяными знаками и пути решения для защиты пользователей от мошенничества и манипуляций.

Президент Байден подписал один из самых масштабных исполнительных указов, касающихся регулирования искусственного интеллекта (ИИ). Этот указ официально должен повысить безопасность и прозрачность использования ИИ в различных сферах жизни американских граждан, включая защиту от мошенничества и распространения дезинформации. На первых порах инициатива была воспринята как важный шаг в правильном направлении, учитывая стремительное развитие и распространение технологий искусственного интеллекта. Однако, несмотря на положительные намерения, ряд специалистов, включая CEO компании Reality Defender Бена Колмана, выразили серьезные опасения по поводу эффективности некоторых положений указа, особенно связанных с применением технологии происхождения данных — так называемого водяного знака или provenance watermarking. Водяные знаки — это цифровые метки, которые призваны идентифицировать источник контента и подтверждать, что он сгенерирован искусственным интеллектом.

В теории, такая технология могла бы помочь отличить реальную информацию от подделки или дипфейков, сгенерированных с помощью ИИ. Белый дом настаивает, что внедрение таких стандартов для маркировки ИИ-контента позволит гражданам легче распознавать подлинные сообщения и обезопасит правительственные коммуникации, создав эталон и для частного сектора. Однако эксперты глубоко сомневаются в том, что внедрение водяных знаков действительно станет надежным решением. Колман обращает внимание на то, что современные методы водяных знаков легко обходятся злоумышленниками. Исследования таких университетов, как Мэриленд, Калифорния и Карнеги-Меллон, показали, что водяные знаки можно легко удалить или подделать с помощью простых симулированных атак.

Это ставит под сомнение возможность обеспечения надежной идентификации ИИ-сгенерированного контента в реальных условиях, где злоумышленники постоянно совершенствуют свои методы обхода защитных мер. Одним из ключевых критических замечаний является то, что водяные знаки продвигаются и разрабатываются преимущественно крупнейшими технологическими компаниями, такими как Microsoft, Adobe, Arm и Intel. Такой подход создаёт так называемую «огороженную» экосистему, в которой крупные игроки сами диктуют правила для регулирования ИИ. Колман указывает, что это может служить одновременно как способ саморегулирования индустрии, так и попыткой избежать внешнего надзора со стороны государства, скрывая свои недостатки и противоречивые интересы. Кроме того, любой подход, основанный на добровольном соблюдении правил крупными компаниями, не сможет эффективно работать для всех участников цифрового пространства.

В частности, любые хакеры, недоброжелательные акторы и государственные злоумышленники, которые по сути причиняют наибольший вред обществу через ИИ, просто не будут соблюдать созданные стандарты и законы. Они не ограничены платформами, которые пытаются контролировать доступ и вводить ограничения, поэтому даже самые продвинутые меры защиты могут быть обойдены. В результате Колман называет попытку внедрить водяные знаки "пластырем" — временной, недостаточно надежной мерой, которая создает иллюзию безопасности, но на деле не решает главных проблем. Более того, сама идея, что все пользователи и недоброжелатели будут следовать протоколам маркировки, сравнивается с установкой «умных замков» на дома, при этом надеясь, что все потенциальные преступники строго придерживаются правил использования ключей. Очевидно, что такая стратегия далека от реалий современного кибербезопасного ландшафта.

Вместо слепой веры в водяные знаки, эксперты считают важным развивать более комплексный и многоуровневый подход к выявлению дипфейков и защиты от мошенничества с использованием ИИ. Компания Reality Defender, к примеру, использует методы вероятностного анализа и глубинного обнаружения подделок, которые не полагаются на один идентификатор, а оценивают целый набор факторов, таких как анализ пикселей, спектрограммы, звуковые волны и особенности построения текста. Это позволяет получать оценку достоверности контента по шкале вероятности, давая пользователям возможность понимать риски и принимать информированные решения о распространении или доверии к информации. Еще одна важная проблема состоит в том, что компании, которые занимаются разработкой и распространением ИИ-технологий, заинтересованы в максимальной прибыли от своей продукции. Они не всегда заинтересованы в том, чтобы публично признавать уязвимости или возможности для злоупотребления своими системами.

Именно поэтому вице-президент Reality Defender настаивает на том, что государство должно приоритезировать независимые, прозрачные и надежные методы обнаружения дипфейков и других манипуляций, а не полагаться исключительно на меры и стандарты, предлагаемые крупнейшими технологическими корпорациями. Редкая изюминка в подходе Белого дома заключается в попытках повысить осведомленность общества и направить федеральные агентства на применение определенных инструментов для защиты коммуникаций. Однако полная оптимизация и внедрение надежных инструментов потребует гораздо большего времени, усилий, межведомственного сотрудничества и обязательств со стороны частного сектора и науки. Развитие технологий ИИ стремительно идёт вперед, и пока государство и отрасль не смогут предложить адекватные меры, пользователи подвергаются постоянной угрозе дезинформации, мошенничества и манипуляций. Технологии искусственного интеллекта оказывают глубокое влияние на современное общество, экономика и коммуникации.

Блестящее будущее ИИ связано с огромным потенциалом для решения глобальных проблем, повышения качества жизни и инноваций. Однако без адекватных механизмов контроля и защиты общество рискует столкнуться с серьезными вызовами, включая широкое распространение недостоверной информации, угрозы безопасности и потерю доверия к цифровым медиа. В итоге ситуация вокруг исполнительного указа Байдена показывает, что регулирование ИИ — это комплексная задача, требующая не только законодательных инициатив, но и технологических инноваций, сотрудничества между правительством, бизнесом и наукой, а также активного участия общества. Подход, основанный исключительно на доверии к крупнейшим компаниям и простых водяных знаках, не обеспечивает должного уровня безопасности и не учитывает реалий современных киберугроз. Реальная защита от дипфейков и злоупотреблений с ИИ требует более глубоких исследований, разработок и внедрения сложных инструментов, способных выявлять подделки с высокой степенью точности и предоставлять пользователям достоверную информацию о происхождении и надежности контента.

Такие меры помогут снизить риски, укрепить цифровую грамотность и повысить ответственность за создание и распространение ИИ-сгенерированного материала. Таким образом, исполнительный указ президента Байдена является важным шагом на пути к регулированию ИИ, но он нуждается в доработках и расширении. Только комплексный и хорошо продуманный подход позволит обеспечить эффективную защиту общества и повысить доверие к новым технологиям, которые продолжают изменять наш мир.

Автоматическая торговля на криптовалютных биржах Покупайте и продавайте криптовалюты по лучшим курсам Privatejetfinder.com (RU)

Далее
Microsoft Reveals New Cybersecurity Worry as Hackers Target Its AI Model
Воскресенье, 14 Сентябрь 2025 Новые вызовы кибербезопасности: как хакеры атакуют ИИ-модели Microsoft

Обзор современной угрозы безопасности в сфере искусственного интеллекта, вызванной попытками хакеров обойти защитные механизмы Microsoft и воздействовать на облачные AI-системы. Рассмотрены риски, последствия и возможные пути защиты в условиях растущего использования ИИ.

I’m an AI expert – there are two clear signs of a deepfake to look out for to prevent getting conned, they’re obvious
Воскресенье, 14 Сентябрь 2025 Как распознать дипфейк: два очевидных признака, которые помогут избежать обмана

Современные технологии искусственного интеллекта создают новые вызовы для безопасности в интернете. Распознавание дипфейков становится обязательным навыком для защиты от мошенничества и обмана.

LastPass: Hackers targeted employee in failed deepfake CEO call
Воскресенье, 14 Сентябрь 2025 Как LastPass остановил атаку с использованием дипфейк-голоса CEO: уроки для бизнеса

Раскрыт инцидент с использованием искусственного интеллекта для имитации голоса CEO компании LastPass, демонстрирующий современные угрозы безопасности и эффективные методы защиты от фишинговых атак с применением дипфейк-технологий.

Bitcoin Futures Dip to 3-Month Low Amid Surging ETF Inflows
Воскресенье, 14 Сентябрь 2025 Падение премии на фьючерсы Биткоина до трёхмесячного минимума на фоне роста притока средств в ETF

Обзор текущих тенденций на рынке Биткоина, включая снижение премий на фьючерсные контракты и значительный рост инвестиций в биржевые фонды (ETF). Анализ влияния этих факторов на инвесторское настроение и будущие перспективы цифрового актива.

Hedge Fund Execs Fear Bitcoin’s Fate in Post-Trump Era: Insights from Eric Semler
Воскресенье, 14 Сентябрь 2025 Испытания Биткоина в эпоху после Трампа: мнение Эрика Семлера и опасения руководителей хедж-фондов

Анализ изменений в регулировании криптовалют после Трампа с акцентом на опасения руководителей хедж-фондов и важность формирования четкой регуляторной базы для стабильного роста криптоиндустрии.

Reddit Explores Using Global Scanning Tech for User Verification: Report
Воскресенье, 14 Сентябрь 2025 Reddit внедряет глобальные технологии сканирования для верификации пользователей на основе блокчейна

Reddit продолжает интеграцию передовых решений блокчейн-технологий, используя инновационные сканирующие орбы для повышения безопасности и достоверности пользовательских аккаунтов. Новые инструменты усиливают доверие и развивают криптовалютные возможности на платформе, открывая новые горизонты для взаимодействия и цифровой экономики.

Norway Considers Crypto Mining Ban Over Energy Concerns
Воскресенье, 14 Сентябрь 2025 Норвегия и криптомайнинг: энергетический вызов и возможный запрет

В Норвегии обсуждается запрет на криптовалютный майнинг из-за значительного потребления электроэнергии, что вызывает широкий общественный резонанс и вопросы экологической и технологической политики страны.