Мир финансовых технологий продолжает развиваться с невероятной скоростью. С внедрением искусственного интеллекта (AI) в множество областей, в том числе и в криптовалютные проекты, возникает множество новых вопросов. Один из последних примеров – компания World Liberty Financial, которая, как подозревается, использовала AI для создания недостоверного поста в управлении AAVE, популярного DeFi-протокола. В этой статье мы рассмотрим, как ошибки, вызванные AI, могут повлиять на мнение инвесторов и пользователей в криптосообществе. World Liberty Financial, известная своей поддержкой со стороны Дональда Трампа и советами от Джастина Суна, выпустила пост, в котором обсуждается новая инициатива в области кредитования на платформе AAVE.
Пост был опубликован в ноябре и тут же привлек внимание благодаря потенциальным ошибкам и недостоверной информации, представленным в нем. Одной из наиболее заметных ошибок стало утверждение, что "Aave в данный момент недоступен на BNB Chain". Однако это не соответствует действительности: Aave действительно запустился на BNB Chain в феврале 2024 года, то есть почти за год до публикации поста. Это пример того, как AI может выводить устаревшую информацию, что часто происходит из-за того, что модели AI обучены на данных, которые содержали актуальную информацию на момент их сбора, но с течением времени становятся неактуальными. Кроме того, в посте также утверждается, что World Liberty Financial "также будет разрабатывать отдельный экземпляр Aave на сети второго уровня", хотя идея о развертывании такого экземпляра еще не была утверждена держателями токенов WLFI.
Важно отметить, что согласно золотой бумаге проекта, держатели токенов управления имеют право голосовать по вопросам "Обновления протокола", что делает это утверждение особенно проблематичным. Проверяя достоверность данного поста, журналисты Protos обратились к ряду онлайн-сервисов, которые предназначены для анализа текстов на предмет их генерирования AI. Несмотря на то, что ни один из них не является стопроцентно точным, результаты показали, что текст поста, предположительно, имеет высокий уровень вероятности быть сгенерированным AI. Например, GPTZero дала посту 100% вероятность генерирования AI, а другие сервисы, такие как Scribbr и QuillBot, оценили текст на 78% и 50% как AI-сгенерированный соответственно. Такое использование AI вызывает множество вопросов: как компании могут гарантировать точность и достоверность информации, если они полагаются на технологии, которые могут генерировать ошибки? Более того, как это влияет на доверие инвесторов и пользователей к таким проектам, как World Liberty Financial? Неправильная информация может не только дезориентировать пользователей, но и подорвать доверие к проекту в целом.
Данный инцидент также подчеркивает важность тщательной проверки информации, особенно в криптопространстве, где неизменность и прозрачность имеют критическое значение. Использование AI в создании контента — это не плохая идея, но она должна сопровождаться проверкой фактов и ответственной редакцией, чтобы избежать потенциально разрушительных последствий. Ранее Джастин Сун, который является советником проекта World Liberty Financial, также использовал AI для создания контента, включая изображения и видео для социальных сетей. Однако, такой подход чреват тем, что искусственный интеллект может создать не только грамматические и стилистические ошибки, но и распространить ложные факты, как это произошло в данной ситуации. На фоне указанных проблем возникает актуальный вопрос: где проходит грань между использованием технологий и искажением фактов? В то время как AI технологии становятся все более универсальными и распространенными, пользователям необходимо быть внимательными и критически относиться к информации, получаемой из различных источников.