В последние годы огромные объемы данных стали одним из самых ценных ресурсов на финансовых рынках. Инвесторы, стремящиеся использовать современные технологии для повышения своей конкурентоспособности, все чаще ищут способы интегрировать традиционные и альтернативные данные в свои инвестиционные стратегии. Однако, как утверждает один из руководителей крупнейшего мирового управляющего активами BlackRock, попытка использовать данные для опережения рынка на данный момент может привести лишь к «головной боли и сердечным страданиям». На недавней конференции в Нью-Йорке, американець Амер Бисат, глава портфелей альфа-инвестиций в странах с развивающимися и суверенными рынками, раскрыл причины, по которым BlackRock испытывает трудности с обработкой и использованием данных. "Рынок данных по-прежнему остается священным граалем," - заявил Бисат, добавив, что их работа с данными требует большого количества времени и усилий.
Это утверждение вызвало широкую дискуссию в мире финансов, где многие компании стремятся адаптировать свои торговые стратегии к эпохе данных. BlackRock, как и другие финансовые учреждения, сталкивается с множеством сложностей, начиная с хранения и классификации данных и заканчивая их качественным анализом. Современные технологии позволяют получать и хранить огромные объемы информации, однако эффективность инвестирования часто зависит от того, насколько хорошо эта информация очищена и структурирована. Бисат подчеркнул, что для успешного анализа и использования информации необходимо сосредоточиться на упорядочивании данных из различных источников, чтобы превратить их в ценные аналитические сведения. В соответствии с данными, предоставленными CFO BlackRock Гари Шедлином, около 25% из 14,000 сотрудников компании работают в области технологий.
Каждый год фирма инвестирует примерно 1 миллиард долларов в развитие технологий и данных. Тем не менее, несмотря на значительные вложения, Бисат подчеркнул, что процесс извлечения "альфа", то есть прибыли, из данных остается слишком сложным и требует значительных ресурсов. Таким образом, компании, такие как JPMorgan и Credit Suisse, также подтверждают, что борьба за эффективную обработку данных ничуть не легче. Скотт Пинто, сопредседатель JPMorgan, отметил, что в их организации существует множество баз данных, которым еще предстоит быть очищенными и приведенными в порядок, прежде чем можно будет применить к ним алгоритмы искусственного интеллекта или машинного обучения. Эта ситуация ставит под сомнение, действительно ли финансовые учреждения готовы перейти к широкому использованию технологий, которые обещают значительно повысить эффективность инвестиционных стратегий.
Примечательно, что исторически банки были признаны лидерами в сборе данных. На протяжении многих лет они собирали информацию о фондовых и долговых сделках, кредитных транзакциях и ипотечных кредитах. Однако большинство из этих организаций не придавали должного значения тому, как эти данные могут быть использованы для создания стратегии, основанной на фактических событиях. Это вызывает серьезные вопросы относительно готовности финансовых институтов к будущим вызовам, когда потребуется не просто сбор данных, а умение их правильно обрабатывать и использовать. Докладчиком на конференции также выступила Лаура Барроуман, технический директор Credit Suisse, которая подчеркнула важность высококачественных данных для успешного использования их в инструментах, основанных на искусственном интеллекте.
Она отметила, что качество данных имеет первостепенное значение. Даже базовые требования к полноте и точности информации могут оказаться трудно достижимыми для крупных организаций, таких как Credit Suisse, что в свою очередь влияет на возможность успешного применения сложных аналитических методов. К неожиданному выводу пришли эксперты, что даже с растущим интересом к технологиям типа "большие данные" и искусственного интеллекта на финансовых рынках, многие компании все еще сталкиваются с тем, что их основные процессы удалены от идеалов, которые они стремятся достичь. Существующие на данный момент инструменты и технологии все еще нуждаются в значительных улучшениях, а борьба за доступ к надежным данным продолжается. В итоге, несмотря на все технологические достижения и инвестиции в инновационные решения, две главные проблемы все еще остаются на повестке дня: необходимость упорядочивания данных и отсутствие качественного анализа.