В последние годы искусственный интеллект (ИИ) стал одним из самых обсуждаемых тем в мире технологий. С ростом популярности генеративных моделей, таких как ChatGPT, возникла острая необходимость в обсуждении подходов к развитию ИИ. Одним из главных вопросов является необходимость прозрачности и открытости кода. Действительно ли закрытые системы являются более безопасными, как утверждают их разработчики, или же открытую архитектуру следует считать более эффективной и инклюзивной? Одним из ярких примеров актуального обсуждения этой темы является компания OpenAI, создатель ChatGPT. OpenAI, получившая значительные инвестиции от Microsoft, высказывается за закрытость своего кода, утверждая, что это необходимо для предотвращения злоупотреблений и обеспечения надежного развития технологий.
Однако возникли серьезные споры о том, стоит ли уходить в такую позицию. Эффективность и безопасность открытых моделей, предложенная такими компаниями, как Meta, может привести к более устойчивым результатам. На фоне этого спора выделяется Allen Institute for AI (AI2) — некоммерческая организация, основанная в основном благодаря состоянию сооснователя Microsoft Пола Аллена. AI2 считает, что открытое делегирование кода обречено на успех и приведет к лучшим будущим для всего сообщества. Они заявляют, что открытость может способствовать более широкому сотрудничеству и обмену знаниями, которые необходимы для продвижения технологий ИИ.
Однако, когда мы говорим о прозрачности, стоит также обратить внимание на источник финансирования этих организаций. Хотя AI2 объявил о своих наработках, таких как OLMo — открытая языковая модель, вопрос о том, откуда поступают средства на его развитие, остается открытым. В частности, как много акций Microsoft, которые находятся в собственности наследников Аллена, были использованы для финансирования AI2? Наличие инвестиций от Microsoft в OpenAI, которая развивает закрытые модели, ставит иногда под сомнение истинные намерения сторон, выступающих за открытые модели. Тем временем, полемика о закрытом и открытом коде становится все более актуальной на фоне быстро развивающихся технологий. Подходы к созданию ИИ разделяются на два лагеря: одни считают, что открытость способствует распространению вредоносного контента, в то время как другие утверждают, что лишь благодаря открытости можно опередить потенциальных злоумышленников и тем самым добиться безопасности.
На практике подобные споры проявляются не только на уровне концепций, но и на уровне финансирования. Все мы знаем, что разработка ИИ требует значительных капиталовложений. Инфраструктура для обучения моделей, включая программное обеспечение и вычислительные мощности, такие как чипы от NVIDIA, представляют собой огромные затраты. На этом фоне важно отметить, что не только американские компании, но и некоторые китайские организации также активно инвестируют в развитие технологий ИИ. Некоторые эксперты полагают, что именно богатство корпоративного мира формирует неравенство возможностей в сфере технологий.
С точки зрения индустрии, открытые разработки могут привести к иновациям и улучшению качества моделей, и это действительно важно. Однако дешевая доступность кода порождает и некую рискуемость. Всевозможные злоумышленники могут воспользоваться открытыми компонентами для создания вредоносных приложений. Проведение таких параллелей с такими явлениями, как стремительное развитие сети Интернет в 90-х годах, позволяет наглядно увидеть, как контроль за инновациями может быть упущен из-за стремления к открытости. Размышляя о будущем искусственного интеллекта, стоит обратить внимание на выбор между открытой и закрытой разработкой.
Да, есть много примеров, когда открытость привела к прорывам — Linux и Apache являются яркими примерами успеха открытого программного обеспечения. Однако, когда речь идет об искусственном интеллекте, ситуация может оказаться гораздо более сложной. Отношение между крупными корпорациями и новыми игроками на рынке технологий также не простое. Крупные компании, как правило, располагают гораздо большими ресурсами и возможностями, что позволяет им контролировать рынок и диктовать правила игры. Отсюда возникает опасность, что новые игроки будут вытеснены с рынка, а инновации будут притормаживаться.
Одним из путей увеличения прозрачности является улучшение сотрудничества между традиционными научными и образовательными институтами и частным сектором. Открытое сотрудничество и совместная работа могут снизить барьеры, которые мешают развитию открытого кода и открытых технологий. Таким образом, мир ИИ по-прежнему остается полем борьбы идей и подходов. Время покажет, сможет ли открытый подход реально пережить жесткие реалии конкурентного мира технологий. Однако одно можно сказать наверняка: прозрачность и открытость — это важнейшие факторы, которые смогут обеспечить эффективное и безопасное развитие искусственного интеллекта.
В конце концов, общество должно создавать стандарты того, как следует обращаться с мощными технологиями. Вопросы о прозрачности, безопасности и инклюзивности технологий будущего требуют активного обсуждения и четкого понимания. Лишь открытое сотрудничество и обмен знаниями позволят нам избежать ошибок прошлого и создать более безопасный и инклюзивный мир технологий.