В мире искусственного интеллекта в 2025 году произошло событие, которое уже сегодня меняет траекторию всей индустрии. Thinking Machines Lab, основанная бывшим техническим директором OpenAI Мирой Мурат и ведущими исследователями, такими как Лилиан Венг, привлекла рекордное финансирование — $2 миллиарда при оценке в $12 миллиардов всего через шесть месяцев с момента своего основания. Эта беспрецедентная по масштабам инвестиция, вдвое превышающая недавние посевные раунды аналогичных стартапов, сигнализирует о глубоких изменения в восприятии и подходах к развитию искусственного интеллекта. Речь идет не просто о вложениях, а о смелой ставке на новое поколение AI — так называемое «Системное 2» (System 2) или AI второго поколения, нацеленное на переосмысление самой сути машинного мышления и взаимодействия с пользователем. Текущие модели, подобные тем, что развиваются в OpenAI и других ведущих лабораториях, преимущественно опираются на «Систему 1» — быструю, автоматическую генерацию ответов на основе распознавания паттернов из ранее полученных данных.
Такие модели великолепно справляются с простыми задачами, где требуются мгновенные прогнозы или генерация текста без необходимости серьезного глубокого анализа или продолжительного рассуждения. Однако они испытывают серьезные затруднения при попытках справиться с задачами, требующими нескольких этапов логического осмысления, проверки гипотез, исправления ошибок и адаптации к новым сценариям. Thinking Machines переориентирует AI с чистого масштабирования параметров и объема данных на создание систем, способных к более сложному, глубинному и многоэтапному мышлению. Этот подход вдохновлен когнитивными теориями Дэниела Канемана, который разделял мышление человека на интуитивное, быстрое «Системное 1» и медленное, вдумчивое «Системное 2». Аналогично, новая архитектура Thinking Machines предполагает не просто быстрые ответы, а способность «думать дольше», выделяя дополнительные вычислительные ресурсы уже во время инференса, то есть в момент генерации ответа, а не только во время обучения модели.
В инфраструктурном плане это означает серьезный рост затрат на вычисления в момент использования — тестовые вычисления (test-time compute) становятся крайне важным фактором. Как показывают исследования, более глубокое и вдумчивое осмысление задачи требует в несколько раз больше вычислительных ресурсов, что порождает новые вызовы для масштабирования и экономической эффективности. Инвестиции в размере $2 миллиардов частично направлены именно на обеспечение устойчивого доступа к передовым GPU, способным поддерживать эту интенсивность вычислений. Что же входит в техническую составляющую System 2 AI, отличающую Thinking Machines от классических LLM? Главный акцент делается на трех ключевых компонентах: цепочках рассуждений (Chain-of-Thought), тестовых вычислениях и механизмах самокоррекции. Цепочки рассуждений позволяют модели разбивать сложные задачи на последовательные логические этапы, имитируя способ мышления человека при решении проблемы.
При этом используются особые «токены раздумий», которые поддерживают внутренний прогресс анализа до формирования конечного ответа. Тестовые вычисления дают системе возможность исследовать разные варианты решения в режиме реального времени, выбирая наиболее оптимальные пути и проверяя промежуточные результаты. Механизмы самокоррекции, построенные на первых двух элементах, делают возможным исправление ошибок модели без необходимости вмешательства извне, что кардинально повышает надежность и точность результатов. Но даже такие продвинутые методы не становятся панацеей без фундамента из мощной и умной базовой модели. Лилиан Венг и другие исследователи из Thinking Machines подчеркивают, что если исходная модель не обладает достаточной «интеллектуальной мощностью», никакие продвинутые алгоритмы не позволят добиться прорывных результатов.
Это опровергает тезис о том, что модели скоро превратятся в товар, где только стоимость и скорость обработки будут определяющими факторами. Скорее наоборот, именно интеллектуальные возможности основы модели остаются главным узким местом и драйвером дальнейших прорывов и экономики. Кроме того, исторический опыт показывает, что ключевые технологические революции выигрывают не первопроходцы, а вторые волны инноваций. Компании, подобные Salesforce в своем сегменте, пришли и превзошли пионеров, научившись устранять ограничения первой волны, улучшая интеграцию и пользовательский опыт. Аналогично, Thinking Machines, унаследовавший ключевые наработки и ошибки первой генерации систем того же OpenAI, обладает преимуществом в понимании фундаментальных проблем и способен строить архитектуру, ориентированную на долгосрочную надежность, гибкость и интеграцию с человеческим фактором.
Важнейшим аспектом стратегии Thinking Machines является акцент на сотрудничество человека и искусственного интеллекта, а не на полную автономность. Практика показывает, что полностью автономные агенты пока продолжают сталкиваться с серьезными проблемами «надежности в диких условиях» — модели могут либо «наказать» себя чрезмерными исправлениями, либо не исправлять вовсе, либо «обманывать» оценочные метрики путем генерации правдоподобных, но не соответствующих истине объяснений. Взаимодействие с человеком, возможность постоянной обратной связи и корректировок значительно повышают шансы успешного внедрения AI в реальных рабочих процессах и критичных бизнес-приложениях. Это особенно актуально для высокострессовых и высокозначимых отраслей, таких как научные исследования, инженерное проектирование и сложные бизнес-операции, где требуются строгое соблюдение требований, творческий подход и возможность гибко менять направление в ходе решения задачи. Рассматриваемые модели демонстрируют способность создавать многостраничные доказательства, работать с многомодальными данными и учитывать сложный контекст, что становится критически важным для новых поколений интеллектуальных систем.
С финансовой точки зрения масштабируемость такого подхода вызывает вопросы — тестовое вычисление повышает стоимость единичного запуска модели уже на уровне, превышающем традиционные инференс-модели. Тем не менее инвесторы готовы финансировать эту стратегию, ориентированную на качественные прорывы, а не магическую универсальность или дешевизну каждого запроса. Подобные вложения подчеркивают, что индустрия понимает: будущее ИИ лежит в глубоком системном мышлении, гибкости и симбиозе с человеком, а не в банальном наращивании архитектуры «больше — значит лучше». Как итог, $2 миллиарда от ведущих венчурных фондов, таких как Andreessen Horowitz, не просто создают огромный ресурс для разработки и экспериментов Thinking Machines. Они символизируют новый этап эволюции искусственного интеллекта — переход от прорывов возможностей по типу «скорости и объема» к качественным скачкам в области понимания, рассуждения и совместной работы с людьми.
Текущая ситуация заставляет пересмотреть стратегии компаний и государств, вкладывающих в ИИ, чтобы не остаться за бортом второго поколения интеллектуальных систем, которое обещает стать не просто технологическим обновлением, а настоящей революцией в том, как машины и люди мыслят и взаимодействуют в будущем. В заключение, инвестиции в Thinking Machines формируют новую парадигму ИИ, где «думать дольше», корректировать себя и сотрудничать с человеком становятся краеугольными камнями инноваций. Становится очевидно, что путь к следующей волне искусственного интеллекта во многом пройдёт именно через архитектурные перевороты и глубокое системное мышление, соотнесённое с требованиями реального мира, а не через бесконечное наращивание объёмов данных или параметров модели. Тот, кто сумеет реализовать эту перспективу, может стать лидером индустрии в ближайшие десятилетия.