В последние годы технологии искусственного интеллекта стремительно развиваются, захватывая внимание публики и специалистов. Среди множества достижений особое место занимают Large Language Models (LLMs) и их более специализированные версии — Large Reasoning Models (LRMs). LRMs — это искусственные интеллект-системы, обученные выдавать ответы, ориентированные на рассуждения и решение задач в несколько этапов. Однако в обществе и даже среди разработчиков существует распространённое заблуждение: многие склонны приписывать этим системам способность к «мышлению». Почему это утверждение спорно, и стоит ли использовать термин «мышление» в отношении LRMs — тема, требующая глубокого понимания и разъяснения.
Во-первых, важно понимать, что LRMs — это по сути расширенные языковые модели, которые построены на основе статистического прогнозирования следующего слова в тексте. Они обучены на огромных корпусах текста, включая научные статьи, блоги, документы и другие источники. Их успех зачастую измеряется тем, насколько правдоподобно и уместно они могут продолжить заданный текстовый фрагмент. LRMs дополняют эту базовую архитектуру точками рассуждения — попытками выделить промежуточные шаги решения, что придаёт иллюзию логического мышления. Тем не менее, за этой поверхностной способностью скрывается фундаментальное ограничение.
LRMs не обладают «пониманием» в классическом смысле. Они не испытывают «аха»-моментов, характерных для людей, когда вдруг приходит прозрение и ясность. Научный пример, ярко иллюстрирующий эту грань — известная головоломка Башни Ханоя. Это классическая математическая задача, которую многие начинают осваивать в детстве и суть решения которой базируется на рекурсии — итеративном использовании решения для n дисков, чтобы решить задачу для n+1 дисков. Для человека, изучающего эту задачу, преодоление порога сложности и формирование «осознания» построения решения — явление вполне естественное.
Однако исследования с LRMs показывают удивительный результат: при усложнении задачи и увеличении количества дисков до десяти и более модели не справляются с решением. Если приглядеться внимательнее, становится понятно, что сложность проблемы для мозговой деятельности человека с 9 до 10 дисков растёт линейно и прогнозируемо, позволяя применять итеративное понимание. Для LRMs же задача фактически «взрывается» — они не могут использовать предыдущие знания, чтобы упростить формирование решения для большего числа дисков. Это свидетельствует не столько об ограничениях вычислительной мощности, сколько о том, что модели не обладают внутренним представлением и концептуальным пониманием задачи. Они лишь комбинируют и подбирают фрагменты текста, которые встречались им ранее, без абстрактного вывода.
Из этого вытекает ключевая мысль: LRMs не мыслят, а лишь воспроизводят шаблоны. Несмотря на маркетинговые формулировки и жаргон, которые пытаются им приписать человеческие качества, на самом деле происходит статистическая генерация и обработка информации без глубоких когнитивных процессов. Это отличие принципиальное и важно для правильного восприятия ИИ-технологий в обществе. Другая интересная особенность LRMs проявляется в их работе с простыми задачами. В некоторых случаях им удаётся быстро выдавать правильный ответ, но при попытках «пожалуйста выйди на более высокий уровень рассуждений» они склонны усложнять свои ответы, внося ошибки и неоднозначности.
Это очевидный признак отсутствия подлинного понимания: модели не умеют выделять важное от второстепенного, и их процессы формирования ответа не контролируются интуицией или здоровым смыслом, как у человека. Из этого следует, что говорить о том, будто LRMs обладают сознанием или мыслят, — это притягивание за уши. Иллюзия мышления создаётся благодаря массиву данных, на которых сеть обучается, и искусственной имитации рассуждений путем генерации последовательных шагов. Но в отсутствии самосознания, осмысления и критического контроля за процессом, эти системы не выходят за рамки продвинутой имитации. Важно и политическое измерение вопроса.
В общественном дискурсе лидеры и представители индустрии нередко высказывают мнения о том, что уже скоро ИИ сможет взять на себя решение самых сложных проблем человечества — включая, например, изменения климата. Такие заявления часто имеют сильный маркетинговый и финансовый подтекст, вызывая безосновательные ожидания и даже некоторую эйфорию. Однако призывать ИИ помочь именно на уровне сложных социальных, экономических и экологических вопросов, где необходимо учитывать множество противоречивых интересов и неопределённостей, преждевременно и неправильно, если мы не признаем ограничений текущих технологий. Опыт показывает, что если ЛРМ не может раскрыть потенциал решения тотально математически формализуемой задачи, подобной Башне Ханоя, сомнительно ожидать от них волшебных решений задач намного более комплексных и контекстно зависимых. Без настоящего понимания механики и процессов, стоящих за задачей, помощь ИИ останется приблизительной, порой даже ошибочной.
Кроме того, есть важный вопрос о структуре обучения LRMs. В отличие от живого мозга, который постоянно изменяет свои нейронные связи и адаптируется в реальном времени, ИИ в основном обучаются оффлайн и после этого остаются в относительно статичном состоянии. Они не имеют механизма постоянного «переживания» и «запоминания» новых данных в процессе взаимодействия с миром, что ограничивает гибкость их мышления. Если представить человека, который всю жизнь загружен знаниями, но не может учиться на новых данных — сложно говорить о сознательном интеллектуальном развитии. В сумме, признание разницы между человеческим мышлением и «мышлением» LRMs — это шаг к правильному восприятию технологий, предотвращению завышенных ожиданий и более рациональному подходу к внедрению и развитию искусственного интеллекта.
Не стоит вкладывать в эти модели качества, которые они не имеют, ведь это может привести к опасным иллюзиям и неверным решениям на уровне политики и бизнеса. Настоящее мышление требует автономности в понимании, способности к абстракции, креативности и самообучению в реальном времени. LRMs, вне зависимости от их размера и сложности, на данный момент остаются инструментами мощного анализа языковых данных и статистического прогнозирования, а не мыслящими субъектами. Их роль — помогать людям получать информацию, автоматизировать повторяющиеся задачи, ускорять анализ, но не заменять человеческое сознание или понимание глубинных процессов. Именно поэтому в разговоре об LRMs и их возможностях нужно осторожно выбирать слова и не использовать термин «мышление» в привычном понимании.
Главное — сохранять критическое отношение и помнить, что за впечатляющей имитацией стоит комплекс алгоритмов, а не разум и сознание. Это позволит более объективно оценивать текущее состояние ИИ, ставить реалистичные цели в исследованиях и создавать технологии, которые дополняют, а не иллюзорно имитируют способности человека.