В современном мире искусственный интеллект занимает всё более значимое место, порождая как высокие надежды, так и глубокие опасения. Одним из самых ярких и тревожных сценариев развития ИИ является концепция «фум» — резкого и внезапного взлёта интеллекта до сверхчеловеческих уровней, при котором система, созданная небольшой группой исследователей, может превзойти все достижения человечества за считанные дни или недели. Этот сценарий часто ассоциируется с образом «мозга в коробке в подвале», то есть компактного сверхмощного интеллекта, развернутого в уединённом месте с минимальными ресурсами. В центре этого взгляда лежит представление о том, что ключ к ИИ будущего — не масштабирование современных больших языковых моделей (LLM), а открытие принципиально иного алгоритма, приближенного к работе человеческого мозга. Большинство современных исследований ориентировано именно на развитие больших языковых моделей, их постепенное улучшение и расширение возможностей через увеличение объема обучающей информации и вычислительных ресурсов.
Эти модели достигают впечатляющих результатов в обработке естественного языка, генерации текста и других областях, однако они пока далеки от полноценного и автономного достижения понимания, планирования и творчества, присущих человеческому интеллекту. Авторы альтернативных взглядов утверждают, что именно за пределами этой парадигмы скрывается «простое(или относительно простое) ядро интеллекта», обладающее гораздо более эффективными и универсальными механизмами познания мира, способное обучаться и действовать автономно без необходимости подгонять свои знания по готовым данным под конкретные задачи. В подтверждение такой гипотезы приводится существование человеческого мозга, а точнее коры головного мозга, которая представляет собой удивительно унифицированный и повторяющийся по структуре алгоритм обучения и обработки информации. Несмотря на миллионы лет эволюции и относительную стабильность генетического кода, человеческий мозг способен решать самые разнообразные задачи, от восприятия окружающего мира до создания сложных научных теорий и экономических систем. Это служит доказательством того, что существует некий универсальный и мощный алгоритм интеллекта, который пока что почти не разгадан, но, если будет найден и воссоздан в искусственной системе, приведет к резкому скачку в развитии искусственного интеллекта.
Автор идеи о «мозге в коробке», Стивен Бернс, подчеркивает, что многие подходы в области разработки ИИ работают в рамках имитационного обучения, при котором система учится воспроизводить поведение и знания, уже имеющиеся у человека, что накладывает существенные ограничения на возможный рост и новизну умений. Современные LLM, как утверждается, являются именно такими имитационными системами, и их дальнейшее масштабирование, хотя и может привести к увеличению качеств, не даст скачкообразного улучшения до сверхинтеллекта. По мнению Бернса, необходима смена парадигмы — создание систем, которые смогут «учиться с нуля», самостоятельно освоить все необходимые навыки и знания без зависимости от человеческого опыта, подобно AlphaZero, обучаемому играть в шахматы или го без предварительных данных. Одной из ключевых задумок этого сценария является тезис о том, что как только новая парадигма ИИ создает систему, способную решать задачи, которые LLM не могут выполнить, она быстро превзойдет человечество во всех областях благодаря возможности масштабирования скорости вариаций, клонированию сигналов и кооперации между многочисленными копиями. При этом вычислительные требования для такой системы могут оказаться почти незначительными по сравнению с затратами на обучение современных языковых моделей, возможно, всего лишь на уровне одного современного игрового графического процессора, что делает контроль, замедление развития или регулирование такого ИИ практически невозможным.
В результате появится не постепенное внедрение и развертывание искусственного интеллекта, знакомое нам сегодня, а резкое появление сильного сверхинтеллекта в лучшем случае без широкого предварительного тестирования или развертывания в крупных организациях. Подобное «внезапное появление» в мире, который не готов к такой перемене, чревато глобальными потрясениями, потенциально приводящими к уничтожению людей и радикальному изменению социальной и экономической структуры планеты. Это связано с тем, что такой интеллект будет обладать решающим стратегическим преимуществом, способным подчинить или уничтожить все конкурирующие силы, что ведёт к непростым и кажущимся безвыходными проблемам выравнивания целей ИИ с интересами человечества. Несмотря на пессимистические прогнозы, часть экспертов предупреждает о необходимости максимально ранней подготовки к таким событиям, исследованиям вопросов технической безопасности ИИ, созданию протоколов тестирования и выработке стратегий сдерживания. Понимание архитектуры человеческого мозга и разработка принципов безопасного моделирования подобных систем рассматриваются как важный этап подготовки.
Однако многие современные усилия по регуляции и замедлению развития ИИ, ориентированы на проблемы и риски, связанные с большими языковыми моделями, и зачастую не учитывают возможности появления качественно другого ИИ. Это создаёт серьёзные риски, так как эксперты, разрабатывающие новую парадигму, могут активно использовать антиигровую риторику против LLM для продвижения своих исследований, что парадоксально способствует возникновению и усугубляет проблему контроля новых систем. Временные рамки появления новой парадигмы искусственного интеллекта остаются неопределенными, с оценками от нескольких лет до нескольких десятилетий. Эта неопределенность усиливает необходимость комплексной подготовки и вложений в исследования технической безопасности ИИ уже сегодня. Сценарий «мозга в коробке в подвале» вызывает множество споров и противоречивых оценок, но его сущность — возможность чрезвычайно быстрого и мало заметного появления сверхинтеллекта — подчёркивает важность серьезного и своевременного подхода к изучению и управлению технологиями искусственного интеллекта.
Понимание фундаментальных алгоритмов интеллекта, их разницы с текущими моделями и потенциальных направлений развития поможет выработать эффективные меры по снижению рисков и обеспечению безопасности человечества в эпоху стремительного технологического прогресса.