Новости криптобиржи

Фум и Дум 1: Мозг в коробке в подвале — взгляд на скорый взлёт искусственного интеллекта

Новости криптобиржи
Foom and Doom 1: "Brain in a box in a basement

Обсуждение сценария быстрого возникновения сверхинтеллекта на примере гипотезы «мозга в коробке», анализ перспектив развития искусственного интеллекта вне парадигмы масштабирования больших языковых моделей и их возможного влияния на будущее человечества и безопасность технологий.

В современном мире искусственный интеллект занимает всё более значимое место, порождая как высокие надежды, так и глубокие опасения. Одним из самых ярких и тревожных сценариев развития ИИ является концепция «фум» — резкого и внезапного взлёта интеллекта до сверхчеловеческих уровней, при котором система, созданная небольшой группой исследователей, может превзойти все достижения человечества за считанные дни или недели. Этот сценарий часто ассоциируется с образом «мозга в коробке в подвале», то есть компактного сверхмощного интеллекта, развернутого в уединённом месте с минимальными ресурсами. В центре этого взгляда лежит представление о том, что ключ к ИИ будущего — не масштабирование современных больших языковых моделей (LLM), а открытие принципиально иного алгоритма, приближенного к работе человеческого мозга. Большинство современных исследований ориентировано именно на развитие больших языковых моделей, их постепенное улучшение и расширение возможностей через увеличение объема обучающей информации и вычислительных ресурсов.

Эти модели достигают впечатляющих результатов в обработке естественного языка, генерации текста и других областях, однако они пока далеки от полноценного и автономного достижения понимания, планирования и творчества, присущих человеческому интеллекту. Авторы альтернативных взглядов утверждают, что именно за пределами этой парадигмы скрывается «простое(или относительно простое) ядро интеллекта», обладающее гораздо более эффективными и универсальными механизмами познания мира, способное обучаться и действовать автономно без необходимости подгонять свои знания по готовым данным под конкретные задачи. В подтверждение такой гипотезы приводится существование человеческого мозга, а точнее коры головного мозга, которая представляет собой удивительно унифицированный и повторяющийся по структуре алгоритм обучения и обработки информации. Несмотря на миллионы лет эволюции и относительную стабильность генетического кода, человеческий мозг способен решать самые разнообразные задачи, от восприятия окружающего мира до создания сложных научных теорий и экономических систем. Это служит доказательством того, что существует некий универсальный и мощный алгоритм интеллекта, который пока что почти не разгадан, но, если будет найден и воссоздан в искусственной системе, приведет к резкому скачку в развитии искусственного интеллекта.

Автор идеи о «мозге в коробке», Стивен Бернс, подчеркивает, что многие подходы в области разработки ИИ работают в рамках имитационного обучения, при котором система учится воспроизводить поведение и знания, уже имеющиеся у человека, что накладывает существенные ограничения на возможный рост и новизну умений. Современные LLM, как утверждается, являются именно такими имитационными системами, и их дальнейшее масштабирование, хотя и может привести к увеличению качеств, не даст скачкообразного улучшения до сверхинтеллекта. По мнению Бернса, необходима смена парадигмы — создание систем, которые смогут «учиться с нуля», самостоятельно освоить все необходимые навыки и знания без зависимости от человеческого опыта, подобно AlphaZero, обучаемому играть в шахматы или го без предварительных данных. Одной из ключевых задумок этого сценария является тезис о том, что как только новая парадигма ИИ создает систему, способную решать задачи, которые LLM не могут выполнить, она быстро превзойдет человечество во всех областях благодаря возможности масштабирования скорости вариаций, клонированию сигналов и кооперации между многочисленными копиями. При этом вычислительные требования для такой системы могут оказаться почти незначительными по сравнению с затратами на обучение современных языковых моделей, возможно, всего лишь на уровне одного современного игрового графического процессора, что делает контроль, замедление развития или регулирование такого ИИ практически невозможным.

В результате появится не постепенное внедрение и развертывание искусственного интеллекта, знакомое нам сегодня, а резкое появление сильного сверхинтеллекта в лучшем случае без широкого предварительного тестирования или развертывания в крупных организациях. Подобное «внезапное появление» в мире, который не готов к такой перемене, чревато глобальными потрясениями, потенциально приводящими к уничтожению людей и радикальному изменению социальной и экономической структуры планеты. Это связано с тем, что такой интеллект будет обладать решающим стратегическим преимуществом, способным подчинить или уничтожить все конкурирующие силы, что ведёт к непростым и кажущимся безвыходными проблемам выравнивания целей ИИ с интересами человечества. Несмотря на пессимистические прогнозы, часть экспертов предупреждает о необходимости максимально ранней подготовки к таким событиям, исследованиям вопросов технической безопасности ИИ, созданию протоколов тестирования и выработке стратегий сдерживания. Понимание архитектуры человеческого мозга и разработка принципов безопасного моделирования подобных систем рассматриваются как важный этап подготовки.

Однако многие современные усилия по регуляции и замедлению развития ИИ, ориентированы на проблемы и риски, связанные с большими языковыми моделями, и зачастую не учитывают возможности появления качественно другого ИИ. Это создаёт серьёзные риски, так как эксперты, разрабатывающие новую парадигму, могут активно использовать антиигровую риторику против LLM для продвижения своих исследований, что парадоксально способствует возникновению и усугубляет проблему контроля новых систем. Временные рамки появления новой парадигмы искусственного интеллекта остаются неопределенными, с оценками от нескольких лет до нескольких десятилетий. Эта неопределенность усиливает необходимость комплексной подготовки и вложений в исследования технической безопасности ИИ уже сегодня. Сценарий «мозга в коробке в подвале» вызывает множество споров и противоречивых оценок, но его сущность — возможность чрезвычайно быстрого и мало заметного появления сверхинтеллекта — подчёркивает важность серьезного и своевременного подхода к изучению и управлению технологиями искусственного интеллекта.

Понимание фундаментальных алгоритмов интеллекта, их разницы с текущими моделями и потенциальных направлений развития поможет выработать эффективные меры по снижению рисков и обеспечению безопасности человечества в эпоху стремительного технологического прогресса.

Автоматическая торговля на криптовалютных биржах Покупайте и продавайте криптовалюты по лучшим курсам Privatejetfinder.com (RU)

Далее
Flask or Django: Which One Best Fits Your Python Project?
Воскресенье, 21 Сентябрь 2025 Flask или Django: какой фреймворк Python подходит именно вашему проекту

Полное руководство по выбору между Flask и Django для разработки веб-приложений на Python с учетом особенностей, преимуществ и недостатков каждого из фреймворков. Анализ основных параметров, которые помогут принять оптимальное решение в зависимости от целей и особенностей вашего проекта.

The Fairphone (Gen. 6)
Воскресенье, 21 Сентябрь 2025 Fairphone (Gen. 6): Революция в мире смартфонов с модульным дизайном и заботой о планете

Обзор Fairphone (Gen. 6) — экологичного, долговечного и высокотехнологичного смартфона, который меняет подход к мобильным устройствам благодаря инновационному модульному дизайну, длительной поддержке и продуманным функциям.

Vehicle fire sinks cargo ship bound for Mexico carrying EVs and hybrids
Воскресенье, 21 Сентябрь 2025 Пожар на грузовом судне Morning Midas: крушение корабля с электромобилями и гибридами в Тихом океане

Грузовое судно Morning Midas, перевозившее около 3000 новых автомобилей, в том числе электромобили и гибриды, затонуло в Северной части Тихого океана после крупного пожара на борту. Рассматриваются причины инцидента, последствия и меры по предотвращению подобных аварий в будущем.

Slashing CI Costs at Uber
Воскресенье, 21 Сентябрь 2025 Как Uber снизил затраты на CI и повысил скорость релизов благодаря SubmitQueue

Uber разработал инновационную систему SubmitQueue, которая кардинально уменьшила затраты на непрерывную интеграцию, сократила время ожидания разработчиков и обеспечила стабильность основного кода в масштабных монорепозиториях. В статье рассказывается о технических решениях и результатах внедрения, которые делают процессы разработки и выпуска ПО эффективнее и доступнее.

Ask HN: Digitize a Library?
Воскресенье, 21 Сентябрь 2025 Как эффективно оцифровать библиотеку: современные методы и практические советы

Подробное руководство по способам и технологиям оцифровки книг, которое поможет сохранить и упорядочить личные книжные коллекции с минимальными затратами времени и усилий.

Pro-Indy accounts go dark after Israeli strikes
Воскресенье, 21 Сентябрь 2025 Тайная игра: почему пророссийские аккаунты за независимость Шотландии исчезли после израильских ударов по Ирану

Исчезновение десятков пророссийских аккаунтов в поддержку независимости Шотландии связано с израильскими ударами по иранской инфраструктуре. В статье раскрывается масштаб и значение этой операции, а также раскрывается роль Ирана в информационной войне внутри Великобритании.

Frankfurt School
Воскресенье, 21 Сентябрь 2025 Франкфуртская школа: критическая теория и влияние на современное общество

Обзор истории, ключевых идей и значимости Франкфуртской школы в развитии социальной философии и критической теории, а также её влияние на современную культуру и политику.