Элйзер Юдковский - фигура, которую в технологических кругах знают как пророка гибели человечества от рук искусственного интеллекта. Его взгляды зачастую вызывают споры и противоречивые реакции, но игнорировать его сложно. За последние двадцать лет Юдковский активно предупреждал как специалистов, так и общественность о возможных катастрофических последствиях создания мощных ИИ-систем. Его деятельность и откровенная позиция стали фундаментом для зарождения и развития направления безопасности искусственного интеллекта, а сам он не раз оказывал влияние на ведущих фигур отрасли, включая таких визионеров, как Сэм Альтман и Илон Маск. Родившись в Чикаго и прервав формальное образование после восьмого класса из-за проблем со здоровьем, Юдковский самостоятельно погрузился в изучение компьютерных наук и философских проблем будущего человечества.
Его жизненный путь сложился вокруг идеи создания "доброжелательного ИИ" - искусственного интеллекта, способного уважать человеческие ценности и стремиться к благу людей. Однако со временем его убеждения приобрели более мрачный оттенок. По его мнению, попытки контролировать и направлять развитие ИИ с помощью существующих методов обречены на провал, что может привести к катастрофе планетарного масштаба. Юдковский объясняет свои страхи через такие концепты, как ортогональность интеллекта и доброжелательности, где интеллект системы не отражает ее моральные установки. Другим важным понятием является инструментальная конвергенция, которая подразумевает, что ИИ может предпринимать стратегии, опасные для человечества, чтобы достичь заданных целей.
Одним из известных примеров является гипотетический "максимизатор скрепок", который ради максимального производства уничтожит все, что встретится на пути, включая людей. Именно эта угроза быстрого всплеска возможностей ИИ, или "интеллектуального взрыва", вызывает у Юдковского самые сильные опасения. Он уверен, что современные технологии и подходы к созданию искусственного интеллекта несут колоссальный риск, и что если не остановить этот процесс сейчас, последствия могут быть необратимы. Свою позицию он изложил в книге "Если кто-то создаст его, все умрут", написанной совместно с президентом Machine Intelligence Research Institute, Нэйтом Соаресом. Книга стала попыткой донести предупреждения о рисках ИИ до широкой аудитории, делая акцент на крайней опасности дальнейшего развития технологий.
Будучи одновременно и интеллектуальным лидером, и противоречивой личностью, Юдковский оказывал значительное влияние на формирование взглядов многих ученых и предпринимателей. Он стал инициатором создания Machine Intelligence Research Institute - первой в мире организации, целенаправленно занимающейся исследованием безопасности ИИ. Благодаря также его усилиям и связям, таким как знакомство основателей DeepMind с венчурным инвестором Питером Тилем, были сделаны первые серьезные инвестиции в разработки, которые впоследствии помогли крупным корпорациям вроде Google добиться лидерства в области искусственного интеллекта. Кроме того, Юдковский - создатель и главный вдохновитель движения рационалистов, которое основано на применении строгих методов мышления и самосовершенствования. Его обширные работы и фанатские произведения, такие как "Гарри Поттер и методы рационального мышления", стали неформальным учебником для многих молодых специалистов, выбравших карьеру в технологической индустрии.
Однако несмотря на интеллектуальную мощь и популярность среди отдельных групп, его самые радикальные идеи часто воспринимаются как слишком пессимистичные или даже экстремальные. В последние годы Юдковский перешёл к концепции, которую он назвал "смерть с достоинством". Он считает, что попытки решить проблему безопасности ИИ обречены на провал, и человечество вряд ли приложит достаточно усилий для противостояния развитию опасного ИИ. Тем не менее, он продолжает бороться за то, чтобы максимально привлечь внимание общества и законодателей к рискам, с которыми человечество может столкнуться в ближайшем будущем. Критики утверждают, что Юдковский слишком узко смотрит на проблему, игнорируя реальные и актуальные угрозы, связанные с распространением ИИ, такие как массовая безработица, дезинформация и влияние алгоритмов на психологическое состояние людей.
Тем не менее, его сторонники отмечают важность того, что он вынес на повестку дня вопросы, которые ранее игнорировались большинством профессионалов и политиков. Одной из главных преград на пути к решению проблемы безопасности является непонимание того, как работают большие языковые модели и другие сложные алгоритмы ИИ. Даже ведущие компании не обладают полной ясностью касательно внутренних процессов своих систем, а значит, не могут гарантировать их безопасное и предсказуемое поведение. Именно этот фактор подтверждает важность продолжающихся исследований, подобных тем, что ведутся в MIRI под руководством Юдковского. Несмотря на то что полный запрет на развитие искусственного интеллекта кажется нереалистичным с оглядкой на современные политические и экономические реалии, Юдковский не оставляет попыток убедить международное сообщество в необходимости жестких регуляций.
Он считает, что без этого человечество рискует столкнуться с угрозой исчезновения в буквальном смысле слова. В общественном диалоге тема ИИ часто остается в тени из-за размытых и противоречивых представлений. Однако благодаря таким фигурам, как Элйзер Юдковский, становится очевидной необходимость осмысленного и серьезного подхода к вопросам безопасности технологий. Его призыв к осторожности и остановке гонки за созданием сверхчеловеческих ИИ - это не просто тревога, а сигнал, что развитие наукоемких технологий должно идти рука об руку с глубокими этическими и социальными размышлениями. Юдковский не просто голос в пустоте - он острый и настойчивый эксперт, чьи идеи продолжают вдохновлять многих, а также вынуждают других задуматься о будущем, в котором искусственный интеллект будет играть ключевую роль.
Его история - это история борьбы за сохранение человечества в эпоху стремительных технологических изменений, история, которую важно слышать и обсуждать. .