В истории развития искусственного интеллекта существует фундаментальный принцип, который часто остается непонятым или недооцененным — так называемый «Горький урок». Несмотря на то, что на протяжении многих лет исследователи вкладывали огромные усилия в разработку систем, основанных на знаниях экспертов и ручном программировании, именно методы, которые лучше используют возрастание вычислительных мощностей, постепенно становится лидерами в своей области. Этот феномен отражает наблюдение, что с увеличением доступного вычислительного ресурса преобладают подходы, масштабируемые по объему вычислений, а не традиционные системы с ограниченной встроенной экспертизой. Такой «урок» носит горький оттенок, поскольку в краткосрочной перспективе инвестиции в экспертные знания дают быстрый и ясный результат, однако в долгосрочной перспективе они становятся тяжеловесным и малоэффективным ограничением. Чтобы понять суть этого явления, необходимо погрузиться в историю искусственного интеллекта и рассмотреть практические примеры, продемонстрировавшие преимущество масштабируемости над ручным знанием.
В середине XX века, когда вычислительная техника была лишь в зачаточном состоянии, развитие интеллектуальных систем опиралось главным образом на детально прописанные правила и знания, созданные человеком. Такие системы, называемые экспертными, работали с ограниченными возможностями, обеспечивая достойные результаты в узкоспециализированных задачах. Однако, по мере роста сложности проблем и увеличения объема данных стало понятным, что подходы, основанные на прогрессивном обучении машин и использовании большей вычислительной мощности, открывают новые горизонты. Классическим примером служит история компьютерных шахмат. До появления Deep Blue, шахматные программы в основном строились на жестких правилах и эвристиках, созданных экспертами.
Deep Blue продемонстрировал мощь масштабируемого подхода, используя миллионы вычислений для поиска ходов, подкрепленных сложной функцией оценки, составленной людьми с тысячами параметров. Это решение не только выиграло у мирового чемпиона Гарри Каспарова, но и показало, что интенсивное использование вычислений существенно превосходит вручную заложенные знания. Тем не менее, система Deep Blue оставалась достаточно специализированной: перенос ее архитектуры в другие игры требовал разработки новых функций оценки и тысяч человеческих решений. Позже в истории искусственного интеллекта появилась игра Го, которая много лет оставалась серьезным вызовом для машин. Традиционные боты, такие как GnuGo и Pachi, использовали наборы правил и эвристик, основанных на знаниях человека, и показывали неплохие результаты, однако не могли существенно продвинуться дальше.
Появление AlphaGo Zero стало настоящим прорывом, поскольку эта система отказалась от человеческих подсказок и училась исключительно на основе игр против самой себя, используя мощные вычислительные ресурсы. Именно эта смена парадигмы — переход от знаний к вычислениям — привела к потрясающему доминированию машинного обучения в решении сложных задач. Причина такой судьбы — ограниченная масштабируемость человеческих знаний. Создание и интеграция экспертных правил требует времени, усилий и зачастую имеет узкую область применения. С другой стороны вычислительные ресурсы продолжат расти, согласно законам развития технологий, что делает стратегии, опирающиеся на использование этой мощности, более перспективными.
Несмотря на очевидность этого процесса, его принятие не всегда дается легко. Люди привязываются к своим теориям, вложенным трудам и методам, отказываясь переходить на новые подходы, что тормозит прогресс. Примером служит долгий период поддержки экспертных систем в Го даже после появления Deep Blue, а также склонность современных исследовательских центров применять человеческие знания ради быстрого достижения успеха на конкретных бенчмарках. Этот «горький урок» напоминает, что успешный путь в развитии ИИ — это путь к общим, масштабируемым решениям, способным расти вместе с увеличением вычислительной мощности. Фокус на краткосрочных преимуществах экспертизных систем часто мешает перейти к более долгосрочной, масштабируемой стратегии.
В настоящее время индустрия искусственного интеллекта сталкивается с тем, что ожидается дальнейшее многократное увеличение вычислительных ресурсов. Компании и лаборатории ориентируются не столько на знания, сколько на создание моделей и методов, которые могут эффективно использовать это увеличение мощности. Среди таких методов — глубокое обучение, обучение с подкреплением, использование больших моделей с миллиардами параметров и обучение на огромных массивах данных. Интересно, что автор «Горького урока» не рассматривает глубокое обучение как единственно верный путь, а скорее подчеркивает значимость именно тех методик, которые обеспечивают отчетливый рост с ростом вычислений, несмотря на при этом стойкую привязанность к человеческому фактору в кратковременной работе. Большую роль играют не только сами модели, но и инструменты, которые дают возможность расширять возможности ИИ через масштабирование — это синтетические данные, модели с экспертными модулями, тестовое увеличение compute и другие технологии, позволяющие видеть выгоду от большого объема операций, даже если эти операции не связаны напрямую с человеческим знанием.
При этом горькая правда заключается в том, что реальный прогресс иногда требует антропологического и организационного «обновления». В течение десятилетий исследовательские коллективы и организации создают устоявшуюся культуру, где научные достижения часто связаны с личными заслугами и методологиями, и заменить «старые школы» на новые подходы непросто. Иногда прорывы случаются только тогда, когда новые поколения или организации, свободные от предыдущих парадигм, берут дело в свои руки. Современный опыт показывает, что достижение лидерства в разработке ИИ редко обеспечивает применение узкоспециализированных знаний, скорее это результат умения строить системы, способные расти и улучшаться за счет возросших вычислительных возможностей. Анализ истории и современных трендов дает понимание, что ключ к будущему — универсальность и масштабируемость моделей, а не углубленная локальная экспертиза.
Только так можно добиться устойчивого развития и значительного прорыва в области искусственного интеллекта. Осознание «Горького урока» помогает лучше понимать, почему подходы, нацеленные на использование роста вычислительной мощности, оказываются успешнее, а попытки ручного внедрения знаний и правил рискуют привести к застою и упущенным возможностям. Таким образом, сфера ИИ стоит перед выбором — продолжать краткосрочные улучшения за счет вложений в человеческий опыт или ставить на долгосрочный рост, опираясь на быстрое развитие вычислительных ресурсов и методов, способных ему соответствовать. Сегодня результат очевиден — талантливые команды вкладываются в создание мощных, масштабируемых архитектур, готовых использовать будущие прорывы в аппаратуре и алгоритмах без необходимости заново перекраивать знания для каждой новой задачи. Эта стратегия не только повышает эффективность, но и закладывает фундамент для прогресса, который мы увидим в ближайшие годы.
Принятие этой урока — залог успеха и конкурентоспособности в области искусственного интеллекта, где гибкость и масштабируемость, подкрепленные растущими вычислительными мощностями, станут наиболее ценными качествами.