В последние десятилетия искусственный интеллект превратился из области академических исследований в движущую силу технологического прогресса. В основе современных успехов лежат глубокое обучение и масштабируемые вычисления. Однако путь к этим достижениям был непростым и сопровождается важным, но редко правильно понимаемым принципом, называемым «горьким уроком». Этот урок показывает, что в долгосрочной перспективе методы, которые лучше используют возрастание вычислительных мощностей, неизбежно опережают те, что строятся на ручном добавлении человеческих знаний и эвристик. Этот факт имеет далеко идущие последствия для развития искусственного интеллекта и стратегий исследований в этой области.
Хотя многие склонны воспринимать горький урок как призыв отказаться от человеческих знаний и сконцентрироваться исключительно на масштабировании, на самом деле суть лежит глубже и сложнее. Горький урок берет свое начало в анализе истории развития ИИ за последние пятьдесят лет. В сфере, где вычислительные мощности росли экспоненциально, эксперименты показывают, что методы, которые лучше масштабируются с ростом вычислительных ресурсов, в конечном итоге становятся доминирующими. Это происходит даже когда на ранних уровнях развития искусственного интеллекта системы с заложенными экспертными знаниями и алгоритмами дают быстрый и заметный эффект. Примеры из истории, такие как развитие компьютерных игр и систем распознавания, прекрасно иллюстрируют этот процесс.
Рассмотрим исторический пример шахмат. До эпохи Deep Blue, известного суперкомпьютера, победившего мирового чемпиона Гарри Каспарова, шахматные программы в основном опирались на экспертные системы — наборы правил и весов, написанных и настроенных людьми. Для Deep Blue была создана сложная оценочная функция с восьмью тысячами вручную разработанных признаков, которая позволяла эффективно оценивать позиции на доске. Однако решающую роль играл масштаб вычислений и способность выполнять огромные поиски вариантов в игре. Этот подход дал толчок к новому этапу развития ИИ, где масштаб вычислительных ресурсов начал доминировать над фиксированными экспертными методами.
Но в то же время, наиболее ценное и сложное в Deep Blue — это тонкая настройка и подбор экспертизы, которая затрудняет перенос подобных систем на другие задачи. Например, для игры в Го потребовалось совершенно иное решение. Игра в Го долго оставалась испытанием для ИИ, так как традиционные методы, включая экспертные системы и эвристические алгоритмы, не давали значительного прорыва. Ранние боты использовали методы Монте-Карло и специализированные эвристики в сочетании с деревьями поиска, что приносило определённые результаты, но не на уровне лучших игроков-человек. Ключевой перелом произошел с появлением AlphaGo Zero — системы, которая отказалась от человеческих знаний и училась исключительно на опыте игры с собой, используя масштабные вычисления и глубокое обучение для выработки стратегий.
Этот момент ярко иллюстрирует главный посыл горького урока: полноценное масштабирование вычислительных мощностей и обучение на больших данных со временем приводят к прорывам, недостижимым через интеграцию человеческих знаний в традиционном смысле. Следует подчеркнуть, что горький урок вовсе не призывает полностью отказаться от вклада человека или сконцентрироваться лишь на обучении без человеческой интуиции. Наоборот, даже автор концепции горького урока признает важность человеческого фактора и его роль в короткой перспективе. Дело в том, что интеграция экспертных знаний дает быстрый эффект и помогает опередить конкурентов на начальных этапах развития. Однако со временем такие подходы исчерпывают себя, и прогресс достигается только за счет развития методов, которые в состоянии масштабироваться вместе с ростом вычислительных ресурсов.
При этом рост объемов данных и тактовая частота процессоров продолжается, а вот ручной ввод знаний и деталей никогда не сможет идти в ногу с этим развитием. Современные крупномасштабные языковые модели и системы глубокого обучения во многом подтверждают эти наблюдения. Для того чтобы создать качественный языковой ИИ, до недавнего времени активно экспериментировали с использованием сложных правил, специальных словарей и структур знаний. Однако с появлением современных трансформеров и рекордным увеличением вычислительной мощности стало понятно, что использование больших объемов данных и масштабируемых архитектур дает гораздо более эффективные результаты. Это позволило достигать новых высот в понимании и генерации языка, перевыполняя традиционные системы, разработанные на основе человеческой экспертизы.
Стоит отметить, что горький урок имеет не только технические, но и организационные и культурные аспекты. В научных организациях и компаниях, где успех зависит от быстрого достижения конкретных результатов и превышения конкурентов, все ещё наблюдается передержка на смешивании экспертных методик и короткосрочных тактик. В таких условиях трудно принять долгосрочный взгляд, требующий значительных инвестиций в разработку универсальных решений, которые в моменте могут не показать высоких оценок на наиболее популярных бенчмарках. Но именно такой подход, ориентированный на универсальность и масштабируемость, и позволяет действительно делать шаги вперед. Опыт разных сфер искусственного интеллекта подтверждает, что для достижения прорывных результатов необходимо фокусироваться на общей силе системы, учитывая возможности увеличения вычислительных мощностей и данных.
Отказ от узконаправленного ручного проектирования признаков в пользу научно обоснованных, масштабируемых моделей — главный вызов и одновременно шанс для современного ИИ. Еще один важный аспект горького урока связан с перспективами роста вычислений. В отличие от других параметров, таких как объем доступных данных или качество токенов, вычислительные мощности имеют потенциал роста на порядки в обозримом будущем. Это связано с улучшением аппаратного обеспечения, энергоэффективности и масштабируемости инфраструктур. Таким образом, инвестиции и исследования, направленные на максимально эффективное использование вычислительных ресурсов, будут вполне оправданными и принесут наибольший эффект в долгосрочной перспективе.
В итоге горький урок служит ценным ориентиром для исследователей и инженеров в области искусственного интеллекта. Он напоминает, что увязание в краткосрочных успехах, подкрепленных узкоспециализированными знаниями, не стоит воспринимать как итоговый результат. Долгосрочный успех обусловлен умением идти в ногу с возрастанием вычислительных мощностей и созданием архитектур, способных масштабироваться вместе с ними. Это требует терпения, готовности отказаться от привычных методов и принятия более широкого взгляда на динамично развивающуюся отрасль. Подводя итог современной дискуссии вокруг горького урока, можно сказать, что он продолжает оставаться фундаментальной концепцией для понимания эволюции искусственного интеллекта.
Истории успеха Deep Blue и AlphaGo Zero, а также современные достижения языковых моделей и систем глубокого обучения только подтверждают, что будущее принадлежит методам, которые лучше используют масштабируемость, а не жестко запрограммированным человеческим знаниям. Именно на основе этого понимания строятся стратегии развития новых ИИ-систем, которые способны решать более сложные задачи и выходить за пределы нынешних возможностей. Горький урок, несмотря на свою едкость и непростоту освоения, является притчей о том, как технология неизбежно движется вперед, опираясь на силу вычислений и отказ от узконаправленных ограничений прошлого.