В последние годы глубокое обучение и технологии искусственного интеллекта стали синонимом технологической революции. Появление таких достижений, как AlphaGo, вызвало огромный энтузиазм и ожидания появления «универсального интеллекта», способного решать широкий спектр сложнейших задач. Многие компании и эксперты заявляли о скором наступлении эпохи полностью автономных автомобилей и других кардинальных прорывов. Тем не менее, к середине 2018 года первые признаки «зимы» в области искусственного интеллекта стали все более заметны, а оптимизм уступил место скепсису и критическому анализу текущих результатов. Глубокое обучение — действительно ли это серебряная пуля? В начале 2010-х глубокое обучение переживало период стремительного развития и триумфов.
Решение ImageNet вызвало настоящий ажиотаж в сообществе исследователей и заставило многих поверить, что мы достигли нового этапа в понимании и построении интеллектуальных систем. Однако важно отметить, что решение одной задачи в области компьютерного зрения не означает решения фундаментальных проблем понимания и восприятия окружающего мира искусственным интеллектом. Постепенно стало очевидно, что многие проблемы остаются нерешёнными и требуют гораздо более глубоких исследований. Активность лидеров мнений в области искусственного интеллекта отражает изменение настроений в сообществе. Если в период с 2013 по 2016 годы такие специалисты, как Эндрю Ын и Янн Лекун, регулярно публиковали позитивные прогнозы и новые прорывы, то к 2018 году их активность в социальных сетях снизилась, а заявления стали более сдержанными.
Это свидетельствует о том, что глубокое обучение столкнулось с определённым «потолком» и перестало быть универсальным решением для всех задач. Лимиты масштабируемости глубокого обучения Одним из ключевых постулатов глубокого обучения было утверждение, что с ростом вычислительных мощностей и объёма данных системы будут становиться всё лучше. На практике оказалось, что это не так просто. Увеличение количества параметров модели в сотни и тысячи раз не приводило к пропорциональному улучшению результатов. Имеющиеся архитектуры, такие как AlexNet, VGG и ResNet, постепенно достигли плато в совершенствовании точности и эффективности.
Это подтверждает исследование OpenAI, которое показывает, что рост вычислительных ресурсов приводит к постепенным эволюционным улучшениям, а не к прорывам. Особенно ярко это проявляется в области компьютерного зрения и машинного перевода, где даже несмотря на значительные ресурсы, качество работы систем оставляет желать лучшего. Стимулирование дальнейшего масштабирования требует не просто увеличения вычислительной мощности, но и принципиально новых архитектур и подходов к обучению. Проблемы автономного вождения и реальный вызов для ИИ Одной из областей, где ожидания от искусственного интеллекта были особенно высоки, стал сегмент автономных транспортных средств. Компании, такие как Tesla и Uber, обещали в ближайшем будущем полностью автономные автомобили и массовую революцию в транспортной отрасли.
Однако практика показала, что ситуация гораздо сложнее. Множество инцидентов с автономными автомобилями, включая смертельное ДТП с участием Uber в Аризоне, продемонстрировали существенные недостатки в текущих системах восприятия и принятия решений. Отчёты подтверждают, что ИИ-программы часто «застревают» на этапе анализа и категоризации объектов, не принимая своевременных мер для предотвращения аварийных ситуаций. Это отличие от человеческой реакции, которая опирается не только на осознанное восприятие, но и на быстрые рефлексы, сформировавшиеся в ходе эволюции. Анализ ситуации с Tesla показал, что даже передовые автопилоты неспособны качественно выполнять базовые задачи, например, распознавание дорожных знаков, остановку на светофорах или прохождение кругового движения без вмешательства человека.
Неудача с выполнением «путешествия через всю страну» с минимальным количеством отключений стала свидетельством того, что реальная автономность пока недостижима с использованием технологий глубокого обучения в существующем виде. Критика и необходимость нового подхода Заметным критиком однобокого подхода к развитию ИИ стал Гэри Маркус, который открыто выступает против чрезмерного оптимизма относительно возможностей глубокого обучения. В его работах подчёркивается важность сочетания различных методов, в том числе символического ИИ и более продвинутых моделей обучения, способных интегрировать знания и логику. Подобные замечания становятся всё более актуальными в свете недостаточной универсальности и неспособности текущих моделей к настоящему пониманию и моделированию мира. На смену простому масштабированию, которое оказывается неэффективным, приходит необходимость разработки новых архитектур, таких как Предсказательная Визуальная Модель (Predictive Vision Model), способная не только восстанавливать сенсоры, но и строить прогнозы окружающей среды, тем самым приближаясь к полноценному восприятию.
Будущее искусственного интеллекта и размер AI зимы Определить точные сроки наступления «AI зимы» сложно, сравнимо с предсказанием финансовых кризисов. Однако на сегодня существует множество признаков замедления и пересмотра ожиданий от искусственного интеллекта, особенно в области глубокого обучения. Корпоративный интерес к некоторым направлениям снижается, а исследовательские группы всё чаще получают финансирование от государства, что меняет динамику развития индустрии. Несмотря на скептицизм, важно понимать, что период «зимы» традиционно служит временем переосмысления методов и поиска новых парадигм. Именно в такие моменты рождаются прорывные идеи и фундаментальные изменения, которые открывают новые пути и горизонты развития.