В последние годы искусственный интеллект (ИИ) и машинное обучение стали одними из самых перспективных и быстрых в развитии направлений в IT-индустрии. Появились специализированные аппаратные решения, призванные повысить производительность вычислений, важнейшим из которых остаются графические процессоры (GPU). Большинство пользователей привыкли ассоциировать GPU для задач ИИ с продукцией NVIDIA, но всё чаще появляется интерес к альтернативам, в том числе и к графическим процессорам от AMD. Рассмотрим, насколько оправдано использование GPU AMD для ИИ-нагрузок, с какими трудностями сталкиваются пользователи и какие перспективы открываются в будущем. AMD долгое время оставалась в тени NVIDIA в контексте ИИ-вычислений, особенно когда речь шла о крупных нейросетевых моделях и глубоких обучающих процессах.
Это связано не только с техническими характеристиками видеокарт, но и с экосистемой программного обеспечения, а также наличием готовых и комфортных инструментов для ускорения работы с нейросетями. Однако ситуация медленно, но верно меняется: AMD выпустила серию графических процессоров MI300X, которые позиционируются как конкурентоспособные по стоимости и производительности. В частности, MI300X стоит заметно дешевле, чем аналоги от NVIDIA, такие как H100. Многие пользователи, стремящиеся снизить издержки при обучении и инференсе больших языковых моделей (LLM), решают арендовать или покупать именно AMD. Ценовое преимущество — это далеко не единственный плюс.
Согласно отзывам некоторых пользователей, например, technoabsurdist из Hacker News, опыт работы с MI300X оказывается куда более гладким, чем можно было ожидать исходя из широко распространённой критики AMD. В частности, современные версии ROCm (AMD-технология для запуска вычислений на GPU, альтернатива CUDA от NVIDIA) достигли уровня 6.x и показывают приличное качество работы «из коробки». Это означает, что установка и настройка по-прежнему требуют усилий, но они стали значительно проще и стабильнее по сравнению с более старыми версиями. Тем не менее, есть и нюансы.
Есть определенные трудности с запуском инференса на LLM с использованием видеокарт AMD. К примеру, для запуска vLLM (популярного легковесного движка инференса) на AMD приходится устанавливать программу из исходников, что может потребовать дополнительных технических знаний и времени. По отзывам пользователей, интерфейс для мониторинга видеокарт не такой удобный, как у NVIDIA. В то время как nvidia-smi прописывает данные понятно и лаконично, rocm-smi выдает длинные и сложные логи, которые трудно быстро проанализировать, что несколько осложняет повседневную работу. Некоторые владельцы старых моделей видеокарт AMD, таких как MI25, сталкиваются с еще более серьезными проблемами совместимости.
Как рассказывает пользователь dlcarrier, работающий с MI25, для задействования данной карты приходится использовать устаревшую версию ROCm, так как новые версии не поддерживают устаревшее железо. В результате приходится внимательно подбирать версии операций интерпретатора и библиотек для нейросетей, что часто негативным образом сказывается на стабильности и удобстве работы. Это связано с тем, что поддержка устаревших архитектур в драйверах и ПО зачастую прекращается, а новые релизы ориентированы на современные GPU. Вдобавок многие отмечают, что программное обеспечение для AMD GPU в экосистеме Python и Node.js находится на ранних стадиях развития.
В то время как код на компилируемых языках кажется более устойчивым и проработанным, библиотеки и инструменты для более высокоуровневых языков программирования часто выходят с функционалом, который можно назвать «рабочим, но сырым». Это отражается в ограниченной совместимости, более частых багах и необходимости глубокого погружения для решения возникающих проблем. Если сравнивать производительность AMD GPU с их конкурентами NVIDIA, то следует учитывать множество факторов. Для новичков и начинающих разработчиков комфортная среда и готовые решения, доступные у NVIDIA, могут оказаться решающими. Они экономят время на настройку и обращения с багами.
Однако в задачах, где важно соотношение цена-производительность, AMD GPUs выглядят очень привлекательно, особенно когда речь идет о крупных масштабах вычислений, где 20% экономии может значить сотни и тысячи долларов. Стоит отметить и быстрое развитие ROCm, которое постепенно сокращает отрыв в удобстве и функционале. Новые релизы содержат улучшения в интерфейсах, драйверах и, что важнее, поддерживают все более широкий набор нейросетевых библиотек. В будущем это может стать основой для более масштабного проникновения AMD в сферу искусственного интеллекта, где сейчас доминируют NVIDIA и её CUDA-экосистема. Тем не менее для современного ИИ-специалиста, выбирающего между двумя платформами, нужно тщательно взвесить свои задачи и возможности.
Если надо максимально быстро и просто запустить проект с минимальными усилиями на настройку и отладку, то NVIDIA окажется предпочтительнее. Но если бюджет ограничен и готовы тратить время на оптимизацию, то AMD предоставляет интересное и перспективное решение. Подводя итог, можно сказать, что использование AMD GPU в задачах искусственного интеллекта — это уже не экспериментальное и редкое явление, а вполне жизнеспособный вариант с растущим сообществом и постоянно улучшающейся поддержкой. Опыт пользователей показывает, что хоть работа с AMD требует больше технических навыков и готовности решать специфические проблемы, она оборачивается заметной экономией и перспективами на будущее. С появлением новых моделей видеокарт и развитием программного обеспечения можно ожидать дальнейшего сближения AMD с лидерами рынка и возникновения более здоровой конкуренции в вычислительной индустрии для AI.
В конечном итоге выбор зависит от конкретных условий, приоритетов и цели пользователя. Для тех, кто стремится к балансу между стоимостью и производительностью и готов инвестировать время в изучение нюансов работы с ROCm и специализированным ПО, AMD станет достойным инструментом для развития своих AI-проектов.