MI450 на горизонте: как меняется расклад сил в AI-«железе»

В центре внимания — переход NVIDIA к семейству ускорителей Rubin с поддержкой HBM4. На кону не только пропускная способность, но и скорость вывода продуктов на рынок ИИ. По инсайдам, компания добивается от вендоров «ускоренной» спецификации — до 10 Гбит/с на контакт, чтобы сохранить отрыв на фоне ожидаемых AMD Instinct нового поколения. Почему именно память решает? В рабочих нагрузках LLM и мультимодальных моделей узким местом часто становится не математика тензорных блоков, а доступ к параметрам: чем выше реальная полоса HBM и эффективная ёмкость стека, тем меньше «пробок» в графе вычислений и выше утилизация. Разбираем роли игроков. SK hynix входит в старт с сильными позициями — у компании лучший наработанный опыт в HBM3E, и это может конвертироваться в ранние поставки HBM4. Samsung ставит на агрессивный техпроцесс базового кристалла и заявляет готовность к скоростям «десятки», что даёт шанс перехватить объёмы в среднесрочной перспективе. Micron наращивает компетенции и может закрыть часть линейки, если сертификация пройдёт гладко. Для самой NVIDIA сценариев несколько: тонкая сегментация SKU Rubin под возможности конкретных стэков, двухэтапная сертификация HBM4, а при дефиците — сохранение части ассортимента на более «скромных» скоростях. Что это значит для рынка? Сроки поставок AI-серверов будут напрямую зависеть от доступности быстрых стэков HBM4 и выхода плат в серийное окно. Заказчикам стоит закладывать гибкость: варианты конфигураций, микс ускорителей в парке и внимательное чтение спецификаций памяти — именно они определят реальный перформанс под ваши модели и датасеты.
Back to Top