SK hynix запустила массовый выпуск памяти SOCAMM2 для Nvidia Vera Rubin

SK hynix начала массовый выпуск 192-ГБ модуля SOCAMM2 для серверов искусственного интеллекта. Главный адресат здесь вовсе не абстрактный «рынок AI», а платформа Nvidia Vera Rubin, под которую компании всё чаще подгоняют память, питание и тепловой режим, как под капризного премьер-исполнителя.
Модуль построен на шестом поколении 10-нанометровой LPDDR5X DRAM и, по словам производителя, должен заменить привычный серверный подход там, где узким местом становится не только вычислительная мощность, но и сама память. Для индустрии это типичный сюжет последних лет: графические ускорители дорожают и жиреют, а узким горлышком внезапно оказывается то, что раньше считалось второстепенным.
Характеристики SOCAMM2
SK hynix утверждает, что SOCAMM2 даёт более чем двукратный прирост пропускной способности и свыше 75% экономии энергии по сравнению с обычными RDIMM. Если цифры подтвердятся в реальных системах, это будет не косметическая апгрейд-галочка, а довольно практичный способ снять часть нагрузки с серверов, где каждый лишний ватт и каждый лишний цикл памяти превращаются в деньги.
- ёмкость — 192 ГБ;
- память — LPDDR5X DRAM шестого поколения;
- прирост пропускной способности — более чем в 2 раза по сравнению с RDIMM;
- экономия энергии — свыше 75% по сравнению с RDIMM.
Переход от мобильной LPDDR5X к серверному сценарию звучит как инженерная гимнастика, но именно такие гибридные решения и становятся нормой для AI-инфраструктуры. Обычная серверная память исторически заточена под стабильность, а не под тот бешеный темп, с которым сейчас гоняют большие языковые модели с сотнями миллиардов параметров.
Зачем Nvidia Vera Rubin нужна новая память
Компания прямо связывает запуск с попыткой убрать память как бутылочное горлышко в обучении и инференсе больших моделей. Это и есть реальный смысл новости: Nvidia строит следующую платформу, а SK hynix заранее встраивается в её экосистему, чтобы потом не догонять, а продавать вместе с железом, которое всё равно придётся закупать.
У SK hynix уже есть формула, которая нравится рынку: меньше энергопотребление, выше плотность, больше пропускная способность. В сегменте AI-серверов этого обычно достаточно, чтобы получить заказ, потому что там никто не читает маркетинговые брошюры. Там считают затраты на стойку, охлаждение и простои.
Позиция SK hynix в AI-инфраструктуре
Президент и глава направления AI-инфраструктуры Ким Джу-сонн назвал SOCAMM2 новым стандартом производительности для AI-памяти. Формулировка, как водится, щедро пахнет пиаром, но за ней читается знакомая гонка корейских и американских чипмейкеров за место в цепочке поставок для следующего поколения серверов.
Если Nvidia Vera Rubin действительно станет массовой платформой, выиграют не только те, кто делает ускорители. Память, которая раньше считалась вспомогательной деталью, снова становится политически важной для всей архитектуры AI-сервера, а SK hynix явно рассчитывает забрать из этого побольше.



