- PVSM.RU - https://www.pvsm.ru -
Каждый месяц мы публиковали дайджесты [1] с обзорами новинок серверного железа — от процессоров до систем хранения. И настало время подвести итоги и выделить, какие компоненты действительно задали вектор развития индустрии.
Привет! Меня зовут Сергей Ковалёв, я менеджер выделенных серверов в Selectel [2]. В этой статье я собрал самые интересные видеокарты, процессоры, диски и другие технологии за 2025 год. Подробности под катом!
В 2025 году появлялись архитектурные и технические решения, созданные исключительно для AI-нагрузок. От дисков до систем охлаждения — все теперь с приставкой «AI». Даже чехлы для ноутбуков, кажется, скоро будут с ней.
Возможность массового внедрения AI в инфраструктуру появилась не только из-за роста вычислительной мощности, но и open source-моделей. Они по-настоящему открыли доступ к мощным AI-технологиям для компаний любого масштаба.
Больше не нужно тратить значительные средства на обучение моделей с нуля, если вы не крупный игрок, создающий фундаментальные модели. Для большинства компаний достаточно файнтюнинга и инференса на открытых базовых моделях. Но куда без видеокарт? Именно они и открывают этот дайджест!
Конечно, это бренд NVIDIA с его флагманской GPU B300, которая продолжает развитие архитектуры Blackwell. Характеристики впечатляют.
Объем видеопамяти увеличен до 288 ГБ, что позволяет размещать и обрабатывать модели большего размера на одном ускорителе или в кластере.
Пропускная способность памяти достигает 4,1 ТБ/с, что критично для обучения и инференса современных LLM.
По заявлениям вендора, прирост производительности по сравнению с предыдущим поколением B200 составляет 1,5–2 раза в зависимости от сценария нагрузки.
Как и в предыдущих поколениях, B300 не всегда используется в одиночку. Один из сценариев — объединение ускорителей в крупные вычислительные кластеры для распределенного обучения и инференса.
Характерный пример — GB300 NVL72, система из 72 GPU B300, работающих как единый вычислительный комплекс для обучения гигантских моделей.
Также хочу отметить представленную [5] весной новинку NVIDIA RTX Pro 6000 Blackwell Server Edition. Карта отлично подходит для инференса и демонстрирует высокую производительность за рубль. Не побоюсь сказать, что NVIDIA RTX Pro 6000 Server Edition стала одним из самых универсальным серверных GPU 2025 года.
В первую очередь, RTX Pro 6000 Server Edition ориентирована на задачи инференса и дообучения AI-моделей. И уже после — на профессиональную визуализацию и рендеринг, CAD/CAE, цифровых двойников и симуляции, VDI и GPU-виртуализации.
Ключевые особенности
96 ГБ GDDR6 с ECC — заметный шаг вперед по сравнению с предыдущими поколениями RTX, позволяющий комфортно работать с крупными сценами и моделями.
Архитектура Blackwell, унаследовавшая ключевые оптимизации под AI-нагрузки и высокую производительность.
Полноценная поддержка MIG и vGPU, что делает карту удобной для мультиарендных сред и облачных платформ, а также позволяет «разделить» устройство на четыре виртуальных ускорителя.
Отдельно стоит отметить позиционирование продукта. RTX Pro 6000 Server Edition — это не «обрезанный» вариант ускорителей для дата-центров и не просто серверная версия workstation-карты. Это осознанный ответ NVIDIA на запрос рынка: одна GPU — множество сценариев, без необходимости держать разные типы ускорителей под каждую задачу.
AMD также хотят занять и отчасти занимают свой сегмент флагманских GPU. В 2025 году они анонсировали [7] ускорители AMD MI350X и MI355X, которые считаются конкурентом флагманских систем от NVIDIA, в частности — B300.
Память: 288 ГБ HBM3E, до 8 ТБ/с пропускной способности.
Архитектура: CDNA 4, поддержка FP4 / FP6 / FP8 / FP16.
Форм-фактор: OAM, поддержка платформ с восемью ускорителями.
AMD разделяет линейку на два сценария.
MI350X — универсальный флагман для обучения и инференса.
MI355X — более «агрессивная» версия, ориентированная на максимальную производительность в dense-вычислениях и масштабируемых кластерах.
Наблюдаем также за прогрессом экосистемы ROCm. Если еще несколько лет назад это был главный сдерживающий фактор AMD в AI-сегменте, то в 2025 году ситуация заметно изменилась: появились стабильная поддержка PyTorch и TensorFlow, оптимизация под LLM и инференс-нагрузки, а также — активное развитие open-source-инструментов.
ROCm все еще уступает CUDA по зрелости и количеству готовых решений «из коробки», но разрыв стремительно сокращается — особенно в корпоративных и research-сценариях, где важна гибкость и контроль над стеком.

Снижаем цены на выделенные серверы в реальном времени
Успейте арендовать со скидкой до 35%, пока лот не ушел другому.
Подробнее → [9]
В сентябре 2025 года NVIDIA опубликовали новости, которые могут задать новый тренд на рынке GPU — конец универсальных ускорителей. Первая ласточка — отдельные чипы под разные этапы инференса LLM.

Современный инференс состоит из двух фаз.
Prefill — максимум вычислений, минимум памяти.
Decode — минимум вычислений, максимум памяти.
Раньше оба этапа выполнялись на одном GPU, из-за чего часть ресурсов всегда простаивала — это дорого и неэффективно.
Новый подход NVIDIA
GPU — для Prefill: максимум FLOPS, более дешевая память.
GPU — для Decode: максимум HBM и пропускной способности.
Согласно Roadmap NVIDIA 2026–2027, серия Rubin разделяется на несколько моделей:
CPX — для Prefill (вычисления);
VR200 — для Decode (память);
VR300 Ultra — до 66,7 PFLOPS и 1 ТБ HBM4E.
NVIDIA перестраивает линейки так, чтобы каждая GPU работала максимально эффективно под свою задачу. Универсальные ускорители уходят — начинается эпоха специализированных GPU для инференса.
Intel также следует новому тренду, анонсируя [10] Crescent Island — GPU для дата-центров, изначально заточенный под AI-инференс, а не под универсальные задачи. Только инференс — без попыток быть решением «для всего».

Ускоритель рассчитан на воздушное охлаждение, оснащен 160 ГБ LPDDR5X и ориентирован на построение сервисов формата tokens-as-a-service. Можно сказать, что Crescent Island — это стратегическая попытка Intel занять нишу доступных инференс-ускорителей. Большая дешевая память и минимальные требования к инфраструктуре.
NextSilicon сделала следующий шаг и фактически переписала [11] саму архитектуру ускорителей. Представлены планы на Maverick-2 — это уже не CPU или GPU в классическом смысле, а DataFlow-ускоритель, который динамически перестраивает вычисления прямо во время выполнения.
Вместо фиксированных ядер — массив реконфигурируемых ALU, которые автоматически собираются в оптимальную топологию под конкретную нагрузку. Чип сам находит «горячие места», дублирует операции, меняет режимы вычислений и убирает узкие места — без переписывания кода.
Идея проста: нужно получить производительность уровня ASIC, но сохранить универсальность GPU. Если тренд NVIDIA и Intel — это специализация, то подход NextSilicon — фундаментальный пересмотр того, как вообще должны выглядеть ускорители.
Еще одно массовое явление 2025 года — китайские GPU:
Свои модели представляли Baidu, Huawei и Innosilicon.
Baidu Kunlun [11] M100 и M300
Huawei Atlas [10] 300I Duo
Innosilicon Fenghua [13] 3
Huawei Ascend [14] 910D, Ascend 920 и 920C
Очевидно, что китайские производители железа снижают зависимость от ключевых вендоров и стараются насытить внутренний рынок.
Несмотря на популярность GPU, процессор остается ключевым элементом серверной архитектуры. Именно вокруг CPU формируется платформа: тип и частоты памяти, количество линий PCIe, поддерживаемые ускорители, сетевые карты и накопители. Особенно это заметно в AI-инфраструктуре, где CPU отвечает за оркестрацию, подготовку данных и эффективную загрузку GPU.
Напомню, что в 2024 году вышло новое поколение Intel Xeon 6700E / 6900E на сокетах LGA4710 и LGA7529 соответственно. Формально оно пришло на смену Intel Xeon Scalable 5Gen, но не стало полноценной заменой: линейка E была ориентирована в первую очередь на многопоточные и энергоэффективные нагрузки и не поддерживала Hyper-Threading и AVX-512.
В 2025 году Intel усилил свои позиции в топовом сегменте, представив [15] Intel Xeon 6700P / 6900P на тех же сокетах.

Ключевые особенности линейки
Возвращение Hyper-Threading, которое сразу улучшило производительность в смешанных и виртуализированных нагрузках.
До 128 производительных P-ядер в старших моделях 6900P.
Поддержка многосокетных конфигураций — до восьми сокетов и 688 ядер в одном сервере.
Поддержка DDR5 с высокими частотами и большим объемом памяти на сокет.
Большое количество линий PCIe Gen5 (до 136), что критично для серверов с 4–8 GPU.
Мы провели тесты [16] и определили сильные и слабые стороны каждой линейки.
P-ядра фактически не имеют альтернатив в задачах ML и HPC, где важны высокая производительность на ядро и поддержка векторных инструкций.
E-ядра, в свою очередь, показывают отличные результаты в работе с базами данных и сильно параллельными нагрузками, обеспечивая высокую плотность вычислений при хорошей энергоэффективности.

Таким образом, Intel постарался максимально полно закрыть весь спектр пользовательских сценариев — от AI и HPC до классических корпоративных задач.
Однако с точки зрения экономической эффективности в системах с требованием к большому числу ядер в пересчете на одно ядро более выгодными по-прежнему остаются решения AMD.
Не осталась в стороне и младшая линейка Xeon E-6300, ориентированная на компактные серверы начального уровня. Впрочем, изменения здесь носят скорее косметический характер и во многом сводятся к ребрендингу линейки Intel Xeon E-2400: сокет остался прежним, а характеристики процессоров изменились незначительно.
«Красные» анонсировали свой флагманский сегмент еще в конце 2024 года, поэтому формально он не попадает в рамки данного дайджеста. Однако в 2025 году AMD представила младшую серверную линейку — AMD EPYC 4005 (Grado), на которую стоит обратить внимание.

Ключевые характеристики
Архитектура: до 16 ядер Zen 5 с поддержкой SMT и AVX-512.
Кэш-подсистема: 1 МБ L2 на ядро, до 128 МБ L3, включая версии с 3D V-Cache.
Память: двухканальный контроллер DDR5-5600 ECC, до 192 ГБ.
Совместимость: платформа AM5 (LGA1718), идентичная потребительским Ryzen.
Для сравнения: в аналогичной линейке Intel Xeon 6300 топовые модели предлагают вдвое меньше ядер, а совокупное соотношение производительности и цены в большинстве сценариев складывается однозначно в пользу AMD.
Также AMD обновляли в 2025 году и линейку Threadripper, предназначенную для рабочих станций.
Такие процессоры также могут использоваться в серверных платформах. На фоне конкурентов Intel Xeon W линейка AMD Threadripper PRO 9000 WX также лидирует по числу ядер, частотам и объему кэша.
На мой взгляд, самый крупный игрок в серверном сегменте процессоров на архитектуре ARM — это Ampere. И они тоже демонстрировали [18] новинки в 2025 году.
Это ARM-процессоры серии AmpereOne M. По заявлению производителя, они созданы в том числе для задач инференса и работы с LLM. Ampere задумывал это решение в качестве более экономичной альтернативы GPU, особенно в системах высокой плотности.

Основные характеристики
Ядра: от 96 до 192 64-битных ARM v8.6+, с кэшем L1 16/64 КБ и 2 МБ L2 на ядро.
Память: до 3 ТБ DDR5-5600 через 12 каналов.
Интерфейсы: 96 линий PCIe 5.0, поддержка до 24 дискретных устройств.
Производительность: частота 2,6–3,6 ГГц, TDP 239–348 Вт, высокая однопоточная эффективность .
Таким образом, при нижнем TDP по сравнению с x86 достигается сопоставимая производительность с меньшими требованиями к охлаждению серверов. Главное ограничение по-прежнему — наличие необходимого программного обеспечения и технологического стека для работы с сервисами.
Solidigm, дочерняя компания SK hynix, представила [5] весной 2025 года SSD с жидкостным охлаждением. Решение устраняет необходимость в вентиляторах, освобождая место для GPU-ускорителей и снижая энергопотребление. Ключевая особенность — cold plate с двусторонним контактом, обеспечивающий эффективный теплоотвод при сохранении возможности горячей замены.
Ключевым элементом стал накопитель D7 PS110 E1.S (9,5 мм) с интегрированным СЖО.
Форм-фактор: E1.S, толщина 9,5 и 15 мм.
Интерфейс: PCIe 5.0 x4 (NVMe).
Емкости: 3,84 и 7,68 ТБ.
Скорость: до 14,5 ГБ/с на чтение и до 10,5 ГБ/с на запись.
В отличие от классических DLC-решений, охлаждающих только одну сторону SSD, подход Solidigm снижает риск троттлинга и упрощает сверхплотную компоновку серверов. Компания уже работает над интеграцией в AI-инфраструктуру, включая платформы NVIDIA HGX B300.
В результате D7-PS1010 — практичный шаг к полностью жидкостно охлаждаемым дата-центрам, где ограничения по теплу становятся ключевым фактором масштабирования.
Kioxia расширила линейку LC9 и показали [21] предположительно первый в мире NVMe SSD-накопитель с объемом 245,76 ТБ в форм-факторах 2.5" и EDSFF E3.L. Накопитель работает по PCIe 5.0 / NVMe 2.0 и ориентирован на высокопроизводительные среды генеративного ИИ.
Характеристики и технологии
BiCS FLASH™ QLC 3D (32-слойный стек, 2 Тбит) с CBA (CMOS Bonded to Array).
Рекордные 8 ТБ в 154 BGA-пакете — впервые в отрасли.
Поддержка OCP Datacenter NVMe SSD v2.5 и FDP (WAF ≈ 1,1).
Защита данных: SIE, SED, FIPS SED, квантово-стойкая подпись LMS (CNSA 2.0).
Форм-факторы и емкость
245,76 ТБ — 2.5", E3.L
122,88 ТБ — 2.5", E3.S
Таким образом, новые SSD Kioxia обеспечивают сверхплотное размещение. Это один из самых заметных за год шагов в сторону масштабируемых хранилищ для общих задач и, конечно, связанных с AI.
Компания Broadcom в 2025 году объявила [7] о начале поставок Tomahawk 6 (BCM78910) — флагманского чипа для Ethernet-коммутаторов с рекордной пропускной способностью 102,4 Тбит/с, что вдвое превосходит показатели предыдущих поколений. Решение ориентировано на инфраструктуру hyperscale-класса и задачи AI: MoE, reinforcement learning, инференс и дообучение моделей.
Ключевые характеристики
Интерфейсы: 100G и 200G PAM4 SerDes, включая варианты с интегрированной оптикой.
Плотность портов: 64×1,6TbE / 128×800GbE, 256×400GbE / 512×200GbE, до 1 024×100GbE.
ИИ-оптимизация и маршрутизация
Cognitive Routing 2.0 (интеллектуальная маршрутизация).
Автоматический обход перегрузок.
Адаптивная балансировка трафика.
Расширенная телеметрия и управление перегрузками.
Поддержка топологий Clos, tor и Broadcom SUE.
Масштабирование
До 1 млн XPU в кластерной архитектуре.
Scale-up: до 512 XPU внутри одного кластера.
Scale-out: >100 тыс XPU 200GbE за счет добавления новых узлов.
Итого, Tomahawk 6 стал одной из самых значимых сетевых новинок года — платформой нового поколения для гипермасштабируемых AI-сетей, которая объединяет ультраплотную коммутацию и интеллектуальную маршрутизацию. Можно сказать, чип от Broadcom претендует на статус одного из ключевых элементов будущей AI-инфраструктуры при построение сетей.

В 2025 году консорциум CXL представил спецификацию CXL 4.0, которая сделала очередной шаг к масштабируемой памяти для HPC-систем. Новый стандарт ориентирован на такие нагрузки, где узким местом становится не вычисление, а доступ к памяти и данным.
Ключевые особенности CXL 4.0
Кратный рост пропускной способности по сравнению с CXL 3.x.
Поддержка крупномасштабных memory pooling (объединения) и memory sharing (разделения) между CPU, GPU и XPU.
Улучшенная когерентность памяти для распределенных AI-нагрузок.
Повышенная масштабируемость фабрик CXL для дата-центров гиперскейлеров.
Решение подходит для обучения и инференса больших LLM, построения composable-инфраструктуры, где вычислительные ресурсы отделены друг от друга и могут динамически комбинироваться под конкретную задачу. А также помогает устранить дефицит HBM и DRAM за счет внешних CXL-пулов.
CXL 4.0 может закрепить переход от «памяти при процессоре» к памяти как общему ресурсу дата-центра. Тем самым — став фундаментом для AI-систем следующего десятилетия.

В 2025 году был официально представлен стандарт PCI Express 6.0 (PCIe 6.0) — следующая эволюция интерфейса для подключения ускорителей, SSD и сетевых адаптеров.
Ключевые особенности
Новая физическая слойная архитектура с PAM4‑модуляцией для удвоения пропускной способности.
Пропускная способность до 64 GT/s на линию, что вдвое выше PCIe 5.0.
Улучшенные механизмы коррекции ошибок (FEC) и low latency FLIT‑пейджинг.
Обратная совместимость с предыдущими версиями PCIe.
Повышенная энергоэффективность и устойчивость к интерференциям на высоких скоростях.
Решение подходит для построения сверхскоростных NVMe‑хранилищ, работы с GPU/XPU‑ускорителями для AI‑обучения и инференса, разработки высокоскоростных сетевых адаптеров (200/400/800GbE и выше), composable‑инфраструктуры и памяти CXL‑класса.
PCIe 6.0 закладывает основу для следующего поколения вычислительных платформ, обеспечивая гигантскую пропускную способность для интенсивных рабочих нагрузок AI‑центров и гипермасштабируемых дата‑центров.
Alloy Enterprises представила [11] монолитные модули прямого жидкостного охлаждения (DLC) для периферийных компонентов серверов: памяти, сетевых и оптических модулей. Решение закрывает растущий разрыв между охлаждением GPU и остальной части серверов в AI- и HPC-системах нового поколения.
Ключевые характеристики
Тип охлаждения: прямое жидкостное (DLC).
Конструкция: монолитная Stack Forging.
Охлаждение: поддержка двустороннего DIMM, охлаждение модулей памяти >40 Вт (следующее поколение JEDEC).
Поддержка: горячая замена без слива жидкости.
Функциональное назначение: равномерный теплоотвод и усиление жесткости сетевых адаптеров.
Итого, при росте мощности стоек до 600 кВт, где на периферию может приходиться до 100 кВт тепла, прямое жидкостное охлаждение становится не опцией, а необходимостью. Решения Alloy Enterprises — один из показательных шагов к новой тепловой архитектуре дата-центров.
2025 год подтвердил, что железо все больше создается под конкретные задачи AI и вычислений. GPU уходят от универсальности: NVIDIA разделяет линейки под Prefill и Decode, Intel выпускает инференс-ориентированный Crescent Island, а NextSilicon экспериментирует с динамическими dataflow-ускорителями.
Кроме того, Intel расширяет линейку Xeon своими 6700P/6900P, чем также «затачивает» модели CPU под разные задачи, а Ampere демонстрирует ARM-процессоры для инференса без использования GPU.
Глобально GPU стали главным полем для экспериментов: NVIDIA объявила планы по разделению будущих линеек под различные задачи инференса, а Intel поддержали тенденцию и пошли по пути инференс-ориентированных решений с Crescent Island. NextSilicon предлагает радикально иной подход с динамическими DataFlow-архитектурами. Параллельно формируется альтернативная экосистема от AMD — с заметно повзрослевшим ROCm до китайских GPU, решающих задачу технологического суверенитета.
При этом CPU сохраняют роль «каркаса» всей платформы. Так, Intel вернула Hyper-Threading и AVX-512 в старшие Xeon P, разделив линейки E и P под разные сценарии. Ampere же демонстрирует, что ARM все еще может быть жизнеспособной альтернативой x86.
Хранилища и сети развиваются в том же ключе: SSD выходят на сотни терабайт и переходят к жидкостному охлаждению, а сетевые чипы вроде Broadcom Tomahawk 6 становятся не просто «коммутаторами», а интеллектуальными системами управления AI-трафиком. При этом стандарты вроде CXL 4.0 и PCIe 6.0 закладывают фундамент для распределенных инфраструктур, где память, вычисления и ускорители перестают быть жестко привязанными друг к другу.
Продолжим вести наблюдения — и уже в начале нового года изучим новинки на выставке CES 2026.
Автор: skovalev
Источник [24]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/zhelezo/441250
Ссылки в тексте:
[1] дайджесты: https://habr.com/ru/users/skovalev/articles/
[2] выделенных серверов в Selectel: https://selectel.ru/services/dedicated/?utm_source=habr.com&utm_medium=referral&utm_campaign=dedicated_article_hardwaredigest_080126_banner_content
[3] Источник: https://www.nvidia.com/en-us/data-center/dgx-b300/
[4] Источник: https://blogs.nvidia.com/blog/rtx-pro-6000-blackwell-server-edition/
[5] представленную: https://habr.com/ru/companies/selectel/articles/899912/
[6] Источник: https://www.amd.com/en.html
[7] анонсировали: https://habr.com/ru/companies/selectel/articles/928890/
[8] Источник: https://www.computerbase.de/news/grafikkarten/amd-instinct-mi350-serie-288-gbyte-hbm3e-cdna-4-architektur-und-bis-zu-1-400-watt.93076/
[9] Подробнее →: https://selectel.ru/services/dedicated/auction/?utm_source=habr.com&utm_medium=referral&utm_campaign=dedicated_article_hardwaredigest_080126_banner_i099_ord
[10] анонсируя: https://habr.com/ru/companies/selectel/articles/966692/#2
[11] переписала: https://habr.com/ru/companies/selectel/articles/976300/
[12] Источник: https://www.computerbase.de/news/grafikkarten/huawei-atlas-300i-duo-96gb-das-steckt-im-dual-gpu-ai-beschleuniger-aus-china.94730/
[13] Fenghua: https://habr.com/ru/companies/selectel/articles/957400/
[14] Ascend: https://habr.com/ru/companies/selectel/articles/911702/#2
[15] представив: https://habr.com/ru/companies/selectel/articles/890008/
[16] тесты: https://habr.com/ru/companies/selectel/articles/970218/
[17] Источник: https://amperecomputing.com/
[18] демонстрировали: https://habr.com/ru/companies/selectel/articles/918656/
[19] Источник: https://serverflow.ru/catalog/komplektuyushchie/ssd-nakopiteli/ssd-nakopitel-solidigm-d5-p5430-15-36tb-e1-s-9-5mm/
[20] Источник: https://www.kioxia.com/en-jp/business/news/2025/20250722-1.html
[21] показали: https://habr.com/ru/companies/selectel/articles/937426/
[22] Источник: https://www.broadcom.com/company/news/product-releases/63146
[23] Источник: https://alloyenterprises.co/alloy-enterprises-extends-direct-liquid-cooling-across-the-blade-eliminating-the-100-kw-peripheral-heat-bottleneck/
[24] Источник: https://habr.com/ru/companies/selectel/articles/983552/?utm_campaign=983552&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.