Mellanox связала GPU суперкомпьютерных кластеров с помощью FDR InfiniBand, минуя CPU и системную память

в 11:33, , рубрики: Новости, метки:

Компания Mellanox Technologies на конференции по суперкомпьютерам похвалилась достижением в области взаимодействия нескольких GPU. Речь идет об использовании соединения FDR InfiniBand с поддержкой технологии удаленного прямого доступа к памяти (remote direct memory access, RDMA) Nvidia GPUDirect.

Технология Nvidia GPUDirect дает возможность повысить производительность суперкомпьютерных кластеров, в конфигурацию которых входят ускорители на базе GPU. Она существенно ускоряет обмен между GPU по соединениям «точка-точка», используемым для обмена данными между адаптерами Mellanox HPC и GPU Nvidia.

Это приводит к уменьшению задержки в соединении GPU-GPU и полностью освобождает CPU и подсистему системной памяти от манипуляций по передаче данных между GPU по сети. По словам производителя, на практике зафиксировано уменьшение задержки MPI на 69%, с 19,78 до 6,12 микросекунд; пропускная способность в отношении коротких сообщений утроилась, а в отношении длинных сообщений — увеличилась на 26%.

Пока доступна альфа-версия программного обеспечения MVAPICH2-GDR, включающего указанную функциональность на адаптерах Mellanox ConnectX и Connect-IB. Появление окончательной версии ожидается в четвертом квартале.

Источник: Mellanox

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js