- PVSM.RU - https://www.pvsm.ru -

«Новая волна»: почему охлаждение водой в ЦОД набирает популярность

Согласно прогнозам [1] Stratistics MRC, к 2023 году стоимость рынка технологий водяного охлаждения в ЦОД достигнет 4,55 млрд долларов. Под катом разбираемся в причинах роста спроса на такие разработки и рассказываем о самих технологиях, которые развиваются в этой области.

«Новая волна»: почему охлаждение водой в ЦОД набирает популярность - 1 [2]
/ фото Rolf Brink [3] CC [4] / Система иммерсионного охлаждения [5]

Одна из причин роста рынка — увеличение объемов обрабатываемых данных. Согласно исследованию IDC [6], к 2025 году объем данных, генерируемых человечеством, составит 163 зеттабайта. С ростом объемов данных растет и нагрузка на серверы в дата-центрах, особенно в тех, что занимаются высокопроизводительными вычислениями (HPC). Для охлаждения таких систем обычных воздушных установок уже недостаточно.

Например, для охлаждения тензорных процессоров Google [7] (TPU), которые заточены под TensorFlow, ИТ-гиганту впервые пришлось использовать [8] воду. Из-за того, что новое поколение процессоров (TPU 3.0) отличается [9] мощностью и высоким энергопотреблением, воздушное охлаждение оказалось для них неприменимо.

Почему воздушное охлаждение уступает водяному

Клайв Лонгботтом (Clive Longbottom), директор по сервисному обслуживанию аналитической компании Quocirca, отмечает [10], что воздух не настолько хорош в качестве теплоносителя: по сравнению с водой он от 50 до 1000 раз хуже отводит тепло от оборудования.

Кроме того, традиционные установки для воздушного охлаждения занимают больше места и потребляют больше энергии. А это сказывается и на счетах за электричество. Поэтому в машинных залах дата-центров, где постоянно повышается плотность оборудования, использовать воздух для охлаждения становится невыгодно. По этой причине вентиляторы в ЦОД Агентства национальной безопасности США заменили [11] системой иммерсионного охлаждения (о других альтернативных решениях мы писали в одном из постов [12]).

Вали Сорелл (Vali Sorell), президент компании Sorell Engineering, занимающейся техническим проектированием зданий и прокладкой инженерных коммуникаций, и Марк Хурикен (Mark Hourican), управляющий партнер консалтинговой компании Syska Hennessy Group, полагают [13], что ЦОД-индустрия пока не готова взять и полностью отказаться от «инвестиций в воздух» и целиком перейти на охлаждение водой. В этом случае придется полностью перестраивать всю инфраструктуру ЦОД, что довольно дорого.

Однако компании, которым приходится работать с большими нагрузками, уже разрабатывают и применяют жидкостные системы охлаждения.

О технологиях жидкостного охлаждения ЦОД

Иммерсионное охлаждение. Одна из множества технологий жидкостного охлаждения — иммерсионное охлаждение [13] (о котором мы уже рассказывали в блоге [14]). Технология подразумевает полное погружение оборудования в специальную масляную среду. Главное достоинство технологии в том, что масло имеет более высокую теплопроводность, по сравнению с воздухом. Это помогает системе эффективнее поглощать тепло и удалять его избытки.

В 2015 году систему для погружного охлаждения представили Horizon Computing: в компании разработали специальный бокс [15] для серверов, который заполняется минеральным маслом. Конструкция бокса поддерживает оптимальную температуру оборудования с помощью конвекции. Такой «контейнер» способен работать на улице без кондиционеров, а низкие затраты на изготовление и незамысловатый дизайн бокса позволяют использовать его без изменения инфраструктуры дата-центра.

Непрямое жидкостное охлаждение. Эту технологию уже используют [16] в ЦОД Facebook: в начале июня компания продемонстрировала, как новая система охлаждения сделала ЦОД в Северной Каролине более энергоэффективным.

Представители Facebook отмечают, что в некоторых дата-центрах использовать фрикулинг невозможно из-за суровых природных условий или высокого уровня загрязнения воздуха (с этой проблемой, например, борются [17] в Китае). Поэтому компания приняла решение разработать систему непрямого жидкостного охлаждения.

В основе системы лежит [16] технология испарительного охлаждения. Вода для системы охлаждается в специальном теплообменнике, испаряясь через особый мембранный слой. Затем она охлаждает воздух внутри дата-центра, сохраняя оптимальную температуру серверов (схему работы технологии можно посмотреть в посте из блога Facebook [18]).

Тестирование системы показало [18], что она способна уменьшить потребление воды в ЦОД на 20% (в местах с жарким и влажным климатом) и на 90% (в умеренных и холодных климатических условиях).

«Новая волна»: почему охлаждение водой в ЦОД набирает популярность - 2
/ фото poolie [19] CC [20]

Теплообменники на задней части серверной стойки. В этом случае охлаждённая вода поступает непосредственно к стойке с оборудованием, удаляя избытки тепла. Эту технологию используют [21] Lenovo в своем проекте Neptune: теплообменники уже применяют [22] 30% клиентов компании для своих HPC-систем.

Помимо упомянутого теплообменника, в проект Neptune входят теплообменный модуль (Thermal Transfer Module) и система непосредственного охлаждения узлов (Direct to Node Cooling).

Модуль использует [21] жидкость из теплопоглощающего резервуара, чтобы по специальным трубкам переместить избытки тепла от процессора в область с разреженным воздухом. Система имеет компактные размеры, потому позволяет уменьшить традиционный гул в серверной. А система непосредственного охлаждения доставляет [23] холодную воду прямо к узлу и «снимает» лишнее тепло с ключевых компонентов системы.

Будущее технологий водяного охлаждения

Как говорят [13] эксперты отрасли Сорелл и Хурикен, воздушное охлаждение полностью уступит водяному свое место тогда, когда применять его будет совершенно невыгодно или невозможно (например, из-за физических ограничений дата-центров). Однако специалисты прогнозируют, что переход не будет единовременным. Сперва распространятся гибридные технологии (например, системы на базе испарительных охладителей [24], как в Facebook), а затем уже будет осуществлен переход на прямо охлаждение с помощью воды.

В Lenovo также надеются [22], что применение водяного охлаждения выйдет за рамки HPC-систем и станет популярным среди обычных ЦОД. Для этого компания будет работать над снижением стоимости их реализации. Их цель — сделать системы водяного охлаждения дешевле и доступнее для обычных компаний.


P.S. Дополнительные материалы из Первого блога о корпоративном IaaS:

P.P.S. Статьи по теме из нашего блога на Хабре:

Автор: it_man

Источник [31]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/data-tsentr/285191

Ссылки в тексте:

[1] прогнозам: https://www.reuters.com/brandfeatures/venture-capital/article?id=25529

[2] Image: https://habr.com/company/it-grad/blog/416333/

[3] Rolf Brink: https://en.wikipedia.org/wiki/Server_immersion_cooling#/media/File:Asperitas_AIC24_Immersion_system.jpg

[4] CC: https://creativecommons.org/licenses/by-sa/4.0

[5] Система иммерсионного охлаждения: https://en.wikipedia.org/wiki/Server_immersion_cooling

[6] Согласно исследованию IDC: https://blog.seagate.com/business/enormous-growth-in-data-is-coming-how-to-prepare-for-it-and-prosper-from-it/

[7] тензорных процессоров Google: https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BD%D0%B7%D0%BE%D1%80%D0%BD%D1%8B%D0%B9_%D0%BF%D1%80%D0%BE%D1%86%D0%B5%D1%81%D1%81%D0%BE%D1%80_Google

[8] пришлось использовать: http://www.datacenterknowledge.com/google-alphabet/google-brings-liquid-cooling-data-centers-cool-latest-ai-chips

[9] отличается: https://www.youtube.com/watch?v=8j1MWZGNoXM

[10] отмечает: https://www.computerweekly.com/tip/Water-cooling-vs-air-cooling-The-rise-of-water-use-in-data-centres

[11] заменили: http://www.datacenterknowledge.com/archives/2014/09/04/nsa-exploring-use-mineral-oil-cool-servers

[12] постов: https://habr.com/company/it-grad/blog/330338/

[13] полагают: http://www.datacenterdynamics.com/content-tracks/power-cooling/liquid-cooling-the-wave-of-the-future/97593.fullarticle

[14] рассказывали в блоге: https://habr.com/company/it-grad/blog/341922/

[15] бокс: http://ruggedpod.qyshare.com/

[16] используют: http://www.datacenterknowledge.com/facebook/facebook-s-new-data-center-cooling-design-means-it-can-build-more-places

[17] борются: http://www.datacenterknowledge.com/archives/2015/08/03/china-data-center-operators-struggle-with-pollution

[18] в посте из блога Facebook: https://code.fb.com/data-center-engineering/statepoint-liquid-cooling-system-a-new-more-efficient-way-to-cool-a-data-center/

[19] poolie: https://www.flickr.com/photos/poolie/

[20] CC: https://creativecommons.org/licenses/by/2.0/

[21] используют: https://www.nextplatform.com/2018/06/28/a-sea-change-coming-for-water-cooling-in-datacenters/

[22] применяют: https://www.zdnet.com/article/lenovo-bets-big-on-liquid-cooling-going-mainstream-launches-neptune/

[23] доставляет: https://www.networkworld.com/article/3283228/data-center/lenovo-announces-hybrid-liquid-cooling-system-neptune.html

[24] испарительных охладителей: http://www.datacenterdynamics.com/content-tracks/power-cooling/understanding-the-benefits-of-evaporative-cooling/97429.fullarticle

[25] Почему хороший IaaS-провайдер не должен иметь собственный ЦОД: http://iaas-blog.it-grad.ru/tendencii/pochemu-xoroshij-iaas-provajder-ne-dolzhen-imet-sobstvennyj-cod/

[26] Наш unboxing: блейд-сервер Cisco UCS B480 M5: http://iaas-blog.it-grad.ru/zhelezo/unboxing-blejd-servera-cisco-ucs-b480-m5/

[27] На чем развернуть SAP: обзор основных платформ: http://iaas-blog.it-grad.ru/zhelezo/servery-dlya-sap-osnovnye-platformy/

[28] Почему нельзя так просто взять и внедрить «зеленые» технологии в ЦОД: https://habr.com/company/it-grad/blog/359176/

[29] Дата-центры, похожие на курятники, и работа в Антарктиде: подборка необычных ЦОД: https://habr.com/company/it-grad/blog/358948/

[30] UL 3223: представлен новый стандарт сертификации ЦОД: https://habr.com/company/it-grad/blog/353124/

[31] Источник: https://habr.com/post/416333/?utm_campaign=416333