Рубрика «охлаждение серверной»

Как-то к нам пришел один прогрессивный заказчик из города N, что в средней полосе России, и сказал: «Хотим чтобы дата-центр на 100% фрикулинге работал круглый год. Можете посчитать, это реально вообще? И если да, какая технология вам видится наиболее логичной?». Мы с холодильщиком воодушевились, ибо не каждый день тебе предлагают поработать над таким нетривиальным для средней полосы России проектом, и начали считать. Под катом много цифр и теории по части охлаждения дата-центров.

Как мы заморочились по фрикулингу для дата-центра и что из этого вышло - 1
Читать полностью »

Обзор: Системы охлаждения в дата-центрах Selectel

Конкурентные цены на услуги всегда были «королем аргументов» для клиентов при выборе дата-центра. А из чего складываются эти цены? Первыми на ум приходят затраты на IT-оборудование и электричество, но значительную долю в структуре цен составляют расходы на охлаждение серверов, систем хранения (СХД) и сетевых устройств. К примеру, сервер с несколькими процессорами выделяет до 600 Вт и более тепловой энергии, которую надо эффективно удалить, а на вход вентиляционных отверстий сервера подать холодный воздух.

В этой статье мы познакомим вас с технологиями климатических систем в дата-центрах Selectel и расскажем, каким образом новинки в этой сфере снижают операционные расходы дата-центров, а косвенно — и суммы в счетах наших клиентов.
Читать полностью »

Как на счет того, чтобы для охлаждения серверов в жару использовать сточные воды? Знаем, умеем, практикуем — компания Apple недавно заявила о своем намерении проспонсировать строительство обьекта по очистке сточных вод в городе Праймвилль (штат Орегон, США). В этом городке уже есть дата-центр компании, согласно информационному агенству Oreon Live, он считается самым крупным потребителем воды в этом регионе.

Сточные воды как охладитель - 1

Идея постройки уникальных систем водоочистки рядом с ЦОД не новая. Многие компании уже спроектировали и построили такие системы, с помощью таких систем можно использовать переработанную канализационную воду для охлаждения серверных ферм с помощью этой же воды. Все это экономит деньги компаний на счетах за электроенергию, при этом еще и снижает негативное влияние инфраструктуры дата-центра на окружающую среду. Читать полностью »

Эта заповедная аббревиатура PUE (Power Usage Effectiveness) стала широко известной не только среди узкого круга специалистов — проектировщиков дата-центров, но и среди такой обширной аудитории, как потребители услуг предоставляемых этими самыми дата-центрами. Впервые PUE, коэффициент характеризующий энергоэффективность ЦОД( Центр Обработки Данных), был введен еще в 2006 году. Его предложила использовать некоммерческая организация Green Grid, которая была создана из специалистов ИТ-отрасли. За десять лет своего существования коэффициент успел послужить не только мерилом эффективности ИТ-инфраструктуры, но и причиной множества споров про корректность самого его применения, как и о необходимость разработки более актуального алгоритма оценки энергоэффективности дата-центров. Стоит вспомнить и то, как в погоне за «минутой славы», маркетологи компаний-провайдеров запускали рекламные кампании, пользуясь откровенно слабыми местами коэффициента, весьма изощренно кичась упомянутым мерилом, желая того или нет, доводили до абсурда само существование этого коварного PUE.

Станет ли юбилейный 2016 год фактически последним для существования столь привычного, весьма простого и понятного в использовании коэффициента, породившего огромное количество дискуссий, и если «да», то что же придет ему на смену? В этих и некоторых других вопросах, связанных с энергоэффективностью дата-центров мы и попробуем разобраться в этой статье.

PUE празднует 10-ти летний юбилей. Какой грустный подарок ему подготовило ИТ-сообщество? - 1Читать полностью »

Когда мы в разговоре слышим слово «юг», наше сознание непроизвольно рисует солнечные картины, соленый бриз, стаи морских птиц, пальмы. В этой статье пойдет разговор о самом южном дата центре в мире, но, несмотря на сезонное изобилие солнца, Вы не найдете здесь разгуливающих в бикини курортниц. При полярной станции Амундсена-Скота, что разместилась на 89 градусах 59 минутах и 24 секундах южной широты, для поддержания работы нейтринной обсерватории был создан и успешно функционирует дата-центр «Ледяной Куб» (Ice Cube data center). О задачах этого ИТ-узла и о тех условиях, в которых приходится поддерживать работоспособность оборудования, и пойдет речь далее в статье.

Самый южный дата-центр - 1Читать полностью »

В определенный момент некоторые предприятия дорастают до того состояния, когда их внутренние информационные системы перестают умещаться в одном серверном шкафу. Тогда руководителю IT-департамента предстоит взвесить все «за» и «против» и решить, строить или не строить серверную. Вариантов может быть несколько: от полного избавления от собственных мощностей и увода их в облака или колокейшн в большом ЦОДе, до строительства собственного мини- (или не очень мини) ЦОДа с блэкджеком.

Процесс расчетов, планирования и постройки серверной весьма ответственный и дорогостоящий. Вложится придется еще на стадии проекта, тут, кстати, можно сэкономить если все процедуры в серверной, от проектирования до строительства, будет производить один подрядчик. Естественное желание руководителя предприятия в такой ситуации — уложиться в минимально возможную сумму. И в штыки воспринимается любое удорожание проекта. В таких перепалках часто забывается, что, помимо строительства объекта, последует его содержание, которое при неправильном проектировании может оскуднить бюджет предприятия на еще одну несуществующую серверную по прошествии двух-трех лет.

Второй по величине потребитель ресурсов (в данном случае это электричество и расходники) в серверной — это система охлаждения. Ни для кого не новость, что “мощность” системы охлаждения серверной должна минимум совпадать, а в лучшем случае превышать на пару десятков процентов пиковую мощность всего оборудования установленного в серверной. О том, какие системы охлаждения бывают и как сэкономить на эксплуатации таких систем мы и поговорим в этой статье.
Читать полностью »

Iceotope — или сервер, который не тонет
Теперь своими новинками радует британская компания Iceotope.
Созданная еще в далеком(в плане темпа технического прогресса) 2009 году на сегодняшний день удивляет, может не совсем инновационными, но определенно интересными серверами с жидкостным охлаждением. Только теперь мы не увидим простых радиаторов с водой, компания разработала интересную систему, где железо сервера полностью помещается в жидкость(формула секретна), которая по заявкам в 1000 раз эффективнее воздуха, а эта жидкость в свою очередь отдает тепло радиатору с водой. Читать полностью »

Уже довольно долгое время в профессиональной среде обсуждается необходимость экономичного и экологически чистого охлаждения датацентров. Вот и Intel («Центры обработки данных: точка зрения Intel») часто говорит об этом.
Задумываться при строительстве ЦОД о “зеленом” охлаждении стало тенденцией. Сия тенденция всемерно поддерживается компанией Dell, и сейчас мы раскроем всякие детали.
Читать полностью »

Жила-была в небольшом сибирском университете маленькая серверная на 10 стоек и ~20 кВт суммарной потребляемой мощности. Денно и нощно покой и температурный режим её охраняли два больших брата Leonardo по 20 кВт отводимого тепла каждый. Но так уж вышло, что гномы, следившие за состоянием братьев были очень ленивы — за три года «обслуживания» один из братьев стал совсем плох и большую часть времени проводил на больничном. Когда призвали врачевателя кондиционеров, подтвердилось страшное предположение — братьям требуется капитальный ремонт, вплоть до возможной замены агрегатов. Ремонт этот дорогостоящий, грозящий вылиться в сумму до 1 млн. руб. на каждыйЧитать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js