Рубрика «цод» - 31

Начинать чинить надо, пока не сломалось — сломанное поддаётся ремонту гораздо неохотней.
Юрий Татаркин

Риски ЦОД: резервирование инженерных системПосле того как обеспечены надежные стены и крыша над головой для ЦОД (статья «Риски ЦОД: выбираем месторасположение»), следующим шагом на пути обеспечения его отказоустойчивости должно стать резервирование инженерных систем. Строя дата-центры более 10 лет, мы убедились, что не все заказчики в полной мере осознают важность дублирования основных коммуникаций. Космические корабли и те падают, а оборудование в ЦОД в идеале должно работать 365 дней в году и 24 часа в сутки. Любая вышедшая из строя или нуждающаяся в профилактике деталь должна быть заменена без остановки работы всех критичных сервисов.

Как справедливо отметили наши читатели, далеко не всем компаниям нужен надежный ЦОД. Для некоторых его бесперебойная работа не предмет переживаний, а многие предпочтут хранить свои данные в публичном облаке. Данный паблик предназначен в большей степени для тех, кто по тем или иным соображениям безопасности или проходимости каналов связи сделал свой выбор в пользу собственного дата-центра и работы сервисов с уровнем доступности не менее трех девяток (простоя не более 1,6 часов в год).

Читать полностью »

Не так давно мы говорили о системах хранения данных HP: речь шла о дисковых библиотеках и сравнении их с ленточными. Сегодня мы расскажем вам об успешном опыте безостановочного переезда со старой СХД на новую HP 3PAR StoreServ одного из российских вузов.

HP 3PAR StoreServ
Читать полностью »

«Избежать катастрофы может только тот, кто считает ее возможной».
В. Швебель

Мы все больше зависим от достижений прогресса: читаем почту в кинотеатрах, отмечаем места своего присутствия в foursquare. И бизнес стал не менее зависим от технических достижений. И если для нас поломка телефона становится небольшим неудобством, то для компаний выход из строя любого элемента ИТ-инфраструктуры оборачивается колоссальными убытками. Один час простоя российского банка, входящего в ТОП-100, равен стоимости автомобиля представительского класса. А теперь представьте, размер убытков и упущенную прибыль, если у корпоративного ЦОД рухнули стены или рядом с ним прорвало теплотрассу. Быстро ли запустятся там сервисы? Сколько времени потребуется для восстановления работоспособности, если нет резервного ЦОДа?

Избежать такой катастрофы можно, изначально правильно спроектировав ЦОД, обратив внимание на его месторасположение, эффективность применяемых в нем решений, энергоемкость, надежность и окупаемость.

Риски ЦОД: выбираем месторасположение

Читать полностью »

Международная сеть провайдеронезависимых дата центров DataHouseЗападный рынок дата-центров все больше поглощает идея гигантизма: количество анонсируемых по всему миру проектов гигантских по площади дата-центров растёт в геометрической прогрессии. В России, безусловно, пытаются соответствовать тренду и строят пока не самые крупные, но уже далеко не маленькие площадки. В подавляющем большинстве они находятся на территории двух столиц, а регионы по-прежнему чаще всего представлены в отрасли операторскими дата-центрами на уровне местных АТС и небольшими серверными помещениями со сплит-кондиционированием и блоками ИБП, скромно стоящими в уголке. Ключевыми игроками на региональном рынке дата-центров все также остаются операторы связи, которые предоставляют в аренду бизнесу излишки своих площадей, а сама ситуация на региональном рынке повсеместно напоминает ситуацию середины 2000-х в Москве. Аналогичные проблемы наблюдаются и в странах СНГ.
Читать полностью »

ЦОДы уходят в облака
На определённом этапе развития все крупные компании сталкиваются с задачей модернизации собственной IT-инфраструктуры. Когда производительности имеющейсяейся инфраструктуры уже не хватает, многие из руководителей больших предприятий задумываются о постройке нового собственного ЦОДа. Поиск здания, подходящего для дата-центра, подбор персонала, проектирование, монтаж базовых и дополнительных элементов ЦОДа — всё это требует большого количества времени и материальных ресурсов. Но есть и альтернатива!

Благодаря активному развитию облачных технологий и виртуализации, в России уже появились провайдеры, предоставляющие услугу «Облачный ЦОД», которая позволяет полностью перевести IT-инфраструктуру на аутсорсинг, сохранив при этом высокий уровень масштабируемости и надёжности. Стоит такая услуга недёшево, но, при взвешенном подходе, даёт возможность более рационально использовать ресурсы компании.

Так ли хорош облачный ЦОД, как его рекламируют? Правда ли, что биллинг помогает экономить, а виртуализации серверов достаточно для построения качественной облачной инфраструктуры? На эти и ряд других вопросов мы постараемся дать ответы под хабракатом.
Читать полностью »

Данная статья открывает серию публикаций посвященных совершенно новой линейке оборудования компании Huawei под общим названием CloudEngine, а так же технологиям и решениям, примененным в этом оборудовании.
Читать полностью »

Инфраструктура отказоустойчивого ЦОДа класса TIER III

В средней части первого этажа ЦОД «Компрессор» два машзала, строго над ними — два машзала на втором этаже. В каждом зале по 1 МВт электромощности на стойки. На первом этаже трансформаторная подстанция, распредпункт, электрощитовая. Слева-сверху на схеме бытовой комплекс, помещение охраны. Справа от машзалов – помещение системы охлаждения – насосная станция. Рядом с машзалами (по бокам) коридоры с фанкойлами, по центру — коридор с распредщитами.

Второй этаж в принципе повторяет планировку первого этажа:

Инфраструктура отказоустойчивого ЦОДа класса TIER III

На месте трансформаторных подстанций — ИБП и аккумуляторы. Холодильная часть второго этажа — это насосная станция гликолевого контура (второй контур охлаждения). Плюс справа от машзалов установлен бак-аккумулятор на 100 кубометров на 15 минут автономного холодоснабжения ЦОДа (при отключении внешнего электроснабжения на время запуска дизельной электростанции для охлаждения машзалов используется уже заранее захоложенная вода из бака, которая подаётся в контур охлаждения).Читать полностью »

Iceotope — или сервер, который не тонет
Теперь своими новинками радует британская компания Iceotope.
Созданная еще в далеком(в плане темпа технического прогресса) 2009 году на сегодняшний день удивляет, может не совсем инновационными, но определенно интересными серверами с жидкостным охлаждением. Только теперь мы не увидим простых радиаторов с водой, компания разработала интересную систему, где железо сервера полностью помещается в жидкость(формула секретна), которая по заявкам в 1000 раз эффективнее воздуха, а эта жидкость в свою очередь отдает тепло радиатору с водой. Читать полностью »

Вышел третий номер журнала ЦОДы.РФ

Деловая активность на телекоммуникационном рынке летом традиционно снижается, но только не для инженеров, отвечающих за эксплуатацию инженерных систем дата-центров и тем более за системы кондиционирования. Разве что исландские коллеги чувствуют себя комфортно: у них в стране летом столбик термометра не поднимается выше 20 градусов, и то ненадолго. Насколько хорошо подготовились отечественные поставщики услуг ЦОД, мы узнаем из новостных сообщений с «полей битв» со зноем. Нам лишь остается надеяться, что температурные рекорды экстремально жаркого лета 2010-го не будут побиты в этом году, а инженеры добросовестно подготовили свои дата-центры к летнему сезону. Именно поэтому в центральной теме номера мы решили обсудить вопросы, связанные с эксплуатацией систем кондиционирования в летний период.
Читать полностью »

Facebook — от сервера до сети дата центров за 8 лет
В статье пойдет речь о ЦОДах одного из самых коммерчески удачных стартапов, который стремительно развивается и в сеть которого вовлечена 1/7 часть всего населения земли.

Наверное, мало кто мог подумать в 2004 году, что идея студентов из Гарварда сделать скромный сайт для общения внутри университета превратится в глобальную социальную сеть с аудиторией свыше 1 млрд человек. ИТ-инфраструктура компании также росла достаточно бурно: если в 2004 году достаточно было одного арендованного сервера, то уже через пять лет Facebook стал наиболее посещаемым сайтом, количество обращений к нему составило уже более 1 триллиона в месяц (по данным сервиса Google Double Click), а на его трафик приходилось около 9 процентов всего интернет-трафика в глобальной Сети при загрузке 300 миллионов ежедневно и с базой более 550 тысяч приложений, работающих на платформе Facebook Connect.

Чтобы поддерживать такую активности, на сегодняшний день в активе компании три действующих дата-центра и один — в процессе строительства. Дополнительно арендуются площади в девяти дата-центрах — до сих пор Facebook не может отказаться от арендованных площадей. Арендуются площади в шести дата-центрах Силиконовой долины, расположенных в Санта-Кларе (аренда 4,5 тыс. квадратных метров в ЦОД CoreSite Realty, площади Terremark Worldwide(TMRK), Equinix (EQIX)) и Сан Хосе (более 2 тыс. квадратных метров в ЦОД Fortune), в трех дата-центрах в Вирджинии (суммарная площадь — 12,5 тыс. кв. метров в ЦОДах Digital Realty Trust и 15 % площадей ЦОД DuPont Fabros Technology), а также в европейском ЦОД, принадлежащем Telecity Group.
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js