Рубрика «ЦОДы»

…и клавиши Баха, и шапка Мономаха… О чем только не напоют.

…и клавиши Баха, и шапка Мономаха… О чем только не напоют.

Читать полностью »

От капитального ЦОДа к гибкому модулю: куда идёт российская ИТ-инфраструктура - 1

В марте 2025 года Sitronics Group опубликовала прогноз: к 2030 году рынок модульных дата-центров в России вырастет в 2,5 разаЧитать полностью »

Надежная система электроснабжения — это сердце любого ЦОД, будь то маленькая серверная или коммерческий дата-центр на несколько тысяч стоек. Даже малейшие сбои могут привести к остановке всего комплекса с сопутствующими репутационными и коммерческими потерями.

В нашей практике мы встречаемся с самыми удивительными решениями в части инженерных систем, и сегодня Кирилл Дмитриев, архитектор инженерных систем центра сетевых решений «Инфосистемы Джет», разберет пять самых распространенных проблем.

Читать полностью »
От КАМАЗа до природного газа. Самые интересные статьи про дата-центры за год - 1

Привет! 

В прошлом году мы много писали про дата-центры. Условно наши статьи можно разделить на 3 группы: 

  • необычные локации, 

  • новые технологии, 

  • личный опыт. 

Читать полностью »

Как и любое другое облако, Yandex.Cloud — это многослойная иерархия абстракций: SaaS, лежащий поверх PaaS, запущенный на IaaS. Связность виртуальной инфраструктуры обеспечивает виртуальная же сеть, которая является, по сути, оверлеем. И только в самой глубине этой системы обнаруживается физическая сеть из проводов и коммутаторов. Мало кто вспоминает о ней, пока всё работает. А меж тем она — кровеносная система всей платформы.

Привет, я Марат Сибгатулин, сетевой инженер Yandex.Cloud. Яндекс про свою сеть рассказывал уже не раз. И про её физическую инфраструктуру, и про особенности устройства Yandex.Cloud, и про то, как вообще работает виртуальная сеть. Не буду повторяться. Расскажу о том, как мы запустили публичное облако на том, что было — на двух стойках, и масштабировали его до сети для десятков тысяч серверов, не наращивая неоплатный технический долг.

Как превратить две серверные стойки в сеть для десятков тысяч машин и не остаться в неоплатном техническом долгу - 1

Мы практикуем следующий подход к созданию и развитию чего бы то ни было: прототип → минимально необходимая функциональность и масштаб → рост → эволюционное развитие. На первый взгляд он естественен и очевиден, в отличие от подхода «сделать сразу идеально и на века». На деле — требует вдумчивого предварительного планирования, чтобы потом не подставлять в горячке новые костыли под старые, пытаясь поспеть за внезапным ростом.
Читать полностью »

В прошлом посте про PDU мы говорили, что в некоторых стойках установлен АВР —  автоматический ввод резерва. Но на самом деле в ЦОДе АВР ставят не только в стойке, но и на всем пути электричества. В разных местах они решают разные задачи:

  • в главных распределительных щитах (ГРЩ) АВР переключает нагрузку между вводом от города и резервным питанием от дизель-генераторных установок (ДГУ); 
  • в источниках бесперебойного питания (ИБП) АВР переключает нагрузку с основного ввода на байпас (об этом чуть ниже); 
  • в стойках АВР переключает нагрузку с одного ввода на другой в случае возникновения проблем с одним из вводов. 

АВР и все, все, все: автоматический ввод резерва в дата-центре - 1
АВР в стандартной схеме энергоснабжения дата-центров DataLine.

О том, какие АВР и где используются, и поговорим сегодня. 
Читать полностью »

PDU и все-все-все: распределение питания в стойке - 1
Одна из стоек внутренней виртуализации. Заморочились с цветовой индикацией кабелей: оранжевый обозначает нечетный ввод по питанию, зеленый – четный.

Мы тут чаще всего рассказываем про “крупняк” – чиллеры, ДГУ, ГРЩ. Сегодня речь пойдет о “мелочах” – розетки в стойках, они же Power Distribution Unit (PDU). В наших дата-центрах более 4 тысяч стоек, забитых ИТ-оборудованием, поэтому в деле я видел много всякого: классические PDU, “умные” – с мониторингом и управлением, обычные блоки розеток. Сегодня расскажу, какие PDU бывают и что лучше выбрать в конкретной ситуации. Читать полностью »

Первые дни лета отлично подходят для развивающей поездки в Питер.
Мы посетим Миран, linxdatacenter, RETN и Метротек.

5 утра, Московский вокзал, KFC, набережная Мойки, Тарелка, голуби с крыш, Исакий, Марсово поле, Каптюр яндексодрайвовый, и вот он — Миран.

Миран

В Миране уже несколько лет проживает наша лаба с Евой, сервер трансляции, виртуальный микротиковский Роутэрос, хостинг linkmeup с IPv6-доступностью и теперь хостинг подкастов.

Прогулки по ЦОДам и телекомам Питера - 1
Читать полностью »

Привет! В этом году – 10 лет, как запущен наш первый ЦОД OST-1. За это время мы с коллегами из службы эксплуатации и капитального строительства успели провести не одну модернизацию инженерной инфраструктуры дата-центра. Сегодня расскажу про самые интересные случаи.

Три истории модернизации в дата-центре - 1

200-тонный кран устанавливает новый чиллер Stulz на раму. Модернизация системы холодоснабжения системы дата-центра OST-1 в 2015 году.Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js