- PVSM.RU - https://www.pvsm.ru -

В этот момент новые ЦОДы никто не начинал строить, потому что не было смысла. Зачем строить, если клиенты ушли? Некоторые длительные проекты, типа ЦОДа МТС с 7-летним циклом строительства, продолжались, но и они сорвали все сроки [1].
Но очень быстро тренд развернулся. Оказалось, что стоек стало не хватать и даже не надо было сильно вкладываться в маркетинг. Началась волна регуляторики. В 2023 году всех окологосударственных начали возвращать в российские дата-центры. Закон о приземлении (который вышел ещё в 2021 году и вступил в силу в январе 2022) сначала был мягким, обязывал компании просто открыть офис. Но к 2024 году это переросло в реестр хостеров со всеми вытекающими.
Госкомпаниям дали понять, что хранить данные за рубежом не надо. Пошёл отток оттуда. Потом проблемы с платежами — ушли всякие Dropbox и другие сервисы, которые начали здесь дублировать. Поначалу были обходные пути, но они постепенно закрывались. Можно было платить через казахские карты, но недавно многим релокантам их заблокировали.
Ну а потом как вишенка размером с КамАЗ на торте пришёл инференс нейросетей.
В итоге ситуация очень странная: новые ЦОДы никто сейчас не строит и не будет в ближайшие годы, а дефицит места растёт.
Как я уже сказал, потому что некоторых уговорили вернуться, некоторым там были не рады, некоторым с зарубежными размещениями тут были не рады (особенно при госучастии), некоторые просто разворачивали сервисы-аналоги внутри страны.
Параллельно с этим некоторые зарубежные компании просто начали говорить: «Мы с русскими не работаем». Оплатить стало сложно, потом ещё сложнее.
И всё это превратилось в стойкий тренд — зачем нам хранить данные на Западе, если там всё неудобно и дорого, да ещё и с рисками штрафов? Проще заплатить в России, пусть дороже, но зато без головной боли.
В итоге рынок облачных услуг и сервисов начал бешено расти.
Потом пришли нейросети в массовых применениях. Это требует серьёзных вычислительных ресурсов. Даже на примере нашей компании видно — нам для расчётов моделей нужны очень мощные виртуалки, 16-ядерные минимум, а то и вовсе 24. Сбер, Яндекс, даже более мелкие компании вроде Авито — все используют LLM и другие виды нейросетей, и всем нужны серверные мощности. Даже традиционно отстающие по ИТ производства используют аналитическое видеонаблюдение, что требует очень много ресурсов и хранилок.
Постоянный рост объёма данных тоже играет роль. Сравните ёмкости хранилищ 5 лет назад и сейчас — разница колоссальная.
То есть:
Сейчас число стоек на 5-летнем минимуме. Пруф [2].
Спрос [3] превысил предложение.
Вот тут [4] ещё полезные прогнозы.
Самая главная проблема — бизнес-модель подорожала в полтора раза. Если до 2022 года можно было считать, что стоимость стойки около 100 тысяч рублей, то в 2024–2025 годах это уже 150 тысяч за стойку. Оборудование подорожало в 3–4 раза. Абсолютно всё зарубежное — коммутаторы, ИБП, даже стойки железные. Российских аналогов просто нет, или они не подходят для коммерческого использования.
И это только капитальные затраты, без учёта электричества и прочего. Операционные тоже росли всё это время.
Плюс серьёзная проблема с финансированием — денег просто неоткуда взять. А цикл строительства дата-центра огромный — от 3 до 7 лет. Причём, если вы построите большой ЦОД за 3 года, вам очень повезло.
Недавно появились новые российские требования по проектированию и строительству [5]. Наши регуляторы решили не просто взять стандарты TIER по Uptime Institute, которые работают во всём мире, а создать свои. Вместо того чтобы просто скопировать работающую модель, они взяли старые советские СНиПы для машзалов — сотни страниц непонятных требований. Там даже регламентируется площадь клиентских помещений, хотя, казалось бы, какая разница для дата-центра?
Ну и ещё одна неявная проблема — дефицит строительных кадров. На рынке просто нет людей, кто мог бы всё это построить. Если вам нужно сварить металлоконструкцию — найти сварщиков сейчас почти невозможно — они расписаны на месяцы вперёд. И так со всеми специалистами — электриками, монтажниками и т. д. Особенно в регионах.
Самое очевидное — рост цен на размещение в ЦОДах. Спрос есть, предложения нет, цены растут.
Второе — миграция в региональные центры. Если в Москве мест нет, компании начинают искать варианты в других городах. Тот же Иннополис в Казани, где есть хорошие дата-центры. Или Новосибирск, Владивосток, Санкт-Петербург.
Третье — использование некондиционных помещений. Даже крупные игроки начинают предлагать клиентам старые машзалы. Представьте — из таких залов просто вытащили гигантские станции времён СССР и поставили стойки. Без нормального кондиционирования, без резервирования, посреди жилых массивов. Во многих два ввода (всё-таки это была критичная инфраструктура СССР), но без дизелей. Но выбора нет — ставить серверы куда-то надо.
Очевидно, что бизнесу придётся с этим жить. Первое решение — развитие региональных дата-центров. Если у вас бизнес в Краснодаре, зачем вам хостить сервер в Москве? Пинг будет на 15 миллисекунд больше, зато решается проблема с нехваткой мест.
У нас площадки в разных городах — есть и М9 в Москве, и дата-центр в Королёве, и площадки в Новосибирске, Владивостоке, Казани, Санкт-Петербурге, недавно открыли в Краснодаре [6]. Ещё один маленький на геостационарной орбите, но мы там коллокацию не продаём.
Второе — строительство корпоративных ЦОДов крупными госкомпаниями. Газпром, Сбер, Яндекс уже строят свои дата-центры. Если они переедут туда из коммерческих дата-центров, то освободят места для других клиентов. По сути, вот это единственная причина, почему в коммерческих ЦОДах стойка может подешеветь (или замедлиться в росте цены) — если компании с госучастием или близкие к системным на рынке построят свои мощности и переедут в них. Но, кажется, они и построят свои, и не освободят коммерческие.
Третье — более эффективное использование существующих мощностей. Хотя оборудование и подорожало в 3–4 раза, со временем оно становится более компактным. При том же количестве серверов в стойке их вычислительная мощность увеличилась — за счёт роста энергоэффективности новых поколений процессоров. А значит, можно разместить в стойке больше вычислительных ресурсов без увеличения энергопотребления и нагрузки на систему охлаждения.
В нашем случае, однако, это почти не играет роли.
Но, как я уже говорил, всё подорожало в 3–4 раза. Например, сервер, который в 2017 году стоил 350–400 тысяч рублей, сейчас стоит 1,6 миллиона за аналогичную производительность (в смысле, если брать тот же уровень конфигурации по оперативке). Многие эксперты сейчас спорят о том, стоит ли менять старое оборудование на новое, более энергоэффективное. В московских ЦОДах стандарт — 6 киловатт на стойку по отводу тепла. Старые серверы потребляют 0,3–0,4 киловатта. Новые чуть эффективнее, но разница не стоит тех денег, которые придётся отдать за новое оборудование. И это всё при том, что оборудование используется гораздо дольше, чем раньше. Амортизационный цикл растёт. Если раньше серверы списывали через 4 года, то сейчас они работают по 7–8 лет и больше.
Рынок коллокации растёт примерно на 20% в год. Облачные сервисы — ещё быстрее, на 30–40% ежегодно. В первую очередь это происходит из-за роста цен (то есть в этих процентах инфляция), но и физический объём рынка тоже увеличивается.
Особенно быстро растёт спрос на вычислительные мощности для нейросетей / слабых ИИ. По некоторым прогнозам, к 2030 году только для ИИ в России понадобится порядка 77 тысяч стоек. И это при том, что столько электричества для них может просто не найтись.
Если сравнить эти числа с темпами ввода новых стоек в России, становится понятно, что дефицит будет только нарастать. Ситуация близка к критической, и без системного подхода наш рынок рискует столкнуться с дефицитом.
Даже если завтра снимут все санкции (во что никто не верит), проблема не решится моментально, как и ставка не снизится моментально. И дело даже не в деньгах — цикл строительства дата-центра минимум 5 лет, а с учётом новых требований к проектированию может растянуться и до 7 лет. Представьте: сейчас начинаем строить, год на проектирование, потом согласования, потом само строительство… В общем, дефицит точно сохранится ещё несколько лет.
Частному бизнесу в нынешних условиях зайти на этот рынок очень сложно [7]. Правила такие, что без серьёзной поддержки не дойдёшь. А если и дойдёшь — получишь такие затраты, что окупить их можно будет только через много лет.
Что делают компании, которым нужны серверы
Некоторые крупные компании, как я уже говорил, строят свои дата-центры. Другие ищут места в регионах. Третьи просто платят больше за то, что есть.
И это правильный подход. Если у вас региональный бизнес, то нет смысла платить больше за московское размещение.
Кстати, наша компания даже запускает серверы в космос! Этим летом запускаем спутник, и все желающие смогут подключиться к нему через консоль во время сеанса связи. Звучит как фантастика, но это реальность.
Куда всё это приведёт
Так что удачного вам следующего года!
© 2025 ООО «МТ ФИНАНС»
Автор: ntsaplin
Источник [8]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/hosting/414593
Ссылки в тексте:
[1] сорвали все сроки: https://ru.wikipedia.org/wiki/%D0%A6%D0%9E%D0%94_%D0%90%D0%B2%D0%B0%D0%BD%D1%82%D0%B0%D0%B6
[2] Пруф: https://www.cnews.ru/news/top/2022-04-28_v_moskve_ostryj_defitsit_mest
[3] Спрос: https://servernews.ru/1098751
[4] Вот тут: https://www.tadviser.ru/index.php/%D0%A1%D1%82%D0%B0%D1%82%D1%8C%D1%8F:%D0%A6%D0%9E%D0%94_%28%D1%80%D1%8B%D0%BD%D0%BE%D0%BA_%D0%A0%D0%BE%D1%81%D1%81%D0%B8%D0%B8%29_%D0%9A%D0%BE%D0%BC%D0%BC%D0%B5%D1%80%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B5_%D0%B4%D0%B0%D1%82%D0%B0-%D1%86%D0%B5%D0%BD%D1%82%D1%80%D1%8B
[5] новые российские требования по проектированию и строительству: https://www.minstroyrf.gov.ru/press/minstroy-rossii-ustanovil-pravila-proektirovaniya-tsentrov-obrabotki-dannykh/
[6] открыли в Краснодаре: https://ruvds.com/ru/data/telemax/
[7] очень сложно: https://www.comnews.ru/content/219525/2022-03-31/2022-w13/zakon-yarovoy-rabota-nad-oshibkami
[8] Источник: https://habr.com/ru/companies/ruvds/articles/893154/?utm_source=habrahabr&utm_medium=rss&utm_campaign=893154
Нажмите здесь для печати.