Рубрика «цод»

image

У нас тут удивительная ситуация, когда в энтерпрайзе впервые стало пофиг на деловую репутацию. Если речь про зарубежную компанию — то подход простой: «Гендиректор русский? Да он даже не гражданин!» А если в России — то уже другой: «Куда ты с подлодки-то денешься?»

Свежий пример. Декабрь, самый активный месяц российской экономики. Распродажи, купи-продай, кибератаки, подарки на Новый год, вот это всё.

В этот самый декабрь банк СМП решает, что надо слиться и поглотиться об ПСБ. В момент слияния двух банков в экстазе меняются реквизиты. Как реквизиты меняла Точка: предупредили за полгода, потом ещё полгода со старых реквизитов стоял форвард денег на новый счёт. Как менял реквизиты банк СМП: прислал письмо счастья, что вот ваш новый счёт.

Старый перестанет работать 29 декабря, реквизиты нового есть, но деньги туда принять нельзя.

Разошлите всем, но обязательно скажите, чтобы ничего не оплачивали, пока переходный период.

А у нас там 500 юрлиц платит.

А, и да, кстати, зарплату вы с этого счёта тоже выплатить сотрудникам не сможете, потому что для его активации надо пойти в отделение. А отделение работает с 9 января. Оплаты за железо, за лицензии, зарплаты? Ну вы там держитесь. Читать полностью »

image

Молоко по 790 мл? Вот вам пример интереснее. У этого хостера цены те же, только комиссия чуть выросла.

Сейчас идёт серьёзный передел рынка хостингов из-за тенденции ходить в Интернет по паспорту.

Это моё личное мнение, но очень похоже на то, что в следующем году всё станет дороже, и сейчас я расскажу про факторы, которые с очень высокой вероятностью приведут к этому.

Сразу скажу, что в большинстве сценариев конкретно поднимать цен мы не будем, но у нас горизонт планирования — до мартовских выборов, а дальше ситуация может меняться довольно быстро. Мы уже поднимали в прошлом году с пониманием, что случится, и этого пока достаточно.

Итак, первое: теперь всем нужно будет интегрироваться с СОРМ и хранить netflow трафика.

Если что, то это:

  • От трёх до пяти миллионов рублей на покупку софта.
  • Примерно один-два человекомесяца разработки на интеграцию.
  • Железо для хранения трафика. У нас получается примерно от 60 терабайт на каждый 1 Гбит/с у пользователя, и это без DDoS-атак.

Всё это ляжет на пользователей, конечно, потому что больше не на кого. То есть на вас.

Причём это только первый фактор. И это ещё даже не вся его цена, потому что само снятие копии трафика тоже занимает ресурс. Нужно будет либо покупать новые маршрутизаторы, которые делают это в железе, либо работать на уровне сетевого драйвера (минус часть производительности), либо лезть в юзерспейс на уровне ОС и через это замедлять его машину.

А ещё у всех — инфляция, курс доллара, проблемы с железом, лицензиями, платежами, гениальная схема «Яндекса» по повышению ставок и вообще тяжёлый год. Читать полностью »

image


С точки зрения законодателей вам пора бы уже ходить в Интернет по паспорту. И первые шаги для этого сделали.

Из-за этого мы сейчас переживаем крупнейший передел рынка хостинга в России.

С 1 декабря новый федеральный закон запрещает заниматься хостингом тем, кто не в специальном реестре. В специальный реестр можно попасть, грубо говоря, если выполнить требования по хранению трафика клиентов и их авторизации по паспорту, «Госуслугам» или платёжной карте. Там куча нюансов, но примерно так.

Ещё в этом году в ЦОДы начало поступать полностью отечественное железо из отечественной компонентной базы и отечественных плат (на самом деле — нет), отвалилась страховка от киберрисков от AIG (вместе с AIG), и пришлось искать российский аналог. Были скандал и мир с Казахстаном при открытии двух новых площадок, мы взяли премию «Хостер года», запустили собственный бесплатный DNS (аналог Route53), перешли на OpenAPI в хостинге, открыли ещё две площадки: ЦОДы во Владивостоке и в Турции в Измире (это там, где было наводнение), запустили и сломали спутник (дважды), пережили крупную аварию и после неё ввели понятное SLA на доступность с денежной гарантией.

В общем, сложный был год. Налоги, катастрофы, проституция, бандитизм и недобор в армию. С последним мириться было нельзя… Простите, рассказываю по существу. Читать полностью »

image

Та самая орбитальная станция

Мы запустили собственный спутник. Точнее, в группировке есть ещё один, который выступил резервным, но наш в запуске один. Это 2U-пико-спутник размером с полпачки молока. Чтобы его запустить, надо:

  1. Достать или разработать аппаратную платформу. Обычно это корпус, солнечные батареи, аккумуляторы, контроллер питания, двигатели для остановки вращения (у нас магнитные катушки, которые отталкиваются от магнитного поля Земли), базовая система связи.
  2. Разработать полезную нагрузку для этой платформы. У нас — камера, веб-сервер и расширенная система связи.
  3. Написать софт под эту полезную нагрузку. Особенность в том, что если поставить на спутник Linux и где-то будет конфликт зависимостей, то надо будет доехать и перезагрузить. А это немного проблематично. Пишется два набора софта: чуть ли не конечные автоматы для критических операций и высокоуровневый для полезной нагрузки.
  4. Провести испытания на температуру, радиацию, вибрацию, удар, балансировку массы.
  5. Установить всё это в спутник, из которого они будут вылетать. В нашем случае это 3U-кубсат, 3-й юнит — ангар наших пико-спутников.
  6. Установить космическую станцию (кубсат) в «салазки» в корабле.
  7. После выхода на орбиту оттолкнуться пружиной от корабля и вывести кубсат на орбиту. Через полчаса ожить, установить устойчивую связь с кубсатом, провести испытания и зарегистрировать его как спутник.
  8. Выпустить рой из «ангара» (третьего юнита) и стать группировкой из 6 отдельных аппаратов. Установить связь, провести испытания, зарегистрироваться как самостоятельные спутники.
  9. Подать питание на борткомпьютер полезной нагрузки и начать выполнять миссию.

Стадии 1–8 мы прошли успешно. На стадии 9 случилась авария, и, возможно, борткомпьютер будет висеть в бесконечном цикле пару лет, пока спутник не деградирует по питанию и не перезагрузится.

В общем, давайте разберём всю ситуацию. Пока это первая часть разбора, потому что он довольно сложный. Читать полностью »

image

В комментариях к постам про разбор аварии (тут и тут) было развёрнутое обсуждение про новые технологии в ИБП, которые можно внедрить. Коротко — мы не будем внедрять ничего ультрасверхсовременного. Потому что лучшая версия для знакомства с софтом — это 2.4. В случае MS ещё хорошо, когда за цифрами написано что-то вроде SP2. Потому что если пробовать на себе все новые технологии, то это, конечно, дико интересно и прогрессивно, но мешает бизнесу. У нас дефицит свободного времени и рук. Вот, собственно, несколько прикладных историй, почему мы не торопимся нырять в новые технологии.

Пример с новым железом, на котором может строиться вся инфраструктура, думаю, знаком всем, поэтому начну не с него, а с холивара про IPv6 против IPv4.

Протокол v6 невероятно хорош. Его писали думающие люди, он снимает море проблем интернета, он реально крут. Адреса IPv6 практически бесплатные. Они не кончаются. В свою очередь, IPv4 стоят совершенно неприличных уже денег (это вторая статья в себестоимости виртуальной машины после железа), постоянно дорожают — и, что гораздо хуже, не всегда можно взять в аренду нужное их количество. Бывает, что к нам заезжает крупный клиент, мы хотим арендовать ещё 256 адресов v4 — и блок освобождается не через 15 минут, а через несколько дней. То есть нам надо постоянно ковыряться с тем, чтобы они были.

Но при этом IPv6 ещё хуже с точки зрения реального применения. Вообще, я лично не совсем понимаю, кому сейчас он нужен. Многие наши коллеги, кто пользуется, говорят просто: «В РФ v6 нет и не будет в ближайшее время, наверное». А специалисты по ИБ ещё категоричнее: «Я его просто отрубаю от греха подальше». Читать полностью »

image

Мы шутили про эти телефоны, а они пригодились на прошлых выходных. Точнее, пригодилось резервирование телефонии. Не конкретно эти, но похожие)

Вот тут пост про нашу аварию на прошлых выходных. Там всё было по горячим следам, потом я обещал подробнее ответить на вопросы. Отвечаю. Самое главное, пожалуй, что бы я хотел донести, — в комментариях к первому посту было очень много советов, что можно сделать, чтобы избежать такой же аварии. Но большинство из этого мы делать не будем. Потому что это ошибка выжившего: защищаться надо от вероятных рисков, а не от крайне маловероятных, где совпадает сразу пять факторов. Точнее, можно и от них, но есть критерий экономической обоснованности.

Но давайте обо всём по порядку.

— Сколько клиентов пострадало?

— На три часа и более в одном ЦОДе отключилось 7–10 % из 14 наших, то есть менее 0,5 % от общего числа клиентов хостинга (точнее, хостов). Тем не менее мы очень подробно рассказываем про эту аварию, потому что она вызвала очень много вопросов. Читать полностью »

floating-Nautilus-data-center-3

Еще несколько лет назад идея плавучего дата-центра казалась обычной технологической фантазией. Но после того, как компании Nautilus Data Technologies удалось реализовать такой проект, в разных странах стало появляться все больше плавучих дата-центров. И это не только дополнительные дата-центры от Nautilus, но и проекты других компаний. Давайте посмотрим, что там нам сейчас предлагают разработчики плавучих ЦОД.
Читать полностью »

Про такое обычно не пишут посты и вообще всеми силами стараются аккуратно спрятать под ковёр. Но вы нас уже раза три спросили, почему мы подняли цены на тарифы.

Отвечаю: потому что мы очень жадные!

Почему мы стали дороже в этом году - 1


Настолько жадные, что учли инфляцию, колебания курса, повышение стоимости лицензий Microsoft (а мы всё ещё не пиратим), допиздержки на серый импорт железа, повышение цен на IP-адреса и глобальное потепление. Повысили цены и всё равно остались примерно в 2–4 раза дешевле облака одного очень российского поисковика.

В общем, такие времена. Кто-то разливает молоко в пакет по 0,9 литра, а кто-то покупает в VDS-хостинг десктопное железо. Но мы уже выросли достаточно, чтобы понимать, что такое планирование вдолгую, и знаем, что важно нашим клиентам.

А нашим клиентам важно, чтобы всё шло без сюрпризов. Последние три года и так выдались удивительные, и какие-нибудь новости от хостинга — это не то, что они хотели бы.
Читать полностью »

Ещё эпические фейлы при открытии в Казахстане (почему мы так задержались) - 1

ЦОД в Астане, где мы встали

В прошлый раз я рассказал про то, как «учёный изнасиловал журналиста». Кратко: мы выпустили релиз, что встаём в ЦОДы «Транстелекома», «Форбс Казахстан» написал, что мы совместно открываем два ЦОДа, дальше наши «новообретённые» партнёры узнали много нового о себе и своих стратегических партнёрствах и очень удивились. Про эти приключения в прошлом посте.

Это не первый опыт наших эпик фейлов в Казахстане.

Оставалось купить железо, настроить оплаты и заехать в ЦОДы.

Естественно, кое-что пошло не так.
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js