- PVSM.RU - https://www.pvsm.ru -
Всем добрый день. Сегодня нам хотелось бы обсудить технологии и инструменты, обеспечивающие «программную определяемость» сетевой части дата-центров.
В первую очередь при построении SDDC стоит задуматься о технологии макровиртуализации. Она подразумевает под собой рабочий тандем системы управления виртуальными машинами (ВМ), DCIM (Data Center Infrastructure Management) и SNMP-адаптеров (Simple Network Management Protocol). DCIM с помощью адаптеров собирает и агрегирует информацию о состоянии инженерной инфраструктуры дата-центров, наличии свободных площадей, а также места в стойках. Система позволяет получать максимально полную картину того, что происходит в ЦОД компании-провайдера «здесь и сейчас». Если присовокупить к данным DCIM информацию из системы управления ВМ, это позволит определять проблемные точки в ЦОД (превышение пороговых значений температуры, нехватка электропитания и др.) и перемещать в ту или иную физическую зону дата-центра (или в другой дата-центр) нагрузку на процессорные мощности. Компания сможет осуществлять миграцию высоконагруженных виртуальных машин ближе к подходящим элементам инженерной инфраструктуры. И в зонах «накала серверных страстей» будет наиболее холодно.
Таким образом, физические дата-центры провайдера, объединенные технологией макровиртуализации, преобразуются в единую «экосистему», обладающую, помимо всего прочего, повышенной надежностью. Здесь уместна пословица «Веника не сломишь, а прутья по одному все переломаешь»: при невысоком уровне надежности инженерной инфраструктуры отдельных ЦОД все они обеспечивают полное взаимное резервирование.
Естественно, одной макровиртуализацией в случае SDDC не обойдешься. В концепцию программно-определяемого ЦОД органично ложится устойчивая тенденция снижения физической сложности инфраструктуры и перенос сложности в виртуальную, программную среду. Одним из проявлений такого подхода является идея виртуализации сетевых функций (Network Function Virtualization, NFV). Сейчас существуют как Open Source, так и коммерческие реализации в виртуальной среде сетевых устройств – коммутаторов, маршрутизаторов, балансировщиков нагрузки, межсетевых экранов и т.д. В обозримом будущем можно ожидать, что в ЦОД останутся только серверы (они же распределенные СХД) и высокопроизводительные коммутаторы с ограниченным набором функций. И подобная инфраструктура будет обеспечивать подавляющее большинство требований современного ПО, которое изначально проектируется с учетом облачного применения и виртуализации.
Почему эта тенденция устойчива, и какие преимущества дает NFV? Вот так на этот вопрос отвечают CEO 220 компаний из различных отраслей экономики, опрошенные порталом SDNCentral (см. рис. 1).

Рис. 1. Преимущества NVF (источник – SDNCentral Report on Network Virtualization 2014)
Из данных опроса видно, что почти с трехкратным отрывом лидирует показатель гибкости: виртуальный сервер значительно проще приобретается, масштабируется и т.д., чем физическое устройство. А показатели капитальных и операционных затрат хоть и отмечаются респондентами, но не находятся на лидирующих позициях.
Если конкретизировать показатели опроса, можно отметить следующие преимущества:
Благодаря применению NFV, провайдер за считанные минуты может предоставить абоненту требуемое количество и номенклатуру сетевых устройств, которые тот самостоятельно настроит в соответствии со своими уникальными требованиями. Кстати, возможность полностью управлять настройками своих арендованных сетевых устройств качественно отличает услугу от варианта, когда сети настраивает сам провайдер: это не дает заказчику контроля над настройками, многократно усложняет эксплуатацию сети для оператора и в итоге выходит всем значительно дороже.
В ситуации, когда существует стык между физической и виртуальной сетью, сразу же возникает проблема управления и настройки такой «гибридной» сети. Традиционные методы управления сетью, как правило, не устраивают либо по функциональным возможностям, либо с точки зрения парка поддерживаемого оборудования. Поэтому ИТ-индустрия стала искать «обходные пути». И правда, вместо того чтобы переконфигурировать физическую сеть в каждом отдельном случае, почему бы не оставить ее в покое, единожды настроив ее и потребовав только одного – надежности? В результате был создан новый вид сетей – оверлейные (Overlay Networks), или логические сети, создаваемые поверх физических. С сетевой точки зрения подобное делалось и раньше: под это определение вполне попадает хорошо известный стандарт IEEE 802.1q (VLAN). Разница в том, что протоколы overlay работают в маршрутизируемых сетях и обеспечивают существенно больше меток для идентификации сетей (как правило, 16 миллионов). В общем случае сеть overlay создается с помощью программных или аппаратных коммутаторов (gateway) и протоколов туннелирования (VXLAN, NVGRE, STT, GENEVE).
Благодаря overlay-сетям администратор виртуальной среды настраивает туннели между виртуальными машинами, не выполняя каких-либо настроек физических коммутаторов. Оверлейная сеть позволяет обеспечить необходимые приложениям сервисы поверх любой надежной сетевой инфраструктуры. Ее преимущества:
К недостаткам технологии можно отнести использование Multicast (требуется поддержка Multicast в физической сетевой инфраструктуре ) и рост утилизации серверов за счет необходимости инкапсуляции-декапсуляции данных overlay.
Одним из «кирпичиков» программно-определяемой сетевой среды также является технология Software Defined Networking (SDN). Призванная использовать подход NFV для высокопроизводительных сетевых коммутаторов, обеспечивающих объединение серверов в единую инфраструктуру, SDN находит себе все новых сторонников.

Рис. 2. Архитектура программно-определяемой сети
Основная идея SDN – разделение управляющих и транспортных функций сетевой инфраструктуры. Весь «интеллект» сосредоточен на отдельной аппаратной/программной базе – выделенном управляющем SDN-контроллере: он на основе заданных правил определяет работу сети. Коммутаторы при этом выполняют элементарные действия с пакетами и лишаются большинства интеллектуальных функций. Управление трафиком – взаимодействие управляющего контроллера и коммутаторов – осуществляется с помощью специальных протоколов (наиболее перспективный и активно развивающийся – OpenFlow), оперирующих понятием «поток» (flow). Через них осуществляются разнообразные действия с трафиком – запрещение, разрешение, перенаправление и т.д. SDN обеспечивает гибкость управления сетью и существенно упрощает ее администрирование.
Но основная «изюминка» SDN все же в другом: SDN-контроллер должен иметь средства интеграции с системами оркестрации и в перспективе – с приложениями. Это позволит обеспечить управление ресурсами сети на основе актуальных запросов со стороны информационных систем. Например, сеть будет динамически выделять более широкую полосу пропускания на время сеанса видеоконференцсвязи, а затем перераспределять ее в пользу других приложений. Понимание, что в сети существуют не только пакеты и потоки, но еще и приложения – одна из ключевых особенностей сетей SDN, обеспечивающая им будущее в корпоративном мире. И именно централизованная архитектура SDN делает возможным реализацию этой задачи.
Технологии SDN, NFV, DCIM и т.д, вызывают интерес у многих российских компаний – провайдеров ИТ-услуг, но полноценных реализаций SDDC в нашей стране все еще нет. Тому есть несколько принципиальных причин.
Так, на рынке отсутствуют готовые решения, позволяющие провести интеграцию DCIM-системы и ПО управления виртуальными машинами. Компании придется самостоятельно решать этот вопрос с помощью своих ИТ-специалистов или команды партнера – системного интегратора. Да и сам выбор DCIM вызывает определенные сложности. В настоящий момент это ПО предлагают две группы производителей. Первая включает в себя вендоров, исторически специализирующихся на создании решений для инженерной инфраструктуры ЦОД. При выстраивании системы управления физическими активами дата-центра они идут «снизу» – от сбора детальных данных о состоянии компонентов «инженерки».
Вторая группа – это производители, разрабатывающие решения для комплексного управления ИТ-инфраструктурой. Подобные системы обладают широким функционалом и предназначены для проведения детальных инвентаризаций, планирования размещения оборудования в ЦОД, прогнозирования, оперативного мониторинга электропотребления и т.д. То есть они решают задачу «сверху». При этом выбор того или иного решения зависит от конкретных условий. Компания должна определиться с тем, какая система необходима именно ей с учетом состояния инфраструктуры и планов развития, провести RFI, разработать KPI, сформировать шорт-лист и выполнить тестовые испытания. Все это выливается в значительные временные и трудовые затраты. Логично, что многие провайдеры откладывают это в долгий ящик, отодвигая и переход к программно-определяемой среде.
Если же говорить о технологиях NFV, SDN, Overlay Networks, то их распространение сдерживает их новизна и отсутствие полноценных, готовых к внедрению решений. В дата-центрах компаний живет привычное, давно знакомое сетевое железо, ИТ-специалисты знают его плюсы и минусы, в отличие от особенностей поведения виртуализированных сетевых устройств. Смена парадигмы требует дополнительных финансовых вливаний, но компании и так уже потратились на построение традиционной сети. При этом в настоящее время рассчитывать на возможность использования Open Source SDN-контроллеров особо не приходится: Open Source ПО для SDN представляет собой по большей частью «заготовку», которую нужно дорабатывать, прежде всего, программистам, что по карману не каждой компании. Ожидания рынка по поводу «дешевых» SDN-коммутаторов на данный момент не оправдываются: TCAM (Ternary Content Addressable Memory) для поддержки необходимого количества потоков является дорогим компонентом, соответственно, влияет на стоимость. К тому же вендоры по естественным причинам делают решения далеко не «Open»: никто из серьезных производителей не упустит возможности привязать компанию-заказчика проприетарными доработками.
С другой стороны, аппаратные решения рано или поздно потребуют замены в силу физической и моральной амортизации, поэтому при планировании дальнейшего развития ИТ-инфраструктуры компании стоит взять в расчет перспективу расширения ее виртуального уровня. К этому процессу необходимо предварительно готовиться, проверяя различные компоненты и варианты реализации решений.
Автор: jetinfosystems
Источник [1]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/it-infrastruktura/79772
Ссылки в тексте:
[1] Источник: http://habrahabr.ru/post/248017/
Нажмите здесь для печати.