Fluid Data: «маленькая» победа в хранении «больших» данных — часть 2

в 10:33, , рубрики: dell, fluid data, Блог компании Dell, большие объемы данных, высокая производительность, ит-инфраструктура, СХД, хранение данных, метки: , , , ,

В предыдущей части мы начали знакомство с новой технологией Fluid Data, предназначенной для улучшения жизни тем, кто имеет дело с действительно большими данными. Также были разобраны некоторые, но не все, преимущества этого решения на примере СХД Dell Compellent. Что ж, не откладывая в долгий ящик, предлагаем продолжить знакомство.

Сударь, защищайтесь! И бэкаптесь!

Админы делятся на два вида: на тех, которые ещё не делают бекапы, и на тех, которые уже делают. Бородой этой шутки, наверное, можно пару раз обернуть Землю, но актуальности своей она всё равно не потеряет. Сегодня непрерывность бизнес-процесса для компании порой весьма критична, а это значит, что хорошая СХД должна предлагать решение для возможных проблем. Какие «беды» могут ждать железо? Как минимум отключение питания, человеческий фактор (ошибки пользователей), вирусы и т.п. Однако у традиционных подходов к защите и восстановлению данных с течением времени накопилось порядочно «атавизмов»: они стали требовать слишком много дискового пространства, при этом не блеща показателями надёжности и скорости работы. К примеру, генерация мгновенных снимков вполне эффективно защищает данные (конечно при условии, что время между двумя последовательными снимками достаточно мало). Однако при этом часто приходится использовать полную зеркальную копию и клоны всего тома. А ведь ещё и RAID есть, который совсем не облегчает задачу. Добавьте сюда малоэффективное выделение ёмкостей, о котором мы говорили в предыдущей статье, и получите патовую ситуацию: снимки можно делать, но большое их количество просто негде хранить. И здесь либо придётся увеличивать время между двумя последовательными точками восстановления, либо иметь возможность откатиться на небольшой период времени. Очевидно, оба подхода «не торт».

Поэтому вполне естественным и логичным является решение, используемое в системах Dell Compellent, которое получило название Data Instant Replay. Его принцип чем-то напоминает поведение большинства онлайновых игр — на сервер стекается только информация об изменениях в игровом мире, а не видео / звук / чат / мат… В применении к бэкапам данных это означает отказ от полных зеркальных копий и последующих клонах тома в сторону записи только изменения данных с момента последнего мгновенного снимка. Такой подход неизбежно вызовет экономию дискового пространства, а в купе с Dynamic Capacity и вовсе — double damage profit.

image

Что ж, получив такой выгодный инструмент и минимизировав время между двумя снимками, необходимо позаботиться и об автоматизации процесса. Не тыкать же в кнопку самому каждые 15 секунд? Это, так сказать, попахивает Foxconn’ом  Тем не менее, эта тривиальная задача решается настройкой не менее тривиального встроенного планировщика, позволяющего автоматически запускать процесс «репликации».

Остаётся лишь привести какой-нибудь пример из жизни (картинка не в счёт), доказывающий «полезность» технологии. Представьте, что поставлена задача протестировать новые приложения или сервисы, которые компания возможно планирует внедрить в будущем. Где гарантия, что в процессе теста всё пройдёт «без сучка, без задоринки»? При использовании Data Instant Replay это можно будет сделать без всякого риска потери или порчи данных.

Админы реплицировали, реплицировали, да не выреплицировали

А теперь хотелось бы рассмотреть ситуацию, характерную для компаний, имеющих несколько крупных представительств, которые территориально удалены друг от друга, но которым необходимо иметь доступ к одной и той же информации. При этом сама информация должна быть актуальна для всех и оперативно обновляться в случае внесения кем-либо изменений. Вариантов решения несколько. К примеру, можно всё запустить «в облака». Но как быть, если необходимо организовать резервное копирование данных на удалённую площадку?

Сейчас такой подход, скажем так, не пользуется особой популярностью в силу своей стоимости и сложности в организации. К примеру, порой требуется наличие идентичного оборудования сразу на обеих площадках. А ещё ведь дополнительные траты принесёт организация высокоскоростного канала связи для синхронизации этого «добра».

Но кто сказал, что эти проблемы нельзя решить за приемлемую цену? В Dell точно не говорили. И разработали технологию «тонкой» репликации (ориг. Thin Replication) под названием Remote Instant Replay. Её идеология схожа с вышеописанным способом создания бэкапов: после первоначальной синхронизации площадок в дальнейшем по каналам связи курсируют только изменения в данных.
Выгоды очевидны:
• снижение расходов на оборудование;
• снижение расходов и требований на пропускную способность каналов связи;
• увеличение скорости восстановления информации.

Также в преимущества обязательно стоит записать относительную «всеядность» технологии, то есть на резервных площадках можно использовать недорогие диски SAS и SATA и при этом не разоряться на полосу пропускания канала. А ещё больше повысить эффективность может встроенный в системы Dell Compellent конвертер Fibre Channel-to-iSCSI, позволяющий обойтись родной IP-сетью без преобразования протоколов.

Счастья много не бывает

Напоследок остановимся ещё на одной актуальной проблеме, которая рано или поздно постигает любой успешный бизнес. Речь идёт о неизбежном росте объёмов информации. Для СХД эта проблема трансформируется в требование к масштабируемости. Беда в том, что поставщики решений тоже не дураки и хотят заработать денег. Простая аналогия: производитель имеет возможность выпускать за приемлемую цену флешки на 64 Гб. Но зачем ему это делать, если в данный момент на «пике популярности» 8 Гб? Да и куда потом девать флешки на 1, 2 и 4 Гб? Очевидно, вводить потребителя в «лучшую жизнь» надо постепенно — это выгодно и производителям, и продавцам (не выгодно только самому потребителю). Поэтому сначала появятся решения на 16, затем на 32 и только потом заветные 64 Гб.

Как это относится к СХД? Самым непосредственным образом. В «классическом» случае производители искусственно ограничивают возможности своих решений, заранее проектируя их с прицелом на быстрое устаревание.

В Dell, хотите верьте, хотите нет, решили отойти от этого принципа. Системы хранения Dell Compellent рассчитаны на длительный жизненный цикл. Саму платформу по мере роста «аппетитов» можно масштабировать от двух до тысячи терабайт ёмкости. При этом допускаются вариативные комбинации как серверных интерфейсов FC и iSCSI, так и используемых дисков (SSD, FC, SAS и SATA). Можно даже устанавливать в одной дисковой полке накопители SAS разной емкости и скорости вращения.

С другой стороны, особое внимание уделено защите от сбоев. Объединенные в кластер контроллеры, каждый из которых оборудован резервированными вентиляторами и блоками питания, совместно обеспечивают оптимальную производительность системы. Тем не менее, каждый контроллер независимо от другого подключен к дисковым полкам и дискам для устранения единой точки отказа. А виртуализация портов контроллера и дублирование канала ввода / вывода между серверами и дисками устраняет необходимость в приобретении дополнительного программного обеспечения.

Послесловие

Не стоит мириться с «грабительскими» подходами традиционных СХД, предлагающих заказчику заведомо обречённые на устаревание и ограниченные по совместимости решения. Dell Compellent обеспечивают динамичное виртуализированное хранение, которое легко адаптируется к постоянным изменениям.
В основные особенности можно записать:
• оптимизирование процесса хранения данных, позволяющее эффективно распределять дисковое пространство;
• встроенные интеллектуальные функции управления данными и возможность их автоматизации;
• улучшенную технологию мгновенных снимков;
• изначальное проектирование системы на долгосрочный период без привязки к фирменным технологиям и конкретным производителям.

Что тут добавить? Хочешь делать хорошо — делай это с Dell.

Автор: DellTeam

Поделиться

* - обязательные к заполнению поля