- PVSM.RU - https://www.pvsm.ru -
В прошлом году писали о тестировании IBM RamSan FlashSystem 820 [1]. Н а этот раз, благодаря одному крупному заказчику, в наши руки попала IBM FlashSystem 840. [2] Системе около года от роду, «детские болезни» уже позади т.е. самое время оценить её профессиональные возможности.

В ходе тестирования решались следующие задачи:
Для проведения тестирования, на объекте Заказчика, последовательно собирались 2 разных стенда.
Для тестов групп 1 и 2 нагрузка генерируется одним сервером, и стенд имеет вид, отображенный на рисунке:
![]() |
| Рисунок 1. Структурная схема тестового стенда 1. |
Сервер: IBM 3850X5, подключенного напрямую восемью соединениями 8Gb FC к .СХД IBM FlashSystem 840
Для тестов группы 3 к описанному стенду добавляется сервер IBM 3650M4, так же подключенный напрямую к СХД IBM Flash System 840. На данном этапе, каждый сервер соединяется с СХД посредством четырех оптических линков.
![]() |
| Рисунок 2. Структурная схема тестового стенда 2. |
В качестве дополнительного программного обеспечения на тестовый сервер установлен Symantec Storage Foundation 6.1, реализующий:
cfq на noop через присвоение значения noop параметру scheduler тома Symantec VxVolume/etc/sysctl.conf минимизирующий размер очереди на уровне логического менеджера томов Symantec: vxvm.vxio.vol_use_rq = 0;nr_requests тома Symantec VxVolume;nomerges тома Symantec VxVolume;/etc/modprobe.d/modprobe.conf опции ql2xmaxqdepth=64 (options qla2xxx ql2xmaxqdepth=64);На СХД выполняются следующие конфигурационные настройки по разбиению дискового пространства:
Для создания синтетической нагрузки (выполнения синтетических тестов) на СХД используется утилита Flexible IO Tester (fio) версии 2.1.4. При всех синтетических тестах используются следующие конфигурационные параметры fio секции [global]:
thread=0direct=1group_reporting=1norandommap=1time_based=1randrepeat=0ramp_time=10Для снятия показателей производительности при синтетической нагрузке применяются следующие утилиты:
iostat, входящая в состав пакета sysstat версии 9.0.4 с ключами txk;vxstat, входящая в состав Symantec Storage Foundation 6.1 c ключами svd;vxdmpadm, входящая в состав Symantec Storage Foundation 6.1 c ключами -q iostat;fio версии 2.1.4, для формирования сводного отчета по каждому профилю нагрузки.
Снятие показателей производительности во время выполнения теста утилитами iostat, vxstat, vxdmpstat производится с интервалом 5с.
Тесты выполняются посредством создания синтетической нагрузки программой fio на блоковое устройство (block device), представляющее собой логический том типа stripe, 8 column, stripe unit size=1MiB, созданный с использованием Veritas Volume Manager из 8-ми LUN, презентованных с тестируемой системы.
Тестирование состояло из 3-х групп тестов:
При создании тестовой нагрузки используются следующие параметры программы fio (в дополнение к определенным ранее):
rw=randwrite;blocksize=4K;numjobs=64;iodepth=64.Группа тестов состоит из трех тестов, отличающихся суммарным объемом LUN презентуемых с тестируемой СХД и размером блока операций в/в:
По результатам тестов на основании данных выводимых командой vxstat формируются следующие графики, совмещающие результаты тестов:
Проводится анализ полученной информации и делаются выводы о:
В ходе тестирования исследуются следующие типы нагрузок:
randomrw, rwmixedread):blocksize);ioengine);numjobs);iodepth).Группа тестов состоит из набора тестов, представляющего собой все возможные комбинации перечисленных выше типов нагрузки. Для нивелирования влияния сервисных процессов СХД (garbage collection) на результаты тестов между тестами реализуется пауза равная объему записанной в ходе теста информации разделенному на производительность сервисных процессов СХД (определяется по результатам выполнения 1-ой группы тестов).
По результатам тестов на основании данных, выводимых ПО fio по завершению каждого из тестов, формируются следующие графики для каждой комбинации следующих типов нагрузки: профиля нагрузки, способа обработки операций ввода-вывода, глубины очереди, совмещающие в себе тесты с разными значениями блока ввода-вывода:
Проводится анализ полученных результатов, делаются выводы о нагрузочных характеристиках дискового массива при latency меньше или около 1ms, о максимальных показателях производительности массива о производительности массива при однопоточной нагрузке. Так же определяется оптимальный размер блока для работы с массивом, как блок, при котором возможно осуществить максимальное количество операций в/в, передав при этом максимальное кол-во данных.
Для выполнения тестов этой группы к конфигурации стенда добавляется ещё один сервер. Дисковый массив разбивается на 16 LUN одинакового размера, суммарно занимающих весь объем СХД. Каждому серверу презентуется 8 LUN. Тесты проводятся аналогично тестам группы 2, исключение составляет то, что нагрузка генерируется одновременно двумя серверами. Оценивается суммарная производительность, полученная обоими серверами за время каждого теста. По окончании тестов делается вывод о влиянии количества серверов, генерирующих нагрузку, на производительность СХД.
Заключения:
1. При длительной нагрузке на запись в определенный момент времени фиксируется значительная деградация производительности СХД (Рисунок 3). Падение производительности ожидаемо и является особенностью работы SSD (write cliff), связанной с включением процессов garbage collection (GC) и ограниченной производительностью этих процессов. Производительность дискового массива, фиксируемую после эффекта write cliff (после падения производительности), можно рассматривать как максимальную среднюю производительность дискового массива.
![]() |
| Рисунок 3. Изменение скорости операций в/в (iops), скорости передачи данных (bandwidth) и задержек (Latency) при длительной записи блоком 4K. |
2. Размер блока при длительной нагрузке на запись влияет на производительность процесса GC. Так при маленьких блоках (4К) скорость работы GC — 640Мбайт/c, на средних и больших блоках (16К-1М) CG работает на скорости порядка 1200Mбайт/s.
3. Разница в значениях максимального времени работы СХД на пиковой производительности, фиксируемой при первом длительном тесте и последующем эквивалентном тесте с блоком 4К обусловлена тем, что СХД не было до конца заполнено перед началом тестирования.
4. Максимальное время работы СХД на пиковой производительности значимо отличается при блоке 4K и всех остальных блоках, что с большой вероятностью вызвано ограничением места СХД, резервируемом для выполнения процессов GC.
5. Для выполнения служебных процессов на СХД резервируется около 2Тбайт.
6. При тестах на СХД заполненном на 70%, падение производительности наступает незначительно позже (примерно на 10%). Изменений скорости работы процессов GC не зафиксировано.
| Скорость передачи данных (bandwidth) | Скорость в/в (IOPS) | Задержка (Latency) | |
| Полностью размеченная СХД (100% formated) |
![]() |
![]() |
![]() |
| Не полностью размеченная СХД (70% formated) |
![]() |
![]() |
![]() |
![]() |
| Таблица 1 Зависимость показателей СХД от размера блока при длительной нагрузке на запись. |
Основные результаты тестов представленных на графиках сведены в таблицы.
![]() |
| Таблица 2 Производительность СХД при одном процессе, генерирующем нагрузку (jobs=1) |
![]() |
| Таблица 3 Максимальная производительность СХД при задержках меньше 1мс |
![]() |
| Таблица 4. Максимальная производительность СХД при задержках до 3мс |
![]() |
| Таблица 5 Максимальная производительность СХД при различном профиле нагрузки. |
Графики производительности блочного устройства при разных типах нагрузки, генерируемой двумя серверами.
(Все картинки кликабельны)
1. Максимально зафиксированные параметры производительности для СХД (из средних за время выполнения каждого теста — 3 мин):
Запись:
Чтение:
Смешанная нагрузка (70/30 rw)
Минимально зафиксированная latency:
2. СХД входит в режим насыщения при
3. На операциях чтения большими блоками (16К-1М) получена пропускная способность более 6 Гбайт/с, что примерно соответствует суммарной пропускной способности интерфейсов, используемых при подключении сервера к СХД. Таким образом, ни контроллеры СХД, ни флэш-накопители, не являются «узким местом» системы.
4. Массив при асинхронном способе в/в выдает в 1,5 — 2 раза большую производительность на маленьких блоках (4-8К), чем при синхронном способе в/в. На больших и средних блоках (16К-1М) производительность при синхронном и асинхронном в/в примерно равна.
5. На приведенных ниже графиках отображена зависимость максимальных полученных показателей производительности тестируемой СХД (IOPS и скорости передачи данных) от размера блока операций в/в. Характер графиков позволяет сделать следующие выводы:
![]() |
| Максимальные показатели производительности при чтении и записи синхронным способом в/в различным размером блока. |
![]() |
| Максимальные показатели производительности при чтении и записи асинхронным способом в/в (qd32) различным размером блока. |
По каждому из тестов была получена производительность, совпадающая в пределах погрешности 5% с результатами тестов группы 2, когда нагрузка генерировалась одним сервером. Мы не стали приводить графики и данные о производительности по тестам группы 3, в следствии их идентичности результатам 2-й группы.
Иными словами, исследование показало, что сервер не является «узким местом» тестового стенда.
В целом, система показала великолепные результаты. Нам не удалось выявить очевидных «узких мест» и явных проблем. Все результаты стабильны и прогнозируемы. Сравнивая с нашим предыдущим тестированием IBM FlashSystem 820 стоит отметить отличия интерфейсов управления. 820-я модель управляется, порой вызывающим неудобства, java апплетом, доставшимся в наследство от RamSan 820 производства Texas Instruments. В то время, как 840-я имеет уже привычный для продуктов IBM web-интерфейс напоминающий XIV Storage System и Storwize. Работать с ними заметно приятнее и, в конечном счете, быстрее.
Кроме этого, IBM FlashSystem 840 обзавелся необходимыми для устройств enterprise класса возможностями горячей замены всех компонентов и обновления микрокода «на лету». Существенно расширился выбор возможных интерфейсов подключения и конфигураций флэш-модулей.
К недостаткам, пожалуй, можно отнести наличие деградации производительности при длительной записи. Хотя, это скорее недостаток сегодняшних технологий флэш-памяти, проявляющийся в следствие того, что производитель не стал искусственно ограничивать скорость работы системы. Даже при длительной максимальной нагрузке на запись и после падения производительности, СХД показывала замечательные результаты.
P.S. Автор выражает сердечную благодарность Павлу Катасонову, Юрию Ракитину и всем другим сотрудникам компании участвовавшим в подготовке данного материала.
Автор: MrCleaner
Источник [12]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/ibm/86646
Ссылки в тексте:
[1] IBM RamSan FlashSystem 820: http://habrahabr.ru/company/inline_tech/blog/227887/
[2] IBM FlashSystem 840.: http://www-03.ibm.com/systems/ru/storage/flash/840/
[3] Image: http://habrastorage.org/getpro/habr/post_images/1d2/b58/ce9/1d2b58ce95f32164a6fff9f5240fed20.jpg
[4] Image: http://habrastorage.org/getpro/habr/post_images/ab6/802/c05/ab6802c053cce2ff72fde0931aeca0d0.jpg
[5] Image: http://habrastorage.org/getpro/habr/post_images/e93/dc5/970/e93dc5970edc6f1f412d7745a838e0c8.jpg
[6] Image: http://habrastorage.org/getpro/habr/post_images/c65/eba/9e4/c65eba9e4f461d881a8f6a5365d098b2.jpg
[7] Image: http://habrastorage.org/getpro/habr/post_images/8a0/0d5/7ef/8a00d57efdc0bbb0bfb8004c510f3e86.jpg
[8] Image: http://habrastorage.org/getpro/habr/post_images/b11/273/7eb/b112737eb69115608bc9d3a28f6653d0.jpg
[9] Image: http://habrastorage.org/getpro/habr/post_images/ea9/df2/f39/ea9df2f39f730282bcd1b1bb3021c042.jpg
[10] Image: http://habrastorage.org/getpro/habr/post_images/9f8/bbc/3c5/9f8bbc3c5c170b8af3c196c1ff1535dc.jpg
[11] Image: http://habrastorage.org/getpro/habr/post_images/787/cf1/509/787cf1509fb9ca3dfb248b2f1bc3872b.jpg
[12] Источник: http://habrahabr.ru/post/253785/
Нажмите здесь для печати.