- PVSM.RU - https://www.pvsm.ru -

Тестирование флеш СХД. Влияние файловых систем

В ходе тестирований производительности ведущих флеш-систем мы, в какой то момент, задались вопросами: Каково же влияние файловой системы на производительность реальной СХД? Насколько оно существенно и от чего зависит?

Известно, что файловая система является инфраструктурным программным слоем, реализуемым на уровне ядра ОС (kernel space) или, что реже — на пользовательском уровне (user space). Будучи промежуточным слоем между прикладным/системным ПО и дисковым пространством, файловая система должна вносить свою паразитную нагрузку, влияющую на показатели производительности системы. Следовательно, при расчетах реальной производительности СХД следует учитывать зависимость фиксируемых параметров от реализации файловой системы и ПО, использующего данную файловую систему.

Программа тестирования.

С целью исследования накладных расходов создаваемых различными файловыми системами (EXT4, VXFS, CFS) на производительность СХД был создан стенд подробно описанный в статье Тестирование флеш СХД. IBM RamSan FlashSystem 820. [1]
Тесты выполнялись посредством создания синтетической нагрузки программой fio на блоковое устройство (block device), представляющее собой логический том типа stripe, 8 column, stripe unit size=1MiB, созданный с использованием Veritas Volume Manager из 8-ми LUN, презентованных с тестируемой системы. По отношению к файловой системе выполнялись тесты эквивалентные описанным в статье Тестирование флеш СХД. IBM RamSan FlashSystem 820.
Затем, строились графики, отображающие влияние файловой системы на производительность СХД (разница производительности в % от полученной при тестировании блочного устройства) и делались выводы о степени влияния файловой системы на производительность СХД.

Тестирование флеш СХД. Влияние файловых систем

Рисунок 1. Структурная схема тестового стенда №1. (кликабельна)

Тесты производительности дискового массива при разных типах нагрузки, исполняемые на уровне файловой системы ext4.

Тип файловой систем ext4.
Блок файловой системы 4K.
Файловая система смонтирована с опциями монтирования noatime, nobarrier.
На созданной файловой системе формируется 16 файлов одинакового объема на весь объем файловой системы. Имена всех сформированных файлов приводятся в качестве значения параметра filename программы fio (при запуске тестов генерируемая нагрузка будет равномерно распределяться между всеми созданными файлами).

Тесты производительности дискового массива при разных типах нагрузки, исполняемые на уровне файловой системы vxfs.

Тип файловой систем vxfs.
Блок файловой системы 8K.
Файловая система смонтирована с опциями монтирования cio,nodatainlog,noatime,convosync=unbuffered
Дополнительные параметры настройки файловой системы, реализуемые через команду vxtunefs следующие:

  • initial_extent_size=2048;
  • read_ahead=0.

Полученные графики накладываются на результаты предыдущих тестирований и делается вывод о степени влияния файловой системы на производительность СХД.

Тесты производительности дискового массива при разных типах нагрузки, генерируемой двумя серверами на кластерную файловую систему Symantec CFS.

На данном этапе к стенду добавляется ещё один тестовый сервер.

Тестирование флеш СХД. Влияние файловых систем

Рисунок 2. Структурная схема тестового стенда №2

На добавленный сервер устанавливается ПО, эквивалентное установленному на первый сервер, делаются такие же настройки по оптимизации. Все 8 LUN с СХД презентуются обоим серверам. На них средствами Symantec Volume Manager создается кластерный том striped, 8 columns, unit size=1024KB. На этом томе создается файловая система CFS, которая монтируется с опциями cio,nodatainlog,noatime,nomtime,convosync=unbuffered на оба сервера. На файловой системе создаются 16 файлов, к которым имеют доступ оба сервера. На серверах одновременно запускаются тесты, аналогичные предыдущим. Сперва, на все множество из созданных 16 файлов. Затем, с каждого сервера на свое, не пересекающимся с другим, подмножество из 8 файлов. По результатам строятся графики разницы полученных показателей и делаются выводы о степени влияния кластерной файловой системы Symantec CFS на производительность.

Результаты тестирования

Графики производительности при тестировании файловых систем ext4 и vxfs по отношению к блочному устройству.

(Все картинки кликабельны)

Синхронным способом в/в Асинхронным способом в/в с глубиной очереди 32 Асинхронным способом в/в с глубиной очереди 64
При случайном чтении Тестирование флеш СХД. Влияние файловых систем [2] Тестирование флеш СХД. Влияние файловых систем [3] Тестирование флеш СХД. Влияние файловых систем [4]
При записи Тестирование флеш СХД. Влияние файловых систем [5] Тестирование флеш СХД. Влияние файловых систем [6] Тестирование флеш СХД. Влияние файловых систем [7]
При смешанной нагрузке (70% чтение, 30% запись) Тестирование флеш СХД. Влияние файловых систем [8] Тестирование флеш СХД. Влияние файловых систем [9] Тестирование флеш СХД. Влияние файловых систем [10]

Выводы сравнения EXT4 и VXFS

  1. Файловая система оказывает значимое влияние на производительность СХД,  вплоть до её 50%-го падения.
  2. При возрастании нагрузки на СХД влияние файловой системы на производительность, в большинстве случаев, снижается (дисковый массив выходит в  насыщение, и накладные расходы на файловые системы становятся не заметными на фоне значимого возрастания латентности  на уровне дискового массива).
  3. Файловая система vxfs демонстрирует прирост производительности на операции асинхронной записи и чтении при низкой нагрузке на дисковый массив. Вероятно, обусловленный использованием опции монтирования convosync=unbuffered, подразумевающей прямую передачу данных между буфером в адресном пространстве пользователя и диском (без  копирования данных в буфер ядра операционной системы). Обозначенный эффект не наблюдается на файловой системе ext4. Показатели производительность файловой системы ext4 хуже в сравнении с блоковым устройством при всех измерениях.
  4. При нахождении СХД в режиме насыщения файловая система vxfs показывает сравнимые показатели с файловой системой ext4. Как правило, конфигурацию СХД  выбирают таким образом, что бы она не находилась в режиме насыщения в штатном режиме работы, поэтому полученная более низкая производительность vxfs в сравнении с ext4 не является значимым показателем качества файловой системы.
  5. Существенные колебания относительной производительности файловых систем при синхронном вводе-выводе, вероятно, обусловлены отсутствием оптимизации драйверов файловых систем к низко-латентным SSD дискам и наличием дополнительных операций ввода-вывода по изменению метаданных файловых систем. Не исключено, что дополнительные настройки файловых систем позволят снизить эти колебания.

Тесты производительности дискового массива при разных типах нагрузки, генерируемой двумя серверами на кластерную файловую систему Symantec CFS.

Графики относительной производительность, полученной при различных тестах

(Все картинки кликабельны)

Запись Чтение Смешанный в/в
Производительность (iops), полученная при тестировании кластерной файловой системы посредством нагрузки с двух серверов на одно множество файлов по отношению к производительности при нагрузке на разное множество файлов. За 0 принята произв. при нагрузке на разное множество файлов. Тестирование флеш СХД. Влияние файловых систем [11] Тестирование флеш СХД. Влияние файловых систем [12] Тестирование флеш СХД. Влияние файловых систем [13]

Производительность (iops), полученная при тестировании кластерной файловой системы посредством нагрузки с двух серверов на одно множество файлов по отношению к произв., полученной для vxfs при одном сервере. За 0 принята проив. vxfs. Тестирование флеш СХД. Влияние файловых систем [14]

Тестирование флеш СХД. Влияние файловых систем [15]

Тестирование флеш СХД. Влияние файловых систем [16]

Выводы сравнения CFS и VXFS

  1. Производительность при нагрузке с обоих серверов на одни и те же 16 файлов одновременно не отличается от производительности, полученной при нагрузке каждого сервера на свои 8 файлов. (небольшие скачки (увеличение производительности на 20% при чтении блоками 4-8K при нагрузке на одно множество файлов, скорее всего, обусловлены фоновыми процессами на самой СХД, т.к. тесты выполнялись подряд). Наблюдения за загрузкой Ethernet соединений между серверами, используемыми для интерконнекта, показали отсутствие значимой нагрузки, что является преимуществом CFS при работе нескольких серверов с одним множеством файлов
  2. Примерно одинаковая производительность при записи, в обоих случаях. За исключением маленьких блоков (4-8K) где  результаты CFS в 2-3 раза выше, чем у VXFS. На смешанном в/в CFS на 10-20% лучше, чем VXFS.
  3. Кластерная файловая система CFS не оказывает негативного влияния на производительность. В некоторых случаях получена даже большая производительность. Это может быть вызвано лучшим распараллеливанием нагрузки с двух серверов, чем с одного.

Автор: MrCleaner

Источник [17]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/it-infrastruktura/68801

Ссылки в тексте:

[1] Тестирование флеш СХД. IBM RamSan FlashSystem 820.: http://habrahabr.ru/company/inline_tech/blog/227887/

[2] Image: http://habrastorage.org/getpro/habr/post_images/bd1/7b4/9e4/bd17b49e401a229ec32232a5e87bd1c4.jpg

[3] Image: http://habrastorage.org/getpro/habr/post_images/44a/116/b4a/44a116b4a02d5967a3c42d3b25dda7f6.jpg

[4] Image: http://habrastorage.org/getpro/habr/post_images/d11/a87/f76/d11a87f76331379715637fba54eaa956.jpg

[5] Image: http://habrastorage.org/getpro/habr/post_images/2e3/cc3/4fd/2e3cc34fd27cdaeef4131acdd377c0c8.jpg

[6] Image: http://habrastorage.org/getpro/habr/post_images/d49/af5/aa4/d49af5aa49a59b03515e50541b358347.jpg

[7] Image: http://habrastorage.org/getpro/habr/post_images/442/4f9/cf9/4424f9cf9a5b47dff0f43570e770ceba.jpg

[8] Image: http://habrastorage.org/getpro/habr/post_images/add/0ef/89d/add0ef89dd96e69793dc6efb81324d2d.jpg

[9] Image: http://habrastorage.org/getpro/habr/post_images/aa4/e63/95a/aa4e6395ac1e97c9e4f1714c7cd30c5e.jpg

[10] Image: http://habrastorage.org/getpro/habr/post_images/2ac/9d3/785/2ac9d3785c43c0900d5bae498839e3a5.jpg

[11] Image: http://habrastorage.org/getpro/habr/post_images/286/2b9/f21/2862b9f217c47e918d38ed53d7592e8c.jpg

[12] Image: http://habrastorage.org/getpro/habr/post_images/95d/372/6e6/95d3726e6b3be4db223badc4b445ae20.jpg

[13] Image: http://habrastorage.org/getpro/habr/post_images/f69/f6d/8db/f69f6d8db1c96fba0442eb851ad19a60.jpg

[14] Image: http://habrastorage.org/getpro/habr/post_images/32c/7fc/053/32c7fc053a3f7c6d38590911e842fa88.jpg

[15] Image: http://habrastorage.org/getpro/habr/post_images/c53/a38/9ea/c53a389eaa1943be5602add054d30d70.jpg

[16] Image: http://habrastorage.org/getpro/habr/post_images/d50/b92/fc6/d50b92fc6459e5d5c94d88f2b0cba606.jpg

[17] Источник: http://habrahabr.ru/post/235315/