ETERNUS DX — новая версия микрокода

в 10:59, , рубрики: ETERNUS DX, Fujitsu, raid, Блог компании Fujitsu, дисковые массивы, Серверная оптимизация, метки: , , ,

Как уже отмечалось ранее, ETERNUS DX – это действительно единая продуктовая линейка, поэтому, как правило, и новые версии микрокодов появляются тоже одновременно для всех моделей линейки. Посмотрим, что нового появилось в последнее время для систем ETERNUS DX80/90/410/440/8700 S2. Для всех этих систем апдейт на последнюю версию микрокода добавляет следующие «фичи».:

1) Поддержку интерфейсных карт FC 16 Gbs. Возможно, сегодня не самый часто спрашиваемый интерфейс, но, раз Brocade начал активное продвижение своих коммутаторов на 16 Gb, то нет сомнения что через год большинство проектов для FC будет уже идти на 16 Gb. Тем не менее, при желании с февраля эти карты доступны к заказу.

2) Поддержка размера кэша более 1 ТБ для ETERNUS DX8700 S2.

3) Для механизма Quality of Service добавлен собственный планировщик задач (Scheduler).

4) При желании можно отключить зеркалирование кэша. Понятно, что никто не будет такого рекомендовать для критически важных конфигураций. Конечно, при установке рекордов по производительности в SPC-1 и SPC-2 кэш никто не отключал. Но, тем не менее, сегодня заказчик имеет опцию увеличения производительности ценой снижения надежности системы. Есть ряд приложений, где производительность важнее возможного риска потери данных. Понятно, что по умолчанию эта опция выключена.

5) Secure Erase/LUN shredding – дополнительная возможность удалить логический том с принудительным и гарантированным действительным удалением всей информации на томе средствами самого массива.

6) Можно создавать логические тома нового типа WSV (Wide Striping Volume). Вот это действительно интересная новая возможность, которая позволяет «размазать» один логический том между несколькими RAID-группами. Причем это не обычное «склеивание» LUN из двух логических томов, а именно поочередное использование блоков из нескольких RAID-групп. Например, при выполнении операции чтения с дисков мы будем использовать все диски всех RAID-групп, на которых расположен WSV-том. Фактически, эта технология позволяет средствами самого массива существенно увеличить производительность для одного конкретного логического тома. Аппаратные ресурсы выделенных жестких дисков и обоих контроллеров будут в полной мере использоваться для того, чтобы максимально увеличить производительность работы конкретного логического тома. Понятно, что есть ряд ограничений и best practice. Например, не самая хорошая идея делать WSV между RAID-группами, которые лежат на разных типах дисков или в разном уровне RAID.

7) Zero Reclamation для томов Thin Provisioning.

8) Поддержка и тесная интеграция Thin Provisioning самого массива с Thin Provisioning Windows Server 2012.

9) Поддержка технологии ODX (Offloaded Data Transfer) для Windows Server 2012. Реально это аналог VAAI для VmWare (который, кстати, давно уже поддерживается), но для Hyper-V.

10) Cache Partitioning – возможность ограничения максимального размера кэша, который будет выделен для того или иного логического тома.

11) Поддержка long wave SFP+. Теперь, установив эти SFP, можно разнести собственно массив от коммутатора или хоста на 4 километра. Может, кстати, получиться весьма дешевое и эффективное решение по увеличению надежности всей системы, – взять и установить дисковый массив в соседнем здании.

12) Поддержка IPv6.

13) Поддержка Internet Explorer 10 как web-браузера для мониторинга или управления.

14) Поддержка до 256 сессий моментальных снимков SnapOPC c одного источника.

Автор: ShurupAY

Источник

Поделиться

* - обязательные к заполнению поля