Рубрика «SAN» - 5

image

Нередко на сети хранения данных возникают такие неприятные вещи, как рост числа ошибок на портах и увеличение уровня затухания сигнала на sfp модулях. Принимая во внимание высокий уровень надежности SAN инфраструктуры, состоящей из двух и более фабрик, вероятность возникновения аварийной ситуации не так велика, но наложение негативных факторов может привести к потере данных или деградации производительности. К примеру, представьте себе ситуацию: на одной из фабрик проводится обновление FOS, все работает через вторую фабрику, а на ней между коммутатором к которому подключен дисковый массив и коммутатором к которому подключены серверы начинают быстро расти CRC ошибки на одном из транковых портов. Или еще хуже, пропадает линк из-за понижения уровня сигнала, вызванного повышением температуры SFP модуля, которая в свою очередь возросла из-за повысившейся утилизации данного канала. В таких случаях обычно говорят: «Ну кто же знал» или «100% надежных систем не бывает» и тд.
Читать полностью »

По опросам 2015 года, 40% IT профессионалов из 451 опрошенного, планируют увеличить траты на конвергентные инфраструктуры. Это прямой знак того, что в 2016 году этот тренд преобретёт более широкое распространение.
NetApp Converged Infrastructure Storage. Предсказания 2016 - 1

Как и со многими технологиями, путь конвергентных инфраструктур обусловлен необходимостью простоты, скорости и уменьшения цены решения.
Читать полностью »

Среди трех предыдущих конфигураций Small/Medium/Large в архитектуре FlexPod Express появилась ещё одна под названием Cisco UCS-Managed. В этой статье пойдёт речь об этой новой конфигурации. FlexPod Express и FlexPod Datacenter деляться на два основных типа подключения: прямое подключение СХД к серверам (между СХД и серверами нет коммутатора) или через коммутатор (между СХД и серверами есть коммутатор), напомню что Fabric Interconnect это не коммутатор, а часть UCS домена серверов.
FlexPod Express: UCS-Managed конфигурация - 1
Стоит отметить несколько важных отличий новой конфигурации от предыдущих трех.

  • Во-первых в архитектуре появились Fabric Interconnect, пускай и в исполнении внутренних устройств, установленных в шасси UCS Mini с блейдами.
  • Во-вторых в архитектуре появилась возможность прямого подключения СХД к Fabric Interconnect, ранее между серверами и СХД обязательно должен был наличествовать коммутатор. При этом коммутатор должен был быть только Nexus (3048/3500/9300).
  • В третьих если у нас конфигурация FlexPod Express Cisco UCS-Managed с прямым подключением, коммутатор для подключения конечных пользователей не обязательно должен быть Nexus. Теперь это может быть любой стандартный свич поддерживающий отказоустойчивость на подобии Multi Chassis Etherchannel. Но если между UCS и FAS нужен свитч, то свич обязан быть Nexus.

Читать полностью »

NetApp, inc заключила договор о покупке SolidFire, inc за 870 млн дол. США наличными.

Основанная в 2010, SolidFire является производителем All Flash хранилищ для ЦОД нового поколения, где простое масштабирование и управление в виде «настроил и забыл» обеспечивает производительность и совместную среду Multy-Tenancy.

Компания NetApp объявила о покупке SolidFire - 1

С SolidFire NetApp даст новое предложение которое будет покрывать каждую из трех частей рынка All Flash хранилищ:

  • Для традиционных инфраструктур Enterprise заказчиков, NetApp All Flas FAS (AFF), продуктовая линейка которая предоставляет функции и возможности Enterprise уровня.
  • Для владельцев приложений, NetApp EF серию продуктов показывающих невероятно высокие значения производительности вместе с тем низкую скорость отклика (Latency) согласно открытому тестированию SPC-1, а также высокую доступность «шесть девяток».
  • Для заказчиков с инфраструктурами нового поколения, продукты от SolidFire, распределённые, самовосстанавливающиеся и расширяющуюся архитектуру, доступную цену и простое управление.

SolidFire активен в облачном сообществе и предоставляет интегрировать уравление хранением при помощи VMware vCenter plug-in, VAAI, SRM, OpenStack driver, CloudStack plug-in, Microsoft VSS provider, PowerShell, VMware SRM/SRA и других облачных решений.

Через время продукты SolidFire будут интегрированы в парадигму NetApp DataFabric предоставляя бесшовное управление облачными ресурсами, а также ресурсами flash- и дисковых масивов.
Читать полностью »

Информационные технологии становятся неотъемлемой частью продуктов и услуг нового стиля IT, в котором бизнес ожидает получить запрошенные ресурсы под новые приложения почти мгновенно. IT ресурсы, в парадигме новых требований со стороны современных приложений, должны автоматически выделяться, использоваться, возвращаться и повторно использоваться из общего пула узлов вычислений, хранения, и сети.

Рецепты от CHEFa: автоматизированное развёртывание сред бизнес-приложений с использованием HPE OneView - 1


Читать полностью »

Бюджетное SAN-хранилище на LSI Syncro, часть 2 - 1

Продолжу, первая часть тут.

Кластер

Итак, приступим к настройке софта, управляющего кластером.
У нас это будет Pacemaker + Corosync в качестве транспортного бэкенда для общения между нодами.
Corosync для большей надёжности поддерживает работу через несколько колец обмена данными.
Причём, три и более уже не тянет, хотя в доках про это нигде особо не указано, только ругается при запуске если указать более двух в конфиге.

Кольца названы так потому что общение между нодами идёт по кольцу — ноды передают данные друг другу последовательно, заодно проверяя живучесть друг друга. Работает оно по UDP, может как по мультикасту, так и по уникасту. У нас будет последний, почему — будет понятно ниже.

Кольца

Для связи между нодами я решил применить несколько параноидальную схему — внешнее кольцо через коммутаторы (тут стандартный Bonding/Etherchannel на два свича) + внутреннее кольцо, соединяющее ноды напрямую (напомню, что их три — два хранилища + свидетель).

Схема следующая:
Бюджетное SAN-хранилище на LSI Syncro, часть 2 - 2

Зелёные связи — внутреннее кольцо, чёрные — внешнее. В данной топологии ноды должны будут сохранить связность даже при полном отказе внешних устройств (шторм положил коммутаторы, админ (то бишь я) своими кривыми руками что-то напортачил… маловероятно, но всё может быть).
Читать полностью »

На сегодняшний день на рынке дисковых массивов от компании Hauwei существует легкая неразбериха. Связано это с тем, что за неполный год Huawei анонсировал целых 2 новых поколения СХД, оставляя при этом на рынке ряд решений из предыдущих линеек. При этом разница между поколениями достаточно значима.

Поэтому, я решил рассказать о текущих предложениях компании Huawei для прояснения данного вопроса.
Читать полностью »

Бюджетное SAN-хранилище на LSI Syncro, часть 1 - 1

Итак, продолжу свои редкие статьи на тему «как не платить HP/EMC/IBM многие кило-(или даже мега-) доллары и собрать своё хранилище не хуже». Прошлый цикл я до победного конца не довёл, но 90% мыслей всё же оформил в текст.

Нашей сегодняшней целью будет отказоустойчивое «All-Flash» (то есть — только из SSD, без жестких дисков, хотя это и не принципиально) хранилище для нужд кластера vSphere, в несколько раз дешевле брендовых аналогов и с очень неплохой производительностью. Подключаться к нему мы будем по Fibre Channel, но никто не мешает сделать iSCSI, FCoE или даже, о ужас, Infiniband.

Syncro

Как ясно из названия, основой всей этой богодельни станет достаточно уникальный на рынке продукт под названием Syncro CS от компании LSI (ныне Avago).

Что же оно такое есть и чем примечательно?

По сути, это комплект из двух обычных контроллеров LSI 9286-8e (либо 9271-8i, если нужны внутренние порты) и двух суперконденсаторов для сохранения кеш-памяти на флешку контроллера в случае потери питания. Стоимость комплекта при этом в несколько раз выше цены аналогичного комплекта без HA-функционала. Но, если сравнивать с решениями на базе DRBD, то эта разница с лихвой компенсируется отсутствием необходимости иметь двойной набор накопителей.

Но самое интересное кроется в прошивке. Благодаря ей, эти контроллеры, будучи подключенными к одной SAS-сети (например, дисковой корзине с экспандерами) устанавливают через неё связь друг с другом и работают в режиме отказоустойчивого кластера.

Для нас это интересно вот чем:

  • Возможность создавать RAID-массивы, доступные сразу на двух серверах
  • Отказоустойчивость на уровне контроллеров: при смерти одного из них (или целиком сервера) второй продолжит работать и обслуживать I/O

Читать полностью »

В продолжение темы об оптимизации хоста для взаимодействия с СХД NetApp FAS, эта статья будет посвещена оптимизации производительности VMWare ESXi, предыдущие статьи были посвящены тюнингу ОС Linux и Windows в среде SAN. Компания NetApp давно тесно сотрудничает с VMware, подтверждением тому может стать тот факт, что нашумевшая технология vVOL была реализована одной из первых ещё в релизе Clustered Data ONTAP 8.2.1 (Август 2014), в то время как vSphere 6.0 ещё даже не выпущен. В связи с чем системы хранения NetApp FAS крайне популярны в этом окружении.

Натройки VMWare ESXi можно разделить на следующие части:

  • Оптимизация гипервизора
  • Оптимизация гостевой ОС (GOS)
  • Оптимальные настройки SAN (FC/FCoE и iSCSI)
  • Настройки NAS (NFS)
  • Проверка совместимости оборудования, прошивок и ПО

VMware ESXi и NetApp FAS: тюнинг - 1
Читать полностью »

В этой статье я хотел бы рассмотреть более узкую тему оптимизации RedHat/Oracle Linux (с виртуализацией и без) с использованием СХД NetApp FAS в среде SAN.

Для поиска и устранения узких мест в такой инфраструктуре, нужно опредилиться с компонентами инфраструктуры, среди которых их стоит искать. Разделим инфраструктуру на следующие компоненты:

  • Настройки хоста c SAN (FC/FCoE)
  • Настройки Ethernet сети на хосте для IP SAN ( iSCSI ).
  • Собственно сам хост с ОС
  • Приложениями на Хосте
  • Проверка совместимости драйверов и версий ПО

RedHat-Oracle Linux с NetApp FAS (SAN) - 1
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js