Sas роз'єм. Безпрецедентна сумісність послідовних інтерфейсів

Вступ

Подивіться на сучасні материнські плати (або навіть деякі більш старі платформи). Чи потрібний для них спеціальний RAID-контролер? На більшості материнських плат є тригігабітні порти SATA, також як аудіо-роз'єми та мережні адаптери. Більшість сучасних чіпсетів, таких як AMD A75і Intel Z68мають підтримку SATA на 6 Гбіт/с. За такої підтримки з боку чіпсету, потужного процесора та наявності портів вводу/виводу, чи потрібні вам додаткові карти для систем зберігання та окремий контролер?

У більшості випадків звичайні користувачі можуть створити масиви RAID 0, 1, 5 і навіть 10, використовуючи вбудовані порти SATA на материнській платі та спеціальне програмне забезпечення, при цьому можна отримати дуже високу продуктивність. Але в тих випадках, коли потрібний складніший рівень RAID – 30, 50 або 60 – вищий рівень керування диском або масштабованість, то контролери на чіпсеті можуть не впоратися з ситуацією. У разі потрібні рішення професійного класу.

У таких випадках ви не обмежені системами зберігання SATA. Багато спеціальних карт забезпечують підтримку SAS (Serial-Attached SCSI) чи дисків Fibre Channel (FC), кожен із цих інтерфейсів несе із собою унікальні переваги.

SAS та FC для професійних рішень RAID

Кожен із трьох інтерфейсів (SATA, SAS та FC) має свої плюси та свої мінуси, жодний з них не може бути беззастережно названий найкращим. Сильні сторони приводів на базі SATA полягають у високій ємності та низькій ціні, у поєднанні з високими швидкостями передачі даних. Диски SAS славляться своєю надійністю, масштабованістю та високою швидкістю вводу/виводу. Системи зберігання FC забезпечують постійну та дуже високу швидкість передачі даних. Деякі компанії досі використовують рішення Ultra SCSI, хоча вони можуть працювати не більше ніж з 16 пристроями (один контролер та 15 дисків). Більше того, смуга пропускання в цьому випадку не перевищує 320 Мбайт/с (у разі Ultra-320 SCSI), що не може конкурувати з більш сучасними рішеннями.

Ultra SCSI – це стандарт професійних корпоративних рішень систем зберігання. Однак SAS набуває все більшої популярності, оскільки пропонує не тільки істотно більшу смугу пропускання, але також і більшу гнучкість при роботі зі змішаними системами SAS/SATA, що дозволяє оптимізувати витрати, продуктивність, готовність і ємність навіть в єдиному JBOD (наборі дисків). Крім того, багато SAS-диски мають два порти з метою можливості резервування. Якщо одна карта контролера виходить з ладу, перемикання дисковода на інший контролер дозволяє уникнути відмови всієї системи. Таким чином, SAS забезпечує високу надійність всієї системи.

Більше того, SAS - це не тільки протокол "точка-точка" для з'єднання контролера та пристрою зберігання. Він підтримує до 255 пристроїв зберігання на порт SAS під час використання експандера. Використовуючи дворівневу структуру експандерів SAS, теоретично, можна приєднати до одного каналу SAS 255 x 255 (або трохи більше 65 000) пристроїв зберігання, якщо контролер здатний підтримувати таке велике число пристроїв.

Adaptec, Areca, HighPoint та LSI: тести чотирьох контролерів SAS RAID

У цьому порівняльному тесті ми досліджуємо продуктивність сучасних SAS RAID-контролерів, представлених чотирма продуктами: Adaptec RAID 6805, Areca ARC-1880i, HighPoint RocketRAID 2720SGL і LSI MegaRAID 9265-8i.

Чому SAS, а чи не FC? З одного боку, SAS – на сьогоднішній день найбільш цікава і доречна архітектура. Вона надає такі можливості, як зонування, яке є дуже привабливим для професійних користувачів. З іншого боку, роль FC на професійному ринку знижується, а деякі аналітики навіть передбачають її повний догляд, ґрунтуючись на кількості жорстких дисків. На думку експертів IDC, майбутнє FC виглядає досить похмурим, а ось жорсткі диски SAS можуть претендувати на 72% ринку корпоративних жорстких дисків у 2014 році.

Adaptec RAID 6805

Виробник чіпів PMC-Sierra вивів на ринок серію "Adaptec by PMC" сімейства контролерів RAID 6 наприкінці 2010 р. 6 Гбіт/с на SAS-порт. Є три низькопрофільні моделі: Adaptec RAID 6405 (4 внутрішні порти), Adaptec RAID 6445 (4 внутрішні та 4 зовнішні порти) і та, що ми тестували – Adaptec RAID 6805 з вісьмома внутрішніми портами, вартістю близько $460.

Всі моделі підтримують JBOD та RAID всіх рівнів – 0, 1, 1E, 5, 5EE, 6, 10, 50 та 60.

З'єднаний із системою через інтерфейс x8 PCI Express 2.0, Adaptec RAID 6805 підтримує до 256 пристроїв через SAS експандер. Відповідно до специфікацій виробника, стабільна швидкість передачі даних в систему може досягати 2 Гбайт/с, а пікова може досягати 4.8 Гбайт/с на агрегований SAS-порт і 4 Гбайт/с на інтерфейс PCI Express - остання цифра - максимальне теоретично можливе значення для шини PCI Express 2.0 х.

ZMCP без необхідності підтримки

Наш тестовий зразок прийшов із Adaptec Falsh Module 600, який використовує Zero Maintenance Cache Protection (ZMCP) та не використовує застарілий Battery Backup Unit (BBU). Модуль ZMCP – це блок із флеш-чіпом на 4 Гбайт NAND, який використовується для резервного копіювання кеш-пам'яті контролера у разі відключення енергоживлення.

Оскільки копіювання з кеш-пам'яті у флеш-пам'ять відбувається дуже швидко, Adaptec використовує конденсатори для підтримки живлення, а не акумулятори. Перевага конденсаторів полягає в тому, що вони можуть працювати так довго, як і самі карти, тоді як резервні акумулятори повинні замінюватися кожні кілька років. Крім того, колись скопійовані у флеш-пам'ять дані можуть зберігатися там кілька років. Для порівняння: ви зазвичай маєте близько трьох днів для зберігання даних перед тим, як кешована інформація буде втрачена, що змушує вас поспішати з відновленням даних. Як і передбачає сама назва ZMCP, це рішення, здатне протистояти відмовам щодо енергоживлення.


Продуктивність

Adaptec RAID 6805 у режимі RAID 0 програє у наших тестах потокового читання/запису. Крім того, RAID 0 – це не типовий випадок для бізнесу, якому потрібний захист даних (хоча він цілком може використовуватися для робочої станції, що займається рендерингом відео). Послідовне читання йде швидкості 640 Мбайт/с, а послідовна запис – на 680 Мбайт/с. За цими двома параметрами LSI MegaRAID 9265-8i займає верхню позицію у наших тестах. Adaptec RAID 6805 працюють краще в тестах RAID 5, 6 та 10, але не є абсолютним лідером. У конфігурації лише з SSD, контролер Adaptec працює на швидкості до 530 Мбайт/с, але його перевершують контролери Areca та LSI.

Карта Adaptec автоматично розпізнає те, що вона називає конфігурацією HybridRaid, яка складається із суміші жорстких та SSD-дисків, пропонуючи RAID на рівнях від 1 до 10 у такій конфігурації. Ця карта перевершує своїх конкурентів завдяки спеціальним алгоритмам читання/запису. Вони автоматично направляють операції читання на SSD, а операції запису і жорсткі диски, і на SSD. Таким чином, операції читання будуть працювати як в системі тільки з SSD, а запис працюватиме не гірше, ніж у системі з жорстких дисків.

Проте результати наших тестів не відбивають теоретичної ситуації. За винятком бенчмарків для Web-сервера, де працює швидкість передачі даних для гібридної системи, гібридна система SSD та жорстких дисків не може наблизитися до швидкості роботи системи лише з SSD.

Контролер Adaptec показує себе набагато краще у тесті продуктивності вводу/виводу для жорстких дисків. Незалежно від типу бенчмарків (база даних, файл-сервер, Web-сервер або робоча станція), контролер RAID 6805 йде нога в ногу з Areca ARC-1880i та LSI MegaRAID 9265-8i і займає перше або друге місця. Тільки HighPoint RocketRAID 2720SGL лідирує у тесті вводу/виводу. Якщо замінити жорсткі диски на SSD, то LSI MegaRAID 9265-8i суттєво обганяє три інші контролери.

Встановлення ПЗ та налаштування RAID

Adaptec і LSI мають добре організовані і прості в роботі засоби для управління RAID. Інструменти керування дозволяють адміністраторам отримати віддалений доступ до контролерів через мережу.

Встановлення масиву

Areca ARC-188oi

Areca також виводить серію ARC-1880 у ринковий сегмент контролерів 6 Гбіт/с SAS RAID. За твердженням виробника, цільові програми простягаються від додатків NAS та серверів систем зберігання до високопродуктивних обчислень, резервування, систем забезпечення безпеки та хмарних обчислень.

Протестовані зразки ARC-1880i з вісьмома зовнішніми портами SAS та вісьмома лініями інтерфейсу PCI Express 2.0 можна придбати за $580. Низькопрофільна карта, яка є єдиною картою в нашому наборі з активним кулером, побудована на базі 800 МГц ROC з підтримкою кешу даних 512 Мбайт DDR2-800. Використовуючи експандери SAS, Areca ARC-1880i підтримує до 128 систем зберігання даних. Щоб зберегти вміст кешу при відмові енергоживлення, до системи опціонально може бути додано акумуляторне джерело живлення.

Крім одиночного режиму та JBOD, контролер підтримує рівні RAID 0, 1, 1E, 3, 5, 6, 10, 30, 50 та 60.

Продуктивність

Areca ARC-1880i добре справляється з тестами читання/запису RAID 0, досягаючи 960 Мбайт/с для читання і 900 Мбайт/с для запису. Тільки LSI MegaRAID 9265-8i виявляється швидше у цьому конкретному тесті. Контролер Areca не розчаровує і інших бенчмарках. І в роботі з жорсткими дисками, і з SSD цей контролер завжди активно конкурує з переможцями тестів. Хоча контролер Areca став лідером тільки в одному бенчмарку (послідовне читання в RAID 10), він демонстрував дуже високі результати, наприклад швидкість читання в 793 Мбайт/с в той час, як найшвидший конкурент, LSI MegaRAID 9265-8i, показав тільки 572 Мбайт/с.

Однак послідовна передача інформації – це лише одна із частин картини. Друга – продуктивність введення/виводу. Areca ARC-1880i і тут виступає блискуче, на рівних суперничаючи з Adaptec RAID 6805 та LSI MegaRAID 9265-8i. Аналогічно своїй перемозі в бенчмарку за швидкістю передачі даних, контролер Areca переміг і в одному з тестів введення/виводу - бенчмарку Web-сервер. Контролер Areca домінує в бенчмарку Web-сервер на рівнях RAID 0, 5 і 6, а RAID 10 вперед виривається Adaptec 6805, залишаючи контролер Areca на другому місці з невеликим відставанням.

Web GUI та встановлення параметрів

Як і HighPoint RocketRAID 2720SGL, Areca ARC-1880i зручно керується через Web-інтерфейс і просто налаштовується.

Встановлення масиву

HighPoint RocketRAID 2720SGL

HighPoint RocketRAID 2720SGL – це SAS RAID-контролер із вісім внутрішніми SATA/SAS-портами, кожен з яких підтримує 6 Гбіт/с. За інформацією виробника, ця низькопрофільна карта орієнтована на системи зберігання для малого та середнього бізнесу, та на робочі станції. Ключовий компонент картки – це RAID-контролер Marvell 9485. Основні конкурентні переваги – малі розміри та інтерфейс PCIe 2.0 на 8 ліній.

Крім JBOD, картка підтримує RAID 0, 1, 5, 6, 10 та 50.

Крім тієї моделі, що була протестована в наших тестах, у низькопрофільній серії HighPoint 2700 є ще 4 моделі: RocketRAID 2710, RocketRAID 2711, RocketRAID 2721 та RocketRAID 2722, які, в основному, відрізняються типами портів (внутрішній/зовнішній) та їх від 4 до 8). У наших тестах використовувався найдешевший із цих RAID-контролерів RocketRAID 2720SGL ($170). Усі кабелі до контролера купуються окремо.

Продуктивність

У процесі послідовного читання/запису до масиву RAID 0, що складається з восьми дисків Fujitsu MBA3147RC, HighPoint RocketRAID 2720SGL демонструє відмінну швидкість читання 971 Мбайт/с, поступаючись тільки LSI MegaRAID 9265-8i. Швидкість запису – 697 Мбайт/с – не така висока, але тим не менш перевищує швидкість запису Adaptec RAID 6805. RocketRAID 2720SGL також демонструє цілий спектр різних результатів. При роботі з масивами RAID 5 і 6 він перевершує інші карти, але з RAID 10 швидкість читання падає до 485 Мбайт/с - найнижче значення серед чотирьох зразків, що тестуються. Послідовна швидкість запису в RAID 10 ще гірша – лише 198 Мбайт/с.

Цей контролер не створений для SSD. Швидкість читання досягає 332 Мбайт/с, а швидкість запису – 273 Мбайт/с. Навіть Adaptec RAID 6805, який також не надто гарний у роботі з SSD, показує вдвічі кращі результати. Тому HighPoint не є конкурентом для двох карт, які працюють із SSD дійсно добре: Areca ARC-1880i та LSI MegaRAID 9265-8i – вони працюють як мінімум утричі швидше.

Все, що ми змогли сказати хорошого про роботу HighPoint у режимі введення/виводу, ми сказали. Проте RocketRAID 2720SGL займає останнє місце в наших тестах з усіх чотирьох бенчмарків Iometer. Контролер HighPoint цілком конкурентоспроможний іншим картам при роботі з бенчмарком для Web-сервера, але суттєво програє конкурентам за трьома іншими бенчмарками. Це стає очевидним у тестах із SSD, де RocketRAID 2720SGL явно демонструє, що він не оптимізований для роботи із SSD. Він явно не використовує всі переваги SSD у порівнянні з жорсткими дисками. Наприклад, RocketRAID 2720SGL показує 17378 IOPs в бенчмарку баз даних, а LSI MegaRAID 9265-8i перевершує його за цим параметром у чотири рази, видаючи 75037 IOPs.

Web GUI та установки для масиву

Web-інтерфейс RocketRAID 2720SGL зручний та простий у роботі. Всі параметри RAID встановлюються легко.

Встановлення масиву

LSI MegaRAID 9265-8i

LSI позиціонує MegaRAID 9265-8i як пристрій для ринку малого та середнього бізнесу. Ця карта підходить для забезпечення надійності у хмарах та інших бізнес-додатків. MegaRAID 9265-8i – один із найдорожчих контролерів у нашому тесті (він коштує $630), але, як показує тест, ці гроші платяться за його реальні переваги. Перед тим, як ми представимо результати тестів, давайте обговоримо технічні особливості цих контролерів та програмні програми FastPath та CacheCade.

LSI MegaRAID 9265-8i використовує двоядерний LSI SAS2208 ROC, який використовує інтерфейс PCIe 2.0 із вісьмома лініями. Число 8 наприкінці найменування пристрою означає наявність восьми внутрішніх портів SATA/SAS, кожен із яких підтримує швидкість 6 Гбіт/с. До 128 пристрої зберігання можуть бути підключені до контролера через експандер SAS. Карта LSI містить 1 Гбайт кешу DDR3-1333 і підтримує рівні RAID 0, 1, 5, 6, 10 та 60.

Налаштування ПЗ та RAID, FastPath та CacheCade

LSI стверджує, що FastPath може суттєво прискорити роботу систем введення/виводу при підключенні SSD. За словами експертів компанії LSI, FastPath працює з будь-яким SSD, помітно збільшуючи продуктивність запису/читання RAID-масиву на базі SSD: у 2.5 рази при записі та в 2 рази при читанні, досягаючи 465 000 IOPS. Цю цифру ми не змогли перевірити. Тим не менш, ця карта змогла вичавити максимум із п'яти SSD і без використання FastPath.

Наступний додаток для MegaRAID 9265-8i називається CacheCade. З його допомогою можна використовувати один SSD як кеш-пам'ять для масиву жорстких дисків. За словами експертів LSI, це може прискорити процес зчитування разів у 50, залежно від розміру даних, додатків і методу використання. Ми спробували цю програму на масиві RAID 5, що складається з 7 жорстких дисків і одного SSD (SSD використовувався для кеша). У порівнянні з системою RAID 5 з 8 жорстких дисків, стало очевидно, що CacheCade не тільки підвищує швидкість вводу/виводу, але також і загальну продуктивність (тим більше, ніж менший обсяг даних, що постійно використовуються). Для тестування ми використовували 25 Гбайт даних та отримали 3877 IOPS на Iometer у шаблоні для Web-сервера, тоді як звичайний масив жорстких дисків дозволяв отримати лише 894 IOPS.

Продуктивність

Зрештою виявляється, що LSI MegaRAID 9265-8i – це найшвидший із усіх SAS RAID-контролерів у цьому огляді в операціях введення/виводу. Однак, у процесі послідовних операцій читання/запису контролер демонструє продуктивність середнього рівня, оскільки його продуктивність при послідовних діях залежить від рівня RAID, який ви використовуєте. При тестуванні жорсткого диска лише на рівні RAID 0 ми отримуємо швидкість послідовно читання 1080 Мбайт/с (що значно перевищує показники конкурентів). Швидкість послідовного запису на рівні RAID 0 йде на рівні 927 Mбайт/с, що також вище, ніж у конкурентів. А ось для RAID 5 і 6 контролери LSI поступаються всім своїм конкурентам, перевершуючи їх тільки в RAID 10. У тесті SSD RAID LSI MegaRAID 9265-8i демонструє кращу продуктивність при послідовному записі (752 Mбайт/с) і тільки Areca ARC-1880i перевершує за параметрами послідовного читання.

Якщо ви шукаєте RAID-контролер, орієнтований на SSD з високою продуктивністю вводу/виводу, то лідер – контролер LSI. За рідкісними винятками, він займає перше місце в наших тестах вводу/виводу для файл-сервера, Web-сервера та навантажень для робочих станцій. Коли ваш RAID-масив складається з SSD, конкуренти LSI нічого не можуть протиставити йому. Наприклад, у бенчмарку для робочих станцій MegaRAID 9265-8i досягає 70 172 IOPS, тоді як Areca ARC-1880i, що опинився на другому місці, поступається йому практично вдвічі - 36 975 IOPS.

ПЗ для RAID та встановлення масиву

Як і Adaptec, LSI має зручні інструменти для управління RAID-масивом через контролер. Ось кілька скріншотів:

ПЗ для CacheCade

ПЗ для RAID

Встановлення масиву

Порівняльна таблиця та конфігурація тестового стенду

Виробник Adaptec Areca
Продукт RAID 6805 ARC-1880i
Форм-фактор Низькопрофільний MD2 Низькопрофільний MD2
Число портів SAS 8 8
6 Гбіт/с (SAS 2.0) 6 Гбіт/с (SAS 2.0)
Внутрішні порти SAS 2хSFF-8087 2хSFF-8087
Зовнішні порти SAS Ні Ні
Кеш-пам'ять 512 Мбайт DDR2-667 512 Мбайт DDR2-800
Основний інтерфейс PCIe 2.0 (х8) PCIe 2.0 (х8)
XOR та тактова частота PMC-Sierra PM8013/Немає даних Немає даних/800 МГц
Підтримувані рівні RAID 0, 1, 1E, 5, 5EE, 6, 10, 50, 60 0, 1, 1E, 3, 5, 6, 10, 30, 50, 60
Windows 7, Windows Server 2008/2008 R2, Windows Server 2003/2003 R2, Windows Vista, VMware ESX Classic 4.x (vSphere), Red Hat Enterprise Linux (RHEL), SUSE Linux Enterprise Server (SLES), Sun Solaris 10 x86 , FreeBSD, Debian Linux, Ubuntu Linux Windows 7/2008/Vista/XP/2003, Linux, FreeBSD, Solaris 10/11 x86/x86_64, Mac OS X 10.4.x/10.5.x/10.6.x, VMware 4.x
Акумулятор Ні Опціонально
Вентилятор Ні Є

Виробник HighPoint LSI
Продукт RocketRAID 2720SGL MegaRAID 9265-8i
Форм-фактор Низькопрофільний MD2 Низькопрофільний MD2
Число портів SAS 8 8
Смуга пропускання SAS на один порт 6 Гбіт/с (SAS 2.0) 6 Гбіт/с (SAS 2.0)
Внутрішні порти SAS 2хSFF-8087 2хSFF-8087
Зовнішні порти SAS Ні Ні
Кеш-пам'ять Немає даних 1 Гбайт DDR3-1333
Основний інтерфейс PCIe 2.0 (х8) PCIe 2.0 (х8)
XOR та тактова частота Marvel 9485/Немає даних LSI SAS2208/800 МГц
Підтримувані рівні RAID 0, 1, 5, 6, 10, 50 0, 1, 5, 6, 10, 60
Операційні системи, що підтримуються Windows 2000, XP, 2003, 2008, Vista, 7, RHEL/CentOS, SLES, OpenSuSE, Fedora Core, Debian, Ubuntu, FreeBSD bis 7.2 Microsoft Windows Vista/2008/Server 2003/2000/XP, Linux, Solaris (x86), Netware, FreeBSD, Vmware
Акумулятор Ні Опціонально
Вентилятор Ні Ні

Тестова конфігурація

Ми з'єднали вісім жорстких дисків Fujitsu MBA3147RC SAS (кожний по 147 Гбайт) з RAID-контролерами та провели бенчмарки для RAID-рівнів 0, 5, 6 та 10. Тести SSD проводилися з п'ятьма дисками Samsung SS1605.

Апаратне забезпечення
Процесор Intel Core i7-920 (Bloomfield) 45 нм, 2.66 ГГц, 8 Мбайт загальна L3 кеш-пам'ять
Материнська плата (LGA 1366) Supermicro X8SAX, Revision: 1.0, Чіпсет Intel X58 + ICH10R, BIOS: 1.0B
Контролер LSI MegaRAID 9280-24i4e
Прошивка: v12.12.0-0037
Driver: v4.32.0.64
Оперативна пам'ять 3 x 1 Гбайт DDR3-1333 Corsair CM3X1024-1333C9DHX
Жорсткий диск Seagate NL35 400 Гбайт, ST3400832NS, 7200 об/хв, SATA 1.5 Гбіт/с, 8 Мбайт кеш-пам'ять
Блок живлення OCZ EliteXstream 800 W, OCZ800EXS-EU
Бенчмарки
Продуктивність CrystalDiskMark 3
Продуктивність введення/виводу Iometer 2006.07.27
File server Benchmark
Web server Benchmark
Database Benchmark
Workstation Benchmark
Streaming Reads
Streaming Writes
4k Random Reads
4k Random Writes
ПЗ та драйвери
Операційна система Windows 7 Ultimate

Результати тестів

Провідність введення/виводу в RAID 0 і 5

Бенчмарки RAID 0 не показують суттєвої різниці між RAID-контролерами, за винятком HighPoint RocketRAID 2720SGL.




Бенчмарк у RAID 5 не допомагає контролеру HighPoint віднайти втрачені позиції. На відміну від бенчмарку в RAID 0, всі три швидші контролери виразніше виявляють тут свої слабкі і сильні сторони.




Продуктивність введення/виводу в RAID 6 та 10

LSI оптимізувала свій контролер MegaRAID 9265 для роботи з базами даних, файл-серверами та навантаженнями для робочих станцій. Бенчмарк для Web-півночі добре проходять усі контролери, демонструючи однакову продуктивність.




У варіанті RAID 10 перше місце борються Adaptec і LSI, а HighPoint RocketRAID 2720SGL займає останнє місце.




Продуктивність під час введення/виведення на SSD

Тут лідирує LSI MegaRAID 9265, яка використовує всі переваги твердотільних систем зберігання.




Пропускна здатність у RAID 0, 5 та в деградованому режимі RAID 5

LSI MegaRAID 9265 з легкістю лідирує у цьому бенчмарку. Adaptec RAID 6805 сильно відстає.


HighPoint RocketRAID 2720SGL без кешу добре справляється з послідовними операціями в RAID 5. Не дуже поступаються йому й інші контролери.


Деградований RAID 5


Пропускна здатність у RAID 6, 10 та в деградованому режимі RAID 6

Як і у випадку RAID 5, HighPoint RocketRAID 2720SGL демонструє найвищу пропускну здатність RAID 6, залишаючи друге місце для Areca ARC-1880i. Враження таке, що LSI MegaRAID 9265-8i просто не любить RAID 6.


Деградований RAID 6


Тут уже LSI MeagaRAID 9265-8i показує себе в кращому світлі, хоча пропускає вперед Areca ARC-1880i.

LSI CacheCade




Який же 6 Гбіт/с SAS-контролер найкращий?

Загалом всі чотири SAS RAID-контролери, які ми тестували, продемонстрували хорошу продуктивність. У всіх є вся необхідна функціональність, і всі вони успішно можуть використовуються в серверах початкового і середнього рівня. Крім визначної продуктивності, вони мають такі важливі функції, як робота в змішаному оточенні з підтримкою SAS і SATA і масштабування через SAS-експандери. Усі чотири контролери підтримують стандарт SAS 2.0, він піднімає пропускну здатність з 3 Гбіт/с до 6 Гбіт/с на порт, а крім цього вводить такі нові функції, як зонування SAS, що дозволяє багатьом контролерам отримати доступ до ресурсів зберігання даних через один SAS -експандер.

Незважаючи на такі схожі риси, як низькопрофільний форм-фактор, інтерфейс PCI Express на вісім ліній і вісім SAS 2.0 портів, кожен контролер має свої власні сильні і слабкі сторони, аналізуючи які і можна видати рекомендації щодо їх оптимального використання.

Отже, найшвидший контролер – це LSI MegaRAID 9265-8i, особливо щодо пропускної спроможності вводу/виводу. Хоча й у нього є слабкі місця, зокрема, не надто висока продуктивність у випадках RAID 5 та 6. MegaRAID 9265-8i лідирує у більшості бенчмарків та є чудовим рішенням професійного рівня. Вартість цього контролера – $630 – найвища, про це також не можна забувати. Але за цю високу вартість ви отримуєте чудовий контролер, який випереджає своїх конкурентів, особливо під час роботи з SSD. Він має і чудову продуктивність, яка стає особливо цінною при підключенні систем зберігання великого об'єму. Більше того, ви можете збільшити продуктивність LSI MegaRAID 9265-8i, використовуючи FastPath або CacheCade, за які, звичайно, треба буде заплатити додатково.

Контролери Adaptec RAID 6805 та Areca ARC-1880i демонструють однакову продуктивність і дуже схожі за своєю вартістю ($460 та $540). Обидва добре працюють, як показують різні бенчмарки. Контролер Adaptec показує трохи більш високу продуктивність, ніж контролер Areca, він також пропонує потрібну функцію ZMCP (Zero Maintenance Cache Protection), яка замінює звичайне резервування при відмові харчування і дозволяє продовжувати роботу.

HighPoint RocketRAID 2720SGL продається всього за $170, що набагато дешевше трьох інших протестованих контролерів. Продуктивність цього контролера цілком достатня, якщо ви працюєте зі звичайними дисками, хоч і гірше, ніж у контролерів Adaptec або Areca. І не варто використовувати цей контролер для роботи із SSD.

З появою достатньої кількості периферії Serial Attached SCSI (SAS) можна констатувати початок переходу корпоративного оточення на рейки нової технології. Але SAS не тільки є визнаним наступником технології UltraSCSI, але й реалізує нові сфери використання, піднявши можливості масштабування систем до немислимих висот. Ми вирішили продемонструвати потенціал SAS, уважно поглянувши на технологію, host-адаптери, жорсткі диски та системи зберігання.

SAS не можна назвати повністю новою технологією: вона бере найкраще із двох світів. Перша частина SAS стосується послідовної передачі даних, що вимагає менше фізичних проводів та контактів. Перехід від паралельної до послідовної передачі дозволив позбутися і шини. Хоча за поточними специфікаціями SAS пропускну здатність визначено в 300 Мбайт/с порт, що менше, ніж 320 Мбайт/с UltraSCSI, заміна загальної шини на з'єднання "точка-точка" - вагома перевага. Друга частина SAS - це протокол SCSI, що залишається потужним та популярним.

SAS може використовувати і великий набір різновидів RAID. Такі гіганти, як Adaptec або LSI Logic, у своїх продуктах пропонують розширений набір функцій для розширення, міграції, створення "гнізд" та інших можливостей, у тому числі щодо розподілених масивів RAID за кількома контролерами та приводами.

Зрештою, більшість згаданих дій сьогодні здійснюються вже "на льоту". Тут слід відзначити чудові продукти AMCC/3Ware , Arecaі Broadcom/Raidcore, що дозволили перенести функції корпоративного класу простору SATA.

У порівнянні з SATA, традиційна реалізація SCSI втрачає ґрунт на всіх фронтах, за винятком high-end корпоративних рішень. SATA пропонує відповідні жорсткі диски, відрізняється гарною ціною та широким набором рішень. І не забуватимемо про ще одну "розумну" можливість SAS: вона легко уживається з існуючими інфраструктурами SATA, оскільки host-адаптери SAS легко працюють і з дисками SATA. Але накопичувач SAS до адаптера SATA підключити вже не вийде.


Джерело: Adaptec.

Спочатку, як здається, слід звернутися до історії SAS. Стандарт SCSI (розшифровується як "small computer system interface/інтерфейс малих комп'ютерних систем") завжди розглядався як професійна шина для підключення накопичувачів та інших пристроїв до комп'ютерів. Жорсткі диски для серверів та робочих станцій, як і раніше, використовують технологію SCSI. На відміну від масового стандарту ATA, що дозволяє підключити до одного порту лише два накопичувачі, SCSI дозволяє зв'язувати до 15 пристроїв в одну шину і пропонує потужний командний протокол. Пристрої повинні мати унікальний ідентифікатор SCSI ID, який може надаватися як вручну, так і через протокол SCAM (SCSI Configuration Automatically). Оскільки ID пристроїв для шин двох або більше адаптерів SCSI можуть бути не унікальними, були додані логічні номери LUN (Logical Unit Numbers), що дозволяють ідентифікувати пристрої в складних SCSI-оточеннях.

Апаратне забезпечення SCSI гнучкіше і надійніше в порівнянні з ATA (цей стандарт ще називають IDE, Integrated Drive Electronics). Пристрої можуть приєднуватися як усередині комп'ютера, так і зовні, причому довжина кабелю може становити до 12 м, якщо він правильно термінований (для того, щоб уникнути відображення сигналу). У міру еволюції SCSI з'явилися численні стандарти, що обумовлюють різну ширину шини, тактову частоту, роз'єми та напругу сигналу (Fast, Wide, Ultra, Ultra Wide, Ultra2, Ultra2 Wide, Ultra3, Ultra320 SCSI). На щастя, вони використовують єдиний набір команд.

Будь-який зв'язок SCSI організується між ініціатором (host-адаптером), що відсилає команди, і цільовим приводом, що відповідає на них. Відразу після отримання набору команд цільовий привід відсилає так званий sense-код (стан: зайнятий, помилка або вільний), яким ініціатор дізнається, отримає він потрібну відповідь чи ні.

Протокол SCSI обговорює майже 60 різних команд. Вони розбиті за чотирма категоріями: не відносяться до даних (non-data), двонаправлені (bi-directional), читання даних (read data) та запис даних (write data).

Обмеження SCSI починають проявляти себе, коли ви додаватимете приводи на шину. Сьогодні навряд чи можна знайти жорсткий диск, здатний повністю навантажити пропускну здатність 320 Мбайт/с Ultra320 SCSI. Але п'ять чи більше приводів на одній шині – зовсім інша річ. Варіантом буде додавання другого host-адаптера для балансування навантаження, але це коштує коштів. Проблема і з кабелями: скручені 80-провідні кабелі коштують дуже дорого. Якщо ж ви хочете отримати ще й "гарячу заміну" приводів, тобто легке заміщення накопичувача, що вийшов з ладу, то потрібні спеціальні оснащення (backplane).

Звичайно, найкраще розміщувати приводи в окремі оснастки або модулі, які зазвичай підтримують можливість гарячої заміни разом з іншими приємними функціями управління. У результаті ринку присутня більше число професійних SCSI-решений. Але всі вони коштують чимало, тому стандарт SATA настільки бурхливо розвивався останні роки. І хоча SATA ніколи не задовольнить потреби high-end корпоративних систем, цей стандарт чудово доповнює SAS під час створення нових масштабованих рішень для мережевих оточень наступного покоління.


SAS не використовує загальну шину для кількох пристроїв. Джерело: Adaptec.

SATA


Зліва знаходиться роз'єм SATA для передачі даних. Праворуч – роз'єм для подачі харчування. Контактів достатньо для подачі напруг 3,3, 5 і 12 на кожний привід SATA.

Стандарт SATA існує на ринку вже кілька років, і сьогодні він досяг другого покоління. SATA I відрізнявся пропускною здатністю 1,5 Гбіт/с з двома послідовними сполуками, що використовують різницеве ​​кодування з низькою напругою (low-voltage differential signaling). Фізично застосовується кодування 8/10 біт (10 біт фактичних для 8 біт даних), що пояснює максимальну пропускну здатність інтерфейсу 150 Мбайт/с. Після переходу SATA на швидкість 300 Мбайт/с багато хто почав називати новий стандарт SATA II, хоча при стандартизації SATA-IO(International Organization) планувалося спочатку додати більше функцій, а потім назвати SATA II. Звідси остання специфікація і названа SATA 2.5 вона включає такі розширення SATA, як Native Command Queuing(NCQ) та eSATA (external SATA), множники портів (до чотирьох приводів на порт) і т.д. Але додаткові функції SATA опціональні як контролера, так самого жорсткого диска.

Сподіватимемося, що в 2007 році SATA III на 600 Мбайт/с все-таки вийде.

Якщо кабелі паралельного ATA (UltraATA) були обмежені 46 см, кабелі SATA можуть мати довжину до 1 м, а для eSATA - вдвічі більше. Замість 40 або 80 дротів послідовна передача вимагає лише одиниці контактів. Тому кабелі SATA дуже вузькі, їх легко прокладати всередині корпусу комп'ютера і вони не так сильно заважають повітряному потоку. На порт SATA покладається один пристрій, що дозволяє віднести цей інтерфейс типу "точка-точка".


Роз'єми SATA для передачі даних та живлення передбачають окремі вилки.

SAS


Сигнальний протокол тут такий самий, як і у SATA. Джерело: Adaptec.

Приємна особливість Serial Attached SCSI полягає в тому, що технологія підтримує і SCSI, і SATA, в результаті чого до SAS-контролерів можна підключати SAS або SATA диски (або відразу обох стандартів). Втім, SAS-приводи не можуть працювати з контролерами SATA через використання протоколу Serial SCSI Protocol (SSP). Подібно до SATA, SAS слідує принципу підключення "точка-точка" для приводів (сьогодні 300 Мбайт/с), а завдяки SAS-розширювачам (або експандерам, expander) можна підключити більше приводів, ніж доступно SAS-портів. Жорсткі диски SAS підтримують два порти, кожен із своїм унікальним SAS ID, тому можна використовувати два фізичні підключення, щоб забезпечити надмірність, - підключити привід до двох різних host-вузлів. Завдяки протоколу STP (SATA Tunneling Protocol) контролери SAS можуть обмінюватися даними з SATA-приводами, підключеними до експандера.


Джерело: Adaptec.



Джерело: Adaptec.



Джерело: Adaptec.

Звичайно, єдине фізичне підключення експандера SAS до host-контролера можна вважати "вузьким місцем", тому в стандарті передбачені широкі порти SAS. Широкий порт групує кілька підключень SAS у єдиний зв'язок між двома будь-якими пристроями SAS (зазвичай між host-контролером та розширювачем/експандером). Число підключень у рамках зв'язку можна збільшувати, все залежить від вимог, що накладаються. Але надмірні підключення не підтримуються, не можна також допускати будь-яких петель або кілець.


Джерело: Adaptec.

У майбутніх реалізаціях SAS додасться пропускна спроможність 600 та 1200 Мбайт/с на порт. Звичайно, продуктивність жорстких дисків у такій самій пропорції не зросте, зате можна буде зручніше використовувати експандери на малій кількості портів.



Пристрої під назвами "Fan Out" та "Edge" є експандерами. Але лише головний експандер Fan Out може працювати з доменом SAS (див. 4x зв'язок у центрі діаграми). На кожен експандер Edge дозволяється до 128 фізичних підключень, причому можна використовувати широкі порти та/або підключати інші експандери/приводи. Топологія може бути дуже складною, але водночас гнучкою та потужною. Джерело: Adaptec.



Джерело: Adaptec.

Оснащення (backplane) - основний будівельний блок будь-якої системи зберігання, яка має підтримувати "гаряче підключення". Тому експандери SAS часто мають на увазі потужні оснастки (як у єдиному корпусі, так і ні). Зазвичай для підключення простого оснащення до host-адаптера використовується один зв'язок. Експандери із вбудованими оснастками, звичайно, покладаються на багатоканальні підключення.

Для SAS розроблено три типи кабелів та роз'ємів. SFF-8484 - багатожильний внутрішній кабель, що зв'язує host-адаптер із оснащенням. В принципі, того ж можна домогтися, розгалуживши на одному кінці цей кабель на кілька окремих роз'ємів SAS (див. ілюстрацію нижче). SFF-8482 – роз'єм, через який привід підключається до одиночного інтерфейсу SAS. Нарешті, SFF-8470 – зовнішній багатожильний кабель, довжиною до шести метрів.


Джерело: Adaptec.


Кабель SFF-8470 для зовнішніх багатоканальних SAS підключень.


Багатожильний кабель SFF-8484. Через один роз'єм проходять чотири канали/порти SAS.


Кабель SFF-8484, що дозволяє підключити чотири накопичувачі SATA.

SAS як частина рішень SAN

Навіщо нам потрібна вся ця інформація? Більшість користувачів і близько не підійдуть до топології SAS, яку ми розповідали вище. Але SAS – це більше, ніж інтерфейс наступного покоління для професійних жорстких дисків, хоча він ідеально підходить для побудови простих та складних RAID-масивів на базі одного або кількох RAID-контролерів. SAS здатний на більше. Перед нами послідовний інтерфейс "точка-точка", який легко масштабується в міру того, як ви додаєте кількість зв'язків між двома будь-якими пристроями SAS. Накопичувачі SAS поставляються з двома портами, тому ви можете підключити один порт через експандер до host-системи, після чого створити резервний шлях до іншої host-системи (або іншого експандера).

Зв'язок між SAS-адаптерами та експандерами (а також між двома експандерами) може бути таким широким, скільки доступно портів SAS. Експандери зазвичай є стійковими системами, здатними вмістити велику кількість накопичувачів, і можливе підключення SAS до вищестоящого пристрою з ієрархії (наприклад, host-контролера) обмежене лише можливостями експандера.

Завдяки багатій і функціональній інфраструктурі SAS дозволяє створювати складні топології зберігання, а не виділені жорсткі диски або окремі мережеві сховища. У цьому випадку під "складними" не слід розуміти, що з такою топологією важко працювати. Конфігурації SAS складаються із простих дискових оснасток або використовують експандери. Будь-який зв'язок SAS можна розширити або звузити залежно від вимог до пропускної спроможності. Ви можете використовувати потужні жорсткі диски SAS, так і ємні моделі SATA. Разом з потужними RAID-контролерами можна легко налаштовувати, розширювати або переконфігурувати масиви даних - як з точки зору рівня RAID, так і з апаратного боку.

Все це стає важливішим, якщо взяти до уваги, наскільки швидко ростуть корпоративні сховища. Сьогодні у всіх на слуху SAN – мережа зберігання даних (storage area network). Вона має на увазі децентралізовану організацію підсистеми зберігання даних із традиційними серверами, використовуючи фізично винесені сховища. По існуючих мережах гігабітного Ethernet або Fiber Channel запускається трохи модифікований протокол SCSI, що інкапсулюється в Ethernet пакети (iSCSI - Internet SCSI). Система, на якій працює від одного жорсткого диска до складних гніздових RAID-масивів, стає так званою метою (target) і прив'язується до ініціатора (host-система, initiator), який розглядає мету, якби вона була просто фізичним елементом.

iSCSI, звичайно, дозволяє створити стратегію розвитку сховища, організації даних чи керування доступом до них. Ми отримуємо ще один рівень гнучкості, знявши безпосередньо підключені до серверів сховища, дозволяючи будь-якій підсистемі зберігання ставати метою iSCSI. Перехід на винесені сховища робить роботу системи незалежною від серверів зберігання даних (небезпечна точка збою) та покращує керованість "заліза". З програмної точки зору, сховище, як і раніше, залишається "всередині" сервера. Мета та ініціатор iSCSI можуть знаходитись поруч, на різних поверхах, у різних кімнатах чи будинках - все залежить від якості та швидкості IP-з'єднання між ними. З цієї точки зору важливо відзначити, що SAN погано підходить для вимог оперативно доступних додатків на кшталт баз даних.

2,5" жорсткі диски SAS

2,5" жорсткі диски для професійної сфери, як і раніше, сприймаються новинкою. Ми вже давно розглядали перший подібний накопичувач від Seagate. 2,5" Ultra320 Savvioякий залишив гарне враження. Всі 2,5" накопичувачі SCSI використовують швидкість обертання шпинделя 10 000 об/хв, але вони не дотягують до того рівня продуктивності, який дають 3,5" вінчестери з такою ж швидкістю обертання шпинделя. Справа в тому, що зовнішні доріжки 3,5" моделей обертаються з більшою лінійною швидкістю, що забезпечує більш високу швидкість передачі даних.

Перевага маленьких жорстких дисків криється і не в ємності: сьогодні для них максимумом, як і раніше, залишається 73 Гбайт, у той час як у 3,5" вінчестерів корпоративного класу ми отримуємо вже 300 Гбайт. У багатьох сферах дуже важливим є співвідношення продуктивності на займаний фізичний обсяг Чим більше жорстких дисків ви будете використовувати, тим більшу продуктивність пожнете - у парі з відповідною інфраструктурою, звичайно. При цьому 2,5" вінчестери споживають енергії майже вдвічі менше, ніж 3,5" конкуренти. Якщо розглядати співвідношення продуктивності на ват (кількість операцій введення/виведення на ват), то 2,5" форм-фактор дає дуже непогані результати.

Якщо вам, перш за все, необхідна ємність, то 3,5" накопичувачі на 10 000 об/хв навряд чи будуть кращим вибором. Справа в тому, що 3,5" вінчестери SATA дають на 66% більшу ємність (500 замість 300 Гбайт на жорсткий диск), залишаючи рівень продуктивності прийнятним. Багато виробників вінчестерів пропонують SATA-моделі для роботи в режимі 24/7, а ціна накопичувачів знижена до мінімуму. Проблеми надійності можна вирішити, докупивши запасні (spare) приводи для негайної заміни в масиві.

У лінійці MAY представлено поточне покоління 2,5" накопичувачів Fujitsu для професійного сектора. Швидкість обертання становить 10 025 об/хв, а ємності - 36,7 та 73,5 Гбайт. Всі приводи поставляються з 8 Мбайт кешу і дають середній час пошуку читання 4,0 мс та записи 4,5 мс. Як ми вже згадували, приємна особливість 2,5” вінчестерів – знижене енергоспоживання. Зазвичай один 2,5" вінчестер дозволяє заощадити не менше 60% енергії порівняно з 3,5" накопичувачем.

3,5" жорсткі диски SAS

Під MAX ховається поточна лінійка високопродуктивних жорстких дисків Fujitsu зі швидкістю обертання 15 000 об/хв. Тож назва цілком відповідає. На відміну від 2,5" накопичувачів, тут ми отримуємо цілих 16 Мбайт кешу та короткий середній час пошуку 3,3 мс для читання та 3,8 мс для запису. Fujitsu пропонує моделі на 36,7 Гбайт, 73,4 Гбайт та 146 Гбайт (з однією, двома та чотирма пластинами).

Гідродинамічні підшипники дісталися і жорстких дисків корпоративного класу, тому нові моделі працюють значно тихіше попередніх на 15 000 об/хв. Звісно, ​​подібні жорсткі диски слід правильно охолоджувати, і це теж забезпечує.

Hitachi Global Storage Technologies також пропонує власну лінійку високопродуктивних рішень. UltraStar 15K147 працює на швидкості 15 000 об/хв та оснащений 16 Мбайт кешем, як і приводи Fujitsu, але конфігурація пластин інша. Модель на 36,7 Гбайт використовує дві пластини, а чи не одну, але в 73,4 Гбайт - три пластини, а чи не дві. Це вказує на меншу щільність запису даних, але подібний дизайн, по суті, дозволяє не використовувати внутрішні, найповільніші області пластин. В результаті і головкам доводиться рухатися менше, що дає найкращий середній час доступу.

Hitachi також пропонує моделі на 36,7 Гбайт, 73,4 Гбайт та 147 Гбайт із зав'яленим часом пошуку (читання) 3,7 мс.

Хоча Maxtor вже перетворилася на частину Seagate, продуктові лінійки компанії поки що зберігаються. Виробник пропонує моделі на 36, 73 та 147 Гбайт, всі з яких відрізняються швидкістю обертання шпинделя 15 000 об/хв та 16 Мбайт кешем. Компанія заявляє середній час пошуку для читання 3,4 мс та для запису 3,8 мс.

Cheetah вже давно асоціюється з високопродуктивними жорсткими дисками. Подібну асоціацію з випуском Barracuda Seagate змогла прищепити і в сегменті настільних ПК, запропонувавши перший настільний накопичувач на 7200 об/хв у 2000 році.

Доступні моделі на 36,7 Гбайт, 73,4 Гбайт та 146,8 Гбайт. Всі вони відрізняються швидкістю обертання шпинделя 15 000 об/хв та кешем 8 Мбайт. Заявлено середній час пошуку для читання 3,5 мс та для запису 4,0 мс.

Host-адаптери

На відміну від SATA-контролерів, компоненти SAS можна знайти тільки на материнських платах серверного класу або у вигляді карт розширення PCI-X або PCI Express. Якщо зробити ще крок вперед і розглянути RAID-контролери (Redundant Array of Inexpensive Drives), вони через свою складність продаються, здебільшого, у вигляді окремих карт. Карти RAID містять як сам контролер, а й чіп прискорення розрахунків інформації надмірності (XOR-движок), і навіть кеш-пам'ять. На карту іноді припаяно невелику кількість пам'яті (найчастіше 128 Мбайт), але деякі карти дозволяють розширювати об'єм за допомогою DIMM або SO-DIMM.

При виборі host-адаптера або RAID-контролера слід чітко визначитись, що вам потрібно. Асортимент нових пристроїв росте просто на очах. Прості багатопортові host-адаптери обійдуться порівняно дешево, а на потужні RAID-карти доведеться серйозно витратитися. Подумайте, де ви розміщуватимете накопичувачі: для зовнішніх сховищ потрібно, принаймні, один зовнішній роз'єм. Для стійкових серверів зазвичай потрібні карти з низьким профілем.

Якщо вам потрібен RAID, то визначтеся, чи використовуватимете апаратне прискорення. Деякі RAID-карти забирають ресурси центрального процесора на обчислення XOR для масивів RAID 5 чи 6; інші використовують свій апаратний двигун XOR. Прискорення RAID рекомендується для тих оточень, де сервер займається не тільки зберігання даних, наприклад, для баз даних або web-серверів.

Всі картки host-адаптерів, які ми привели в нашій статті, підтримують швидкість 300 Мбайт/с на порт SAS і дозволяють гнучко реалізувати інфраструктуру зберігання даних. Зовнішніми портами сьогодні вже мало кого здивуєш, та й зважте на підтримку жорстких дисків як SAS, так і SATA. Всі три карти використовують інтерфейс PCI-X, але версії під PCI Express вже перебувають у розробці.

У нашій статті ми удостоїли увагою карти на вісім портів, але цим число жорстких дисків, що підключені, не обмежується. За допомогою SAS-експандера (зовнішнього) можна підключити будь-яке сховище. Поки чотириканального підключення буде достатньо, ви можете збільшувати кількість жорстких дисків аж до 122. Через витрати на обчислення інформації парності RAID 5 або RAID 6 типові зовнішні сховища RAID не зможуть достатньо навантажити пропускну здатність чотириканального підключення, навіть якщо використовувати велику кількість приводів.

48300 – host-адаптер SAS, призначений для шини PCI-X. На серверному ринку сьогодні продовжує домінувати PCI-X, хоча дедалі більше материнських плат оснащуються інтерфейсами PCI Express.

Adaptec SAS 48300 використовує інтерфейс PCI-X на швидкості 133 МГц, що дає пропускну здатність 1,06 Гбайт/с. Досить швидко, якщо шина PCI-X не завантажена іншими пристроями. Якщо включити в шину менш швидкісний пристрій, всі інші карти PCI-X знизять свою швидкість до такої ж. Для цього на плату іноді встановлюють кілька контролерів PCI-X.

Adaptec позиціонує SAS 4800 для серверів середнього та нижнього цінових діапазонів, а також для робочих станцій. Рекомендована роздрібна ціна становить $360, що цілком розумно. Підтримується функція Adaptec HostRAID, що дозволяє перейти на найпростіші масиви RAID. У цьому випадку це RAID рівнів 0, 1 і 10. Карта підтримує зовнішнє чотириканальне підключення SFF8470, а також внутрішній роз'єм SFF8484 у парі з кабелем на чотири пристрої SAS, тобто отримуємо вісім портів.

Карта вміщується в стійковий сервер 2U, якщо встановити низькопрофільну слотову заглушку. У комплект поставки також входить CD з драйвером, посібник із швидкої установки та внутрішній кабель SAS, через який до карти можна підключити до чотирьох системних приводів.

Гравець на ринку SAS LSI Logic надіслав нам host-адаптер SAS3442X PCI-X, прямого конкурента Adaptec SAS 48300. Він поставляється з вісьмома портами SAS, які розділені між двома чотириканальними інтерфейсами. "Серцем" карти є чіп LSI SAS1068. Один із інтерфейсів призначений для внутрішніх пристроїв, другий – для зовнішніх DAS (Direct Attached Storage). Плата використовує шинний інтерфейс PCI-X133.

Як завжди, для приводів SATA та SAS підтримується інтерфейс 300 Мбайт/с. На платі контролера розташовано 16 світлодіодів. Вісім із них - прості світлодіоди активності, а ще вісім покликані повідомляти про несправність системи.

LSI SAS3442X - низькопрофільна карта, тому вона легко вміщається в будь-якому сервері 2U.

Відзначимо підтримку драйверами під Linux, Netware 5.1 та 6, Windows 2000 та Server 2003 (x64), Windows XP (x64) та Solaris до 2.10. На відміну від Adaptec, LSI вирішила не додавати підтримку будь-яких RAID-режимів.

RAID-адаптери

SAS RAID4800SAS - рішення Adaptec для складніших оточень SAS, його можна використовувати для серверів додатків, серверів потокового мовлення і т.д. Перед нами, знову ж таки, карта на вісім портів, з одним зовнішнім чотириканальним підключенням SAS та двома внутрішніми чотириканальними інтерфейсами. Але якщо використовується зовнішнє підключення, то із внутрішніх залишається лише один чотириканальний інтерфейс.

Карта також призначена для шини PCI-X 133, яка дає достатню пропускну здатність навіть для найвибагливіших конфігурацій RAID.

Що ж до режимів RAID, то тут SAS RAID 4800 легко обганяє "молодшого брата": за замовчуванням підтримуються рівні RAID 0, 1, 10, 5, 50, якщо у вас є достатня кількість накопичувачів. На відміну від 48300, Adaptec вклала два кабелі SAS, так що ви відразу зможете підключити до контролера вісім жорстких дисків. На відміну від 48 300, карта вимагає повнорозмірний слот PCI-X.

Якщо ви вирішите модернізувати карту до Adaptec Advanced Data Protection Suite, то отримаєте можливість перейти на режими RAID з подвійною надмірністю (6, 60), а також ряд функцій корпоративного класу: striped mirror drive (RAID 1E), hot spacing (RAID 5EE) та copyback hot spare. Утиліта Adaptec Storage Manager відрізняється інтерфейсом як у браузера, за її допомогою можна керувати всіма адаптерами Adaptec.

Adaptec пропонує драйвери для Windows Server 2003 (і x64), Windows 2000 Server, Windows XP (x64), Novell Netware, Red Hat Enterprise Linux 3 та 4, SuSe Linux Enterprise Server 8 та 9 та FreeBSD.

Оснащення SAS

335SAS є оснащенням для чотирьох приводів SAS або SATA, але підключати її слід до контролера SAS. Завдяки 120-мм вентилятору приводи добре охолоджуватимуться. До оснастки доведеться підключити і дві вилки живлення Molex.

Adaptec включила до комплекту постачання кабель I2C, який можна використовувати для керування оснащенням через відповідний контролер. Але з приводами SAS так уже не вийде. Додатковий світлодіодний кабель має сигналізувати про активність приводів, але, знову ж таки, тільки для накопичувачів SATA. У комплект поставки входить і внутрішній кабель SAS на чотири приводи, тому для підключення приводів достатньо зовнішнього чотириканального кабелю. Якщо ви захочете використовувати приводи SATA, то доведеться скористатися перехідниками з SAS на SATA.

Роздрібну ціну $369 не можна назвати низькою. Але ви отримаєте солідне та надійне рішення.

Сховища SAS

SANbloc S50 – рішення корпоративного рівня на 12 накопичувачів. Ви отримаєте стійковий корпус формату 2U, який підключається до контролерів SAS. Перед нами один із найкращих прикладів масштабованих рішень SAS. 12 приводів можуть бути як SAS, так і SATA. Або представляти суміш обох типів. Вбудований експандер може використовувати один або два чотириканальні інтерфейси SAS для підключення S50 до host-адаптера або RAID-контролера. Оскільки перед нами явно професійне рішення, воно оснащене двома блоками живлення (з надмірністю).

Якщо ви вже купили host-адаптер Adaptec SAS, його можна буде легко підключити до S50 та за допомогою Adaptec Storage Manager керувати приводами. Якщо встановити жорсткі диски SATA по 500 Гбайт, ми отримаємо сховище на 6 Тбайт. Якщо взяти 300-Гбайт накопичувачі SAS, то ємність складе 3,6 Тбайт. Оскільки експандер пов'язаний з host-контролером двома чотириканальними інтерфейсами, ми отримаємо пропускну здатність 2,4 Гбайт/с, якої буде більш ніж достатньо для масиву будь-якого типу. Якщо встановити 12 накопичувачів в масив RAID0, то максимальна пропускна здатність складе всього лише 1,1 Гбайт/с. У середині цього року Adaptec обіцяє випустити трохи модифіковану версію із двома незалежними блоками введення/виводу SAS.

SANbloc S50 містить функцію автоматичного моніторингу та автоматичного керування швидкістю обертання вентилятора. Так, пристрій працює надто голосно, тому ми з полегшенням віддали його з лабораторії після завершення тестів. Повідомлення про збій приводу надсилається контролеру через SES-2 (SCSI Enclosure Services) або через фізичний інтерфейс I2C.

Робочі температури для приводів становлять 5-55°C, а оснащення - від 0 до 40°C.

На початку наших тестів ми отримали пікову пропускну спроможність лише 610 Мбайт/с. Змінивши кабель між S50 та host-контролером Adaptec, ми все-таки змогли досягти 760 Мбайт/с. Для навантаження системи в режимі RAID 0 ми використовували сім жорстких дисків. Збільшення кількості жорстких дисків не призводило до підвищення пропускної спроможності.

Тестова конфігурація

Системне апаратне забезпечення
Процесори 2x Intel Xeon (ядро Nocona)
3,6 ГГц, FSB800, 1 Мбайт кешу L2
Платформа Asus NCL-DS (Socket 604)
Чіпсет Intel E7520, BIOS 1005
Пам'ять Corsair CM72DD512AR-400 (DDR2-400 ECC, reg.)
2x 512 Мбайт, CL3-3-3-10
Системний жорсткий диск Western Digital Caviar WD1200JB
120 Гбайт, 7200 об/хв, кеш 8 Мбайт, UltraATA/100
Контролери накопичувачів Контролер Intel 82801EB UltraATA/100 (ICH5)

Promise SATA 300TX4
Драйвер 1.0.0.33

Adaptec AIC-7902B Ultra320
Драйвер 3.0

Adaptec 48300 8 port PCI-X SAS
Драйвер 1.1.5472

Adaptec 4800 8 port PCI-X SAS
Драйвер 5.1.0.8360
Прошивка 5.1.0.8375

LSI Logic SAS3442X 8 port PCI-X SAS
Драйвер 1.21.05
BIOS 6.01

Сховища
Оснащення на 4 відсіки для внутрішньої установки з гарячою заміною

2U, 12-HDD SAS/SATA JBOD

Мережа Broadcom BCM5721 Gigabit Ethernet
Відеокарта Вбудована
ATi RageXL, 8 Мбайт
Тести
Вимірювання продуктивності c"t h2benchw 3.6
Вимірювання продуктивності введення/виводу IOMeter 2003.05.10
Fileserver-Benchmark
Webserver-Benchmark
Database-Benchmark
Workstation-Benchmark
Системне ПЗ та драйвери
ОС Microsoft Windows Server 2003 Enterprise Edition, Service Pack 1
Драйвер платформи Intel Chipset Installation Utility 7.0.0.1025
Графічний драйверСценарій робочої станції.

Після вивчення кількох нових жорстких дисків SAS, трьох відповідних контролерів та двох оснасток стало зрозуміло, що SAS – справді перспективна технологія. Якщо ви звернетеся до технічної документації SAS, то зрозумієте, чому. Перед нами не тільки наступниця SCSI з послідовним інтерфейсом (швидким, зручним і легким у використанні), а й чудовий рівень масштабування та нарощування інфраструктури, в порівнянні з яким рішення Ultra320 SCSI здаються кам'яним віком.

Та й сумісність просто чудова. Якщо ви плануєте придбати професійне обладнання SATA для вашого сервера, варто придивитися до SAS. Будь-який SAS-контролер чи оснащення сумісні з жорсткими дисками і SAS, і SATA. Тому ви зможете створити як високопродуктивне оточення SAS, так і ємне SATA або обидва відразу.

Зручна підтримка зовнішніх сховищ – ще одна важлива перевага SAS. Якщо сховища SATA використовують або власні рішення, або одиночний канал SATA/eSATA, інтерфейс сховищ SAS дозволяє нарощувати пропускну здатність з'єднання групами по чотири канали SAS. У результаті ми отримуємо можливість нарощувати пропускну здатність під потреби додатків, а не упиратися в 320 Мбайт/с UltraSCSI або 300 Мбайт/с SATA. Більше того, експандери SAS дозволяють створити цілу ієрархію пристроїв SAS, тому свобода діяльності у адміністраторів велика.

На цьому еволюція пристроїв SAS не закінчиться. Як нам здається, інтерфейс UltraSCSI можна вважати застарілим і потихеньку списувати з рахунків. Навряд чи індустрія його удосконалюватиме, хіба що продовжить підтримувати існуючі реалізації UltraSCSI. Все ж таки нові жорсткі диски, останні моделі сховищ і оснасток, а також збільшення швидкості інтерфейсу до 600 Мбайт/с, а потім і до 1200 Мбайт/с - все це призначено для SAS.

Якою ж має бути сучасна інфраструктура зберігання? З доступністю SAS дні UltraSCSI вважаються. Послідовна версія є логічним кроком вперед і справляється з усіма завданнями краще за попередницю. Питання вибору між UltraSCSI та SAS стає очевидним. Вибирати ж між SAS чи SATA дещо складніше. Але якщо ви дивитеся в перспективу, то комплектуючі SAS виявляться все ж таки краще. Справді, для максимальної продуктивності чи з погляду перспектив масштабованості альтернативи SAS сьогодні вже немає.

Жорсткий диск для сервера, особливості вибору

Жорсткий диск – це найцінніший компонент у будь-якому комп'ютері. Адже на ньому зберігається інформація, з якою працює комп'ютер та користувач, у тому випадку, якщо йдеться про персональний комп'ютер. Людина, щоразу сідаючи за комп'ютер, розраховує на те, що зараз пробіжить екран завантаження операційної системи, і він почне працювати зі своїми даними, які видасть «на гора» зі своїх надр вінчестер. Якщо ж йдеться про жорсткий диск, або навіть про їх масив у складі сервера, то таких користувачів, які розраховують отримати доступ до особистих, або робочих даних, - десятки, сотні і тисячі. І вся їхня спокійна робота або ж відпочинок та розваги залежить від цих пристроїв, які постійно зберігають у собі дані. Вже з цього порівняння видно, що запити до жорстких дисків домашнього та промислового класу пред'являються нерівнозначні – у першому випадку з ним працює один користувач, у другому – тисячі. Виходить, що другий жорсткий диск повинен бути надійнішим, швидше, стійкішим за перший у багато разів, адже з ним працюють, на нього сподіваються безліч користувачів. У цій статті будуть розглянуті типи, що використовуються в корпоративному секторі. жорстких дисківта особливості їх конструкції, що дозволяють досягти найвищої надійності та продуктивності.

SAS та SATA диски - такі схожі та такі різні

Донедавна стандарти жорстких дисків промислового класу та побутового відрізнялися значно, і були несумісні - SCSI і IDE, в даний час ситуація змінилася - на ринку в переважній більшості знаходяться жорсткі диски стандарту SATA і SAS (Serial Attached SCSI). Роз'єм SAS є універсальним і форм-фактором і сумісний з SATA. Це дозволяє безпосередньо підключати до системи SAS як високошвидкісні, але при цьому невеликі ємності (на момент написання статті - до 300 Гб) накопичувачі SAS, так і менш швидкісні, але в рази більш ємні накопичувачі SATA (на момент написання статті до 2 Тб ). Таким чином, в одній дисковій підсистемі можна об'єднати життєво важливі програми, що вимагають високої продуктивності та оперативного доступу до даних, і економічніші програми з нижчою вартістю в перерахунку на гігабайт.

Подібна конструктивна сумісність вигідна як виробникам задніх панелей, так і кінцевим користувачам, адже при цьому знижуються витрати на обладнання та проектування.

Тобто, до роз'ємів SAS можна підключити як SAS пристрої, так і SATA, а до роз'ємів SATA підключаються лише пристрої SATA.

SAS та SATA - висока швидкість та велика ємність. Що вибрати?

SAS-диски, що прийшли на зміну дискам SCSI повністю успадкували їх основні властивості, що характеризують вінчестер: швидкість обертання шпинделя (15000 rpm) і стандарти об'єму (36,74,147 і 300 Гб). Проте сама технологія SAS значно відрізняється від SCSI. Коротко розглянемо основні відмінності та особливості: Інтерфейс SAS використовує з'єднання «крапка-крапка» - кожен пристрій з'єднаний з контролером виділеним каналом, на відміну від нього, SCSI працює по загальній шині.

SAS підтримує велику кількість пристроїв (> 16384), в той час як інтерфейс SCSI підтримує 8, 16 або 32 пристрої на шині.

SAS інтерфейс підтримує швидкість передачі між пристроями на швидкостях 1,5; 3; 6 Гб/с, тоді як у інтерфейсу SCSI швидкість шини не виділено кожен пристрій, а ділиться з-поміж них.

SAS підтримує підключення повільніших пристроїв з інтерфейсом SATA.

SAS конфігурації значно легше у монтажі, установці. Така система простіше масштабується. Крім того, SAS вінчестери успадкували надійність жорстких дисків SCSI.

При виборі дискової підсистеми - SAS або SATA потрібно керуватися тим, які функції виконуватимуть сервер або робоча станція. Для цього потрібно визначитися з такими питаннями:

1. Яка кількість одночасних різнопланових запитів оброблятиме диск? Якщо велике – Ваш однозначний вибір – диски SAS. Так само, якщо Ваша система обслуговуватиме велику кількість користувачів - вибирайте SAS.

2. Яка кількість інформації зберігатиметься на дисковій підсистемі Вашого сервера або робочої станції? Якщо більше 1-1,5 Тб – варто звернути увагу на систему на базі SATA вінчестерів.

3. Який бюджет, який виділяється на покупку сервера чи робочої станції? Слід пам'ятати, що крім дисків SAS буде потрібно SAS контролер, який теж потрібно враховувати.

4. Чи плануєте ви, надалі, зростання обсягу даних, зростання продуктивності або посилення відмовостійкості системи? Якщо так, то Вам знадобиться дискова підсистема на базі SAS, вона простіше масштабується та більш надійна.

5. Ваш сервер буде працювати з критично важливими даними та програмами - Ваш вибір - SAS диски, розраховані на важкі умови експлуатації.

Надійна дискова підсистема, це як якісні жорсткі диски іменитого виробника, а й зовнішній дисковий контролер. Про них йтиметься в одній із наступних статей. Розглянемо диски SATA, які різновиди цих дисків бувають і які слід використовувати під час побудови серверних систем.

SATA диски: побутовий та промисловий сектор

SATA диски, що використовуються повсюдно, від побутової електроніки та домашніх комп'ютерів до високопродуктивних робочих станцій та серверів, різняться на підвиди, є диски для використання в побутовій техніці, з низьким тепловиділенням, енергоспоживанням, і як наслідок, заниженою продуктивністю є диски - середнього класу, для домашніх комп'ютерів і є диски для високопродуктивних систем. У цій статті ми розглянемо клас вінчестерів для продуктивних систем та серверів.

Експлуатаційні характеристики

HDD серверного класу

HDD desktop класу

Швидкість обертання

7,200 об/хв (номінальна)

7,200 об/хв (номінальна)

Об'єм кешу

Середній час затримки

4,20 мс (номінальне)

6,35 мс (номінальне)

Швидкість передачі даних

Читання з кешу накопичувача (Serial ATA)

максимум 3 Гб/с

максимум 3 Гб/с

Фізичні характеристики

Місткість після форматування

1000204 МБ

1000204 МБ

Місткість

Інтерфейс

SATA 3 Гб/с

SATA 3 Гб/с

Кількість доступних користувачеві секторів

1 953 525 168

1 953 525 168

Габарити

Висота

25,4 мм

25,4 мм

Довжина

147 мм

147 мм

Ширина

101,6 мм

101,6 мм

0,69 кг

0,69 кг

Удароміцність

Удароміцність у робочому стані

65G, 2 мс

30G; 2 мс

Удароміцність у неробочому стані

250G, 2 мс

250G, 2 мс

Температура

В робочому стані

від -0 ° C до 60 ° C

від -0 ° C до 50 ° C

У неробочому стані

від -40 ° C до 70 ° C

від -40 ° C до 70 ° C

Вологість

В робочому стані

відносна вологість 5-95%

У неробочому стані

відносна вологість 5-95%

відносна вологість 5-95%

Вібрація

В робочому стані

Лінійна

20-300 Гц, 0,75 g (від 0 до піку)

22-330 Гц, 0,75 g (від 0 до піку)

Довільна

0,004 г/Гц (10 - 300 Гц)

0,005 г/Гц (10 - 300 Гц)

У неробочому стані

Низька частота

0,05 г/Гц (10 - 300 Гц)

0,05 г/Гц (10 - 300 Гц)

Висока частота

20-500 Гц, 4,0G (від 0 до пікової)

У таблиці представлені характеристики жорстких дисків одного з провідних виробників, в одній колонці наведено дані SATA вінчестера серверного класу, в іншій звичайного вінчестера SATA.

З таблиці ми бачимо, що диски розрізняються не тільки за характеристиками швидкодії, але й за експлуатаційними характеристиками, які безпосередньо впливають на тривалість життя та успішної роботи вінчестера. Слід звернути увагу, що зовні ці жорсткі диски відрізняються малозначно. Розглянемо, які технології та особливості дозволяють це зробити:

Посилений вал (шпиндель) жорсткого диска у деяких виробників закріплюється з двох кінців, що зменшує вплив зовнішньої вібрації і сприяє точному позиціонування блоку головок під час операцій читання та запису.

Застосування спеціальних інтелектуальних технологій, що дозволяють враховувати як лінійну, так і кутову вібрацію, що зменшує час позиціонування головок та збільшує продуктивність дисків до 60%

Функція усунення помилок за часом роботи RAID масивах - запобігає випадання жорстких дисків з RAID, що є характерною рисою звичайних жорстких дисків.

Коригування висоти польоту головок у сукупності з технологією запобігання дотику до поверхні пластин, що призводить до значного збільшення терміну життя диска.

Широкий спектр функцій самодіагностики, що дозволяють заздалегідь передбачити той момент, коли жорсткий диск вийде з ладу, і попередити про це користувача, що дозволяє зберегти інформацію на резервний накопичувач.

Функції, які дозволяють знизити показник непоновлюваних помилок читання, що збільшує надійність серверного жорсткого диска порівняно зі звичайними жорсткими дисками.

Говорячи про практичний бік питання, можна впевнено стверджувати, що спеціалізовані жорсткі диски в серверах «поводяться» набагато краще. У технічну службу відбувається в рази менше звернень щодо нестабільності роботи RAID масивів та відмови жорстких дисків. Підтримка виробником серверного сегменту вінчестерів відбувається набагато оперативніше, ніж звичайних жорстких дисків, тому пріоритетним напрямком роботи будь-якого виробника систем зберігання даних є промисловий сектор. Адже саме в ньому знаходять застосування найпередовіші технології, що стоять на варті Вашої інформації.

Аналог SAS дисків:

Неймовірна ціна на Жорсткі диски в Western Digital VelociRaptor | Ці накопичувачі зі швидкістю обертання дисків 10 тис. об/хв, що оснащуються інтерфейсом SATA 6 Гб/с та 64 МБ кеш-пам'яті. Час напрацювання цих накопичувачів на відмову становить 1,4 мільйона годин.
Докладніше на сайті виробника www.wd.com

Замовити збірку сервера на базі SAS або аналогом SAS жіночих дисків Ви можете у нашій компанії "Статус" у Санкт-Петербурзі, також, купити або замовити SAS жіночі диски у Санкт-Петербурзі Ви можете:

  • дзвоніть за телефоном +7-812-385-55-66 у Санкт-Петербурзі
  • пишіть на адресу
  • залишайте заявку у нас на сайті на сторінці "Онлайн заявка"

За два роки змін накопичилося небагато:

  • Supermicro відмовляється від пропрієтарного "перевернутого" форм-фактора UIO для контролерів. Подробиці будуть нижчими.
  • LSI 2108 (SAS2 RAID з 512МБ кешу) і LSI 2008 (SAS2 HBA з опціональною підтримкою RAID), як і раніше, в строю. Продукти на цих чіпах як виробництва LSI, так і від OEM партнерів досить добре налагоджені і, як і раніше, актуальні.
  • З'явилися LSI 2208 (той самий SAS2 RAID зі стеком LSI MegaRAID, тільки з двоядерним процесором і 1024МБ кеша) і (удосконалена версія LSI 2008 з швидшим процесором та підтримкою PCI-E 3.0).

Перехід від UIO до WIO

Як пам'ятаєте, плати UIO - це звичайні плати PCI-E x8, які мають вся елементна база з зворотного боку, тобто. при встановленні в лівий райзер виявляється зверху. Знадобився такий форм-фактор для встановлення плат у найнижчий слот сервера, що дозволяло розмістити чотири плати у лівому райзері. UIO - це не лише форм-фактор плат розширення, це ще й корпуси, розраховані на встановлення райзерів, самі райзери та материнські плати спеціального форм-фактора, з вирізом під нижній слот розширення та слотами для встановлення райзерів.
У такого рішення існувало дві проблеми. По-перше, нестандартний форм-фактор плат розширення обмежував вибір клієнта, т.к. під UIO форм-факторі існує лише кілька контролерів SAS, InfiniBand та Ehternet. По-друге – недостатня кількість ліній PCI-E у слотах під райзери – всього 36, з них на лівий райзер – всього 24 лінії, що явно мало для чотирьох плат із PCI-E x8.
Що таке WIO? Спочатку виявилося, що існує можливість розміщення чотирьох плат у лівому райзері без необхідності "перевертання бутерброду олією догори", і з'явилися райзери під звичайні плати (RSC-R2UU-A4E8+). Потім була вирішена проблема нестачі ліній (тепер їх 80) шляхом використання слотів з більшою щільністю контактів.
UIO райзер RSC-R2UU-UA3E8+
WIO райзер RSC-R2UW-4E8

Результати:
  • Райзери WIO не можна встановити на материнські плати, розраховані на UIO (наприклад, X8DTU-F).
  • Райзери UIO не можна встановити на нові плати, розраховані на WIO.
  • Існують райзери під WIO (на материнській платі), які мають слот UIO для карток. На той випадок, якщо у вас залишилися контролери UIO. Вони використовуються у платформах під Socket B2 (6027B-URF, 1027B-URF, 6017B-URF).
  • Нових контролерів у форм-факторі UIO не з'являтиметься. Наприклад, контролер USAS2LP-H8iR на чіпі LSI 2108 буде останнім, LSI 2208 під UIO не буде – тільки звичайний MD2 з PCI-E x8.

Контролери PCI-E

На даний момент актуальними є три різновиди: RAID контролери на базі LSI 2108/2208 та HBA на базі LSI 2308. Існує ще загадковий SAS2 HBA AOC-SAS2LP-MV8 на чіпі Marvel 9480, але про нього писати через його екзотичність. Більшість випадків застосування внутрішніх SAS HBA - це СГД із ZFS під FreeBSD та різними різновидами Solaris. Завдяки відсутності проблем із підтримкою в цих ОС вибір у 100% випадків падає на LSI 2008/2308.
LSI 2108
Крім UIO"шного AOC-USAS2LP-H8iR, який згаданий в додалися ще два контролери:

AOC-SAS2LP-H8iR
LSI 2108, SAS2 RAID 0/1/5/6/10/50/60, 512МБ кеш, 8 внутрішніх портів (2 роз'єми SFF-8087). Є аналогом контролера LSI 9260-8i, але вироблений Supermicro, є дрібні відмінності в розведенні плати, ціна на $40-50 нижче за LSI. Підтримуються всі додаткові опції LSI: активація, FastPath і CacheCade 2.0, батарейний захист кешу - LSIiBBU07 та LSIiBBU08 (зараз краще використовувати BBU08, у нього розширений температурний діапазон і в комплекті йде кабель для віддаленого монтажу).
Незважаючи на появу більш продуктивних контролерів на базі LSI 2208, LSI 2108 все ще залишається актуальним завдяки зниженню ціни. Продуктивності зі звичайними HDD вистачає в будь-яких сценаріях, межа по IOPS для роботи з SSD - 150000, що для більшості бюджетних рішень більш ніж достатньо.

AOC-SAS2LP-H4iR
LSI 2108, SAS2 RAID 0/1/5/6/10/50/60, 512МБ кеш, 4 внутрішні + 4 зовнішні порти. Є аналогом контролера LSI 9280-4i4e. Зручний для використання у експандерних корпусах, т.к. не доведеться виводити вихід з експандера назовні для підключення додаткових JBOD"ів, або в 1U корпусах на 4 диски при необхідності забезпечити можливість нарощування числа дисків. Підтримує ті ж BBU та ключі активації.
LSI 2208

AOC-S2208L-H8iR
LSI 2208, SAS2 RAID 0/1/5/6/10/50/60, 1024МБ кеш, 8 внутрішніх портів (2 роз'єми SFF-8087). Є аналогом контролера LSI 9271-8i. LSI 2208 - це подальший розвиток LSI 2108. Процесор став двоядерним, що дозволило підняти межу продуктивності по IOPS"ам аж до 465000. Додалася підтримка PCI-E 3.0 і збільшився до 1ГБ кеш.
Контролер підтримує батарейний захист кеша BBU09 та флеш-захист CacheVault. Supermicro постачає їх під партномірами BTR-0022L-LSI00279 та BTR-0024L-LSI00297, але у нас простіше придбати через канал продажів LSI (друга частина партномірів - це і є рідні партномери LSI). Ключі активації MegaRAID Advanced Software Options також підтримуються, партнери: AOC-SAS2-FSPT-ESW (FastPath) і AOCCHCD-PRO2-KEY (CacheCade Pro 2.0).
LSI 2308 (HBA)

AOC-S2308L-L8i та AOC-S2308L-L8e
LSI 2308, SAS2 HBA (з IR прошивкою - RAID 0/1/1E), 8 внутрішніх портів (2 роз'єми SFF-8087). Це той самий контролер, що поставляється з різними прошивками. AOC-S2308L-L8e – IT firmware (чистий HBA), AOC-S2308L-L8i – IR firmware (з підтримкою RAID 0/1/1E). Різниця в тому, що L8i може працювати з IR та IT прошивками, L8e – тільки з IT, прошивка в IR заблокована. Є аналогом контролера LSI 9207-8 i. Відмінності від LSI 2008: швидше чіп (800Мгц, як наслідок - піднявся ліміт по IOPS до 650тис.), З'явилася підтримка PCI-E 3.0. Застосування: програмні RAID (ZFS, наприклад), бюджетні сервери.
На базі цього чіпа не буде дешевих контролерів за допомогою RAID-5 (iMR стек, з готових контролерів - LSI 9240).

Набортні контролери

В останніх продуктах (платах X9 та платформах з ними) Supermicro означає наявність SAS2 контролера від LSI цифрою "7" у партномірі, цифрою "3" - чіпсетний SAS (Intel C600). Ось тільки не робиться відмінностей між LSI 2208 і 2308, тому будьте уважні при виборі плати.
  • Розпаяний на материнських платах контролер з урахуванням LSI 2208 має обмеження - максимум 16 дисків. При додаванні 17 він просто не визначиться і в лозі MSM ви побачите повідомлення "PD is not supported". Компенсацією за це є значно нижча вартість. Наприклад, зв'язка "X9DRHi-F+ зовнішній контролер LSI 9271-8i" обійдеться дорожче приблизно на $500, ніж X9DRH-7F з LSI 2008 на борту. Обійти це обмеження перепрошивкою в LSI 9271 не вийде - прошивка іншого блоку SBR, як у випадку з LSI 2108 не допомагає.
  • Ще одна особливість - відсутність підтримки модулів CacheVault, на платах банально не вистачає місця під спеціальний роз'єм, тому підтримується тільки BBU09. Можливість встановлення BBU09 залежить від використовуваного корпусу. Наприклад, LSI 2208 використовується в блейд-серверах 7127R-S6, роз'єм для підключення BBU там є, але для монтажу самого модуля потрібне додаткове кріплення MCP-640-00068-0N Battery Holder Bracket.
  • Прошивку SAS HBA (LSI 2308) доведеться тепер, тому що в DOS на будь-якій платі з LSI 2308 не запускається sas2flash.exe з помилкою "Failed to initialize PAL".

Контролери в Twin та FatTwin платформах

Деякі 2U Twin 2 платформи існують у трьох варіантах, із трьома видами контролерів. Наприклад:
  • 2027TR-HTRF+ - чіпсетний SATA
  • 2027TR-H70RF+ - LSI 2008
  • 2027TR-H71RF+ - LSI 2108
  • 2027TR-H72RF+ - LSI 2208
Подібне різноманіття забезпечується за рахунок того, що контролери розміщені на спеціальній об'єднавчій платі, яка підключається до спецслоту на материнській платі та дискового бекплейну.
BPN-ADP-SAS2-H6IR (LSI 2108)


BPN-ADP-S2208L-H6iR (LSI 2208)

BPN-ADP-SAS2-L6i (LSI 2008)

Корпуси Supermicro xxxBE16/xxxBE26

Ще одна тема, що має пряме відношення до контролерів – це модернізація корпусів з . З'явилися різновиди з додатковим кошиком на два 2,5" диски, розташованими на задній панелі корпусу. Призначення - виділений диск (або дзеркало) під завантаження системи. Звичайно, систему можна вантажити, виділивши невеликий том від іншої дискової групи або з додаткових дисків, закріплених всередині корпусу (у 846-х корпусах можна встановити додаткове кріплення для одного 3,5" або двох 2,5" дисків), але оновлені модифікації набагато зручніші:




Ці додаткові диски необов'язково підключати саме до чіпсетного SATA контролера. За допомогою кабелю SFF8087->4xSATA можна підключитися до основного контролера SAS через вихід SAS експандера.
P.S. Сподіваюся, що інформація була корисною. Не забувайте, що найбільш повну інформацію та технічну підтримку продукції Supermicro, LSI, Adaptec by PMC та інших вендорів ви можете отримати в компанії True System .

Тести масивів RAID 6, 5, 1 та 0 з дисками SAS-2 компанії Hitachi

Мабуть, минули ті часи, коли пристойний професійний 8-портовий RAID-контролер коштував дуже значних грошей. Нині з'явилися рішення для інтерфейсу Serial Attached SCSI (SAS), які дуже привабливі і за ціною, і за функціональністю, та й у плані продуктивності. Про один із них - цей огляд.

Контролер LSI MegaRAID SAS 9260-8i

Раніше ми вже писали про інтерфейс SAS другого покоління зі швидкістю передачі 6 Гбіт/с і дуже дешевий 8-портовий HBA-контролер LSI SAS 9211-8i, призначений для організації систем зберігання даних початкового цінового рівня на базі найпростіших RAID-масивів SAS і SATA- накопичувачів. Модель LSI MegaRAID SAS 9260-8i буде класом вище - вона оснащена потужнішим процесором з апаратним обрахунком масивів рівнів 5, 6, 50 і 60 (технологія ROC - RAID On Chip), а також відчутним об'ємом (512 Мбайт) наборної SDRAM-пам'яті для ефективного кешування даних. Цим контролером також підтримуються інтерфейси SAS і SATA зі швидкістю передачі даних 6 Гбіт/с, а сам адаптер призначений для шини PCI Express x8 версії 2.0 (5 Гбіт/с на лінію), чого теоретично майже достатньо задоволення потреб 8 високошвидкісних портів SAS. І все це - за роздрібною ціною в районі 500 доларів, тобто лише на пару сотень дорожче за бюджетний LSI SAS 9211-8i. Сам виробник, до речі, відносить це рішення до серії MegaRAID Value Line, тобто економічних рішень.




8-портовий SAS-контролер LSIMegaRAID SAS9260-8i та його процесор SAS2108 з пам'яттю DDR2

Плата LSI SAS 9260-8i має низький профіль (форм-фактор MD2), оснащена двома внутрішніми роз'ємами Mini-SAS 4X (кожен з них дозволяє підключати до 4 SAS-дисків безпосередньо або більше через порт-мультиплікатори), розрахована на шину PCI Express x8 2.0 і підтримує RAID-масиви рівнів 0, 1, 5, 6, 10, 50 та 60, динамічну функціональність SAS та багато інших. ін. Контролер LSI SAS 9260-8i можна встановлювати як у рекові сервери формату 1U та 2U (сервери класів Mid та High-End), так і в корпуси ATX та Slim-ATX (для робочих станцій). Підтримка RAID здійснюється апаратно-вбудованим процесором LSI SAS2108 (ядро PowerPC на частоті 800 МГц), доукомплектованим 512 Мбайт пам'яті DDR2 800 МГц із підтримкою ECC. LSI обіцяє швидкість роботи процесора з даними до 2,8 Гб/с при читанні і до 1,8 Гб/с при записі. Серед багатої функціональності адаптера варто відзначити функції Online Capacity Expansion (OCE), Online RAID Level Migration (RLM) (розширення обсягу та зміна типу масивів «на ходу»), SafeStore Encryption Services та Instant secure erase (шифрування даних на дисках та безпечне видалення даних) ), підтримку твердотільних накопичувачів (технологія SSD Guard) та багато інших. ін. Опціонально доступний батарейний модуль для цього контролера (з ним максимальна робоча температура не повинна перевищувати +44,5 градусів за Цельсієм).

Контролер LSI SAS 9260-8i: основні технічні характеристики

Системний інтерфейсPCI Express x8 2.0 (5 ГТ/с), Bus Master DMA
Дисковий інтерфейсSAS-2 6 Гбіт/с (підтримка протоколів SSP, SMP, STP та SATA)
Число портів SAS8 (2 роз'єми x4 Mini-SAS SFF8087), підтримка до 128 накопичувачів через порт-мультиплікатори
Підтримка RAIDрівні 0, 1, 5, 6, 10, 50, 60
ПроцесорLSI SAS2108 ROC (PowerPC @ 800 МГц)
Вбудована кеш-пам'ять512 Мбайт ECC DDR2 800 МГц
Енергоспоживання, не більше24 Вт (живлення +3,3 В та +12 В від слота PCIe)
Діапазон температур роботи/зберігання0…+60 °С / −45…+105 °С
Форм-фактор, габаритиMD2 low-profile, 168×64,4 мм
Значення MTBF>2 млн. год
Гарантія виробника3 роки

Типові застосування LSI MegaRAID SAS 9260-8i виробник позначив так: різноманітні відеостанції (відео на запит, відеоспостереження, створення та редагування відео, медичні зображення), високопродуктивні обчислення та архіви цифрових даних, різноманітні сервери (файловий, веб, поштовий, бази даних). Загалом, переважна більшість завдань, які вирішуються у малому та середньому бізнесі.

У біло-жовтогарячій коробці з зубастим жіночим обличчям, що легковажно усміхається, на «титулі» (мабуть, щоб краще залучити бородатих сисадмінів і суворих систембілдерів) знаходиться плата контролера, брекети для її встановлення в корпуси ATX, Slim-ATX та ін., два 4-диск кабелю з роз'ємами Mini-SAS на одному кінці та звичайним SATA (без живлення) - на іншому (для підключення до 8 дисків до контролера), а також CD з PDF-документацією та драйверами для численних версій Windows, Linux (SuSE та RedHat), Solaris та VMware.


Комплект поставки коробкової версії контролера LSI MegaRAID SAS 9260-8i (міні-хустка ключа MegaRAID Advanced Services Hardware Key поставляється за окремим запитом)

Зі спеціальним апаратним ключем (він поставляється окремо) для контролера LSI MegaRAID SAS 9260-8i доступні програмні технології LSI MegaRAID Advanced Services: MegaRAID Recovery, MegaRAID CacheCade, MegaRAID FastPath, LSI SafeStore Encryption Services (їх розглядається). Зокрема, у плані підвищення продуктивності масиву традиційних дисків (HDD) за допомогою доданого до системи твердотільного накопичувача (SSD) буде корисною технологія MegaRAID CacheCade, за допомогою якої SSD виступає кешем другого рівня для масиву HDD (аналог гібридного рішення для HDD), в окремих випадках, забезпечуючи підвищення продуктивності дискової підсистеми до 50 разів. Інтерес представляє також рішення MegaRAID FastPath, за допомогою якого зменшуються затримка обробки процесором SAS2108 операцій введення-виведення (за рахунок відключення оптимізації під НЖМД), що дозволяє прискорити роботу масиву з кількох твердотільних накопичувачів (SSD), підключених безпосередньо до портів SAS 9260-8i.

Операції по конфігуруванню, налаштуванню та обслуговуванню контролера та його масивів зручніше робити у фірмовому менеджері серед операційної системи (налаштування в меню BIOS Setup самого контролера недостатньо багаті - доступні лише базові функції). Зокрема, в менеджері за кілька кліків мишкою можна організувати будь-який масив та встановити політики його роботи (кешування та ін.) – див. скріншоти.




Приклади скріншотів Windows-менеджера конфігурування масивів RAID рівнів 5 (вгорі) і 1 (внизу).

Тестування

Для знайомства з базовою продуктивністю LSI MegaRAID SAS 9260-8i (без ключа MegaRAID Advanced Services Hardware Key та супутніх технологій) ми використовували п'ять високопродуктивних SAS-накопичувачів зі швидкістю обертання шпинделя 15 тис. об/хв та підтримкою інтерфейсу SAS-2 (6 Гбіт с) - Hitachi Ultrastar 15K600 HUS156030VLS600 ємністю по 300 Гбайт.


Жорсткий диск Hitachi Ultrastar 15K600 без верхньої кришки

Це дозволить нам протестувати всі базові рівні масивів - RAID 6, 5, 10, 0 і 1, причому не тільки при мінімальному для кожного з них числі дисків, але і на виріст, тобто при додаванні диска в другий з 4-канальних SAS-портів чіпа ROC. Зазначимо, що герой цієї статті має спрощений аналог - 4-портовий контролер LSI MegaRAID SAS 9260-4i на тій же елементній базі. Тому наші тести 4-дискових масивів з тим самим успіхом можна застосувати і до нього.

Максимальна швидкість послідовного читання/запису корисних даних Hitachi HUS156030VLS600 становить близько 200 Мбайт/с (див. графік). Середній час випадкового доступу при читанні (за специфікаціями) – 5,4 мс. Вбудований буфер – 64 Мбайт.


Графік швидкості послідовного читання/запису диска Hitachi Ultrastar 15K600 HUS156030VLS600

Тестова система була заснована на процесорі Intel Xeon 3120, материнській платі з чіпсетом Intel P45 та 2 Гбайт пам'яті DDR2-800. SAS-контролер встановлювався у слот PCI Express x16 v2.0. Випробування проводилися під керуванням операційних систем Windows XP SP3 Professional та Windows 7 Ultimate SP1 x86 (чисті американські версії), оскільки їх серверні аналоги (Windows 2003 та 2008 відповідно) не дозволяють працювати деяким із використаних нами бенчмарків та скриптів. Як тести використовувалися програми AIDA64, ATTO Disk Benchmark 2.46, Intel IOmeter 2006, Intel NAS Performance Toolkit 1.7.1, C'T H2BenchW 4.13/4.16, HD Tach RW 3.0.4.0 та за компанію Futuremark PCMark VanMark. Тести проводилися як у нерозмічених томах (IOmeter, H2BenchW, AIDA64), і на відформатованих розділах. У разі (для NASPT і PCMark) результати знімалися як фізичного початку масиву, так його середини (томи масивів максимально доступної ємності розбивалися на два рівновеликих логічних розділу). Це дозволяє нам більш адекватно оцінювати продуктивність рішень, оскільки найшвидші початкові ділянки томів, на яких проводяться файлові бенчмарки більшістю оглядачів, часто не відображають ситуації на решті ділянок диска, які в реальній роботі можуть використовуватися дуже активно.

Усі тести проводилися п'ятиразово та результати усереднювалися. Докладніше про нашу оновлену методику оцінки професійних дискових рішень ми розглянемо в окремій статті.

Залишається додати, що при цьому тестуванні ми використовували версію прошивки контролера 12.12.0-0036 та драйвери версії 4.32.0.32. Кешування запису та читання для всіх масивів та дисків було активовано. Можливо, використання більш сучасної прошивки та драйверів уберегло нас від диваків, помічених у результатах ранніх тестів такого ж контролера. У нашому випадку таких казусів не спостерігалося. Втім, і дуже сумнівний за достовірністю результатів скрипт FC-Test 1.0 (який у певних випадках тим же колегам «хочеться назвати розбродом, хитанням та непередбачуваністю») ми теж у нашому пакеті не використовуємо, оскільки раніше багаторазово помічали його неспроможність на деяких файлових патернах ( зокрема, набори множини дрібних, менше 100 Кбайт, файлів).

На діаграмах нижче наведено результати для 8 конфігурацій масивів:

  1. RAID 0 із 5 дисків;
  2. RAID 0 із 4 дисків;
  3. RAID 5 із 5 дисків;
  4. RAID 5 із 4 дисків;
  5. RAID 6 із 5 дисків;
  6. RAID 6 із 4 дисків;
  7. RAID 1 із 4 дисків;
  8. RAID 1 із 2 дисків.

Під масивом RAID 1 з чотирьох дисків (див. скріншот вище) в компанії LSI, очевидно, розуміють масив «страйп+дзеркало», який зазвичай позначається як RAID 10 (це підтверджують і результати тестів).

Результати тестування

Щоб не перевантажувати веб-сторінку огляду незліченним набором діаграм, часом малоінформативних і стомлюючих (чим нерідко грішать деякі «шалені колеги»:)), ми звели детальні результати деяких тестів у таблицю. Охочі проаналізувати тонкощі отриманих нами результатів (наприклад, з'ясувати поведінку фігурантів у найбільш критичних собі завданнях) можуть зробити це самостійно. Ми ж наголосимо на найбільш важливих і ключових результатах тестів, а також на усереднених показниках.

Спочатку подивимося на результати «чисто фізичних» тестів.

Середній час випадкового доступу до даних під час читання на одиничному диску Hitachi Ultrastar 15K600 HUS156030VLS600 складає 5,5 мс. Однак при організації їх у масиви цей показник трохи змінюється: зменшується (завдяки ефективному кешування в контролері LSI SAS9260) для «дзеркальних» масивів і збільшується для всіх інших. Найбільше зростання (приблизно на 6%) спостерігається для масивів рівня 6, оскільки при цьому контролеру доводиться одночасно звертатися до найбільшої кількості дисків (до трьох для RAID 6, до двох - для RAID 5 і до одного для RAID 0, оскільки звернення в цьому тесті відбувається блоками розміром всього 512 байт, що значно менше розміру блоків чергування масивів).

Набагато цікавіша ситуація з випадковим доступом до масивів при записі (блоками по 512 байт). Для одиничного диска цей параметр дорівнює близько 2,9 мс (без кешування в хост-контролері), проте в масивах на контролері LSI SAS9260 ми спостерігаємо суттєве зменшення цього показника завдяки гарному кешування запису в SDRAM-буфері контролера об'ємом 512 Мбайт. Цікаво, що найбільш кардинальний ефект виходить для масивів RAID 0 (час випадкового доступу при записі зменшується майже в порівнянні з одиночним накопичувачем)! Це, безперечно, має сприятливо позначитися на швидкодії таких масивів у ряді серверних завдань. У той же час, і на масивах з XOR-обчисленнями (тобто високим навантаженням на процесор SAS2108) випадкові звернення на записи не призводять до явного просідання швидкодії знову завдяки потужному кешу контролера. Зауважимо, що RAID 6 тут трохи повільніше, ніж RAID 5, проте різниця між ними, по суті, несуттєва. Дещо здивувала в цьому тесті поведінка одиночного «дзеркала», що показав найповільніший випадковий доступ при записі (можливо, це «фіча» мікрокоду даного контролера).

Графіки швидкості лінійного (послідовного) читання та запису (великими блоками) для всіх масивів не мають будь-яких особливостей (для читання та запису вони практично ідентичні за умови задіяння кешування запису контролера) і всі вони масштабуються відповідно до кількості дисків, що паралельно беруть участь у »процесі. Тобто для п'ятидискового RAID 0 дисків швидкість «уп'ятається» щодо одиночного диска (досягаючи показника в 1 Гбайт/с!), для п'ятидискового RAID 5 вона «учетверовується», для RAID 6 – «потроюється» (потроюється, звичайно ж:)), для RAID 1 з чотирьох дисків - подвоюється (ніяких «у2яїця»! :)), а для простого дзеркала - дублює графіки одиночного диска. Ця закономірність наочно видно, зокрема, за показниками максимальної швидкості читання та запису реальних великих (256 Мбайт) файлів великими блоками (від 256 Кбайт до 2 Мбайт), що ми проілюструємо діаграмою тесту ATTO Disk Benchmark 2.46 (результати цього тесту для Windows XP практично ідентичні).

Тут із загальної картини несподівано випав лише випадок читання файлів на масиві RAID 6 з 5 дисків (результати багато разів перевірені ще раз). Втім, для читання блоками 64 Кбайт швидкість даного масиву набирає належні йому 600 Мбайт/с. Так що спишемо цей факт на «фічу» поточної прошивки. Зазначимо також, що при записі реальних файлів швидкість трохи вище завдяки кешування у великому буфері контролера, причому різниця з читанням тим відчутніша, чим менша реальна лінійна швидкість масиву.

Що ж до швидкості інтерфейсу, що вимірюється зазвичай за показниками запису та читання буфера (багаторазові звернення за однією і тією ж адресою дискового тома), то тут ми змушені констатувати, що майже для всіх масивів вона виявилася однаковою завдяки включенню кеша контролера для цих масивів (див. таблицю). Так, показники для всіх учасників нашого тесту склали приблизно 2430 Мбайт/с. Зауважимо, що шина PCI Express x8 2.0 теоретично дає швидкість 40 Гбіт/с або 5 Гбайт/с, проте за корисними даними теоретична межа нижча - 4 Гбайт/с, і, отже, у нашому випадку контролер дійсно працював за версією 2.0 шини PCIe. Таким чином, виміряні нами 2,4 Гбайт/с - це, очевидно, реальна пропускна здатність набірної пам'яті контролера (пам'ять DDR2-800 при 32-бітовій шині даних, що видно з конфігурації ECC-чіпів на платі, теоретично дає до 3,2 Гбайт/с). При читанні масивів кешування не настільки «всеосяжно», як при записі, тому і вимірюється в утилітах швидкість «інтерфейсу», як правило, нижче швидкості читання кеш-пам'яті контролера (типові 2,1 Гбайт/с для масивів рівнів 5 і 6) , і в деяких випадках вона «падає» до швидкості читання буфера жорстких дисків (близько 400 Мбайт/с для одиночного вінчестера, див. графік вище), помноженої на число «послідовних» дисків у масиві (це якраз випадки RAID 0 і 1 з наших результатів).

Що ж, з «фізикою» ми в першому наближенні розібралися, настав час переходити до «лірики», тобто до тестів «реальних» пацанів додатків. До речі, цікаво буде з'ясувати, чи масштабується продуктивність масивів при виконанні комплексних завдань користувача так само лінійно, як вона масштабується при читанні і запису великих файлів (див. діаграму тесту ATTO трохи вище). Допитливий читач, сподіваюся, вже зміг передбачити відповідь на це запитання.

Як "салат" до нашої "ліричної" частини трапези подамо десктопні за своєю природою дискові тести з пакетів PCMark Vantage і PCMark05 (під Windows 7 і XP відповідно), а також схожий на них "трековий" тест додатків з пакету H2BenchW 4.13 авторитетного німецького журналу C'T. Так, ці тести спочатку створювалися для оцінки жорстких дисків настільних ПК та недорогих робочих станцій. Вони емулюють виконання на дисках типових завдань просунутого персонального комп'ютера - роботу з відео, аудіо, «фотошопом», антивірусом, іграми, своп-файлом, встановленням додатків, копіюванням та записом файлів та ін. як істину в останній інстанції – все-таки на багатодискових масивах частіше виконуються інші завдання. Тим не менш, у світлі того, що сам виробник позиціонує даний RAID-контролер, у тому числі для відносно недорогих рішень, подібний клас тестових завдань цілком здатний характеризувати деяку частку додатків, які в реальності будуть виконуватися на таких масивах (та ж робота з відео, професійна обробка графіки, свопування ОС та ресурсомістких додатків, копіювання файлів, анітивірус та ін.). Тому значення цих трьох комплексних бенчмарків у нашому загальному пакеті не варто недооцінювати.

У популярному PCMark Vantage в середньому (див. діаграму) ми спостерігаємо дуже примітний факт - продуктивність даного багатодискового рішення майже не залежить від типу масиву, що використовується! До речі, у певних межах це висновок справедливий і для всіх окремих тестових треків (типів завдань), що входять до складу пакетів PCMark Vantage та PCMark05 (деталі див. у таблиці). Це може означати або те, що алгоритми прошивки контролера (з кешем та дисками) майже не враховують специфіку роботи додатків подібного типу, або те, що основна частина даних завдань виконується в кеш-пам'яті самого контролера (а швидше за все ми спостерігаємо комбінацію цих двох факторів ). Втім, для останнього випадку (тобто виконання треків великою мірою в кеші RAID-контролера) середня продуктивність рішень виявляється не такою вже високою - порівняйте ці дані з результатами тестів деяких «десктопних» («чипсетаних») 4-дискових масивів RAID 0 і 5 та недорогих одиночних SSD на шині SATA 3 Гбіт/с (див. огляд). Якщо в порівнянні з простим «чіпсетним» 4-дисковим RAID 0 (причому на вдвічі більш повільних вінчестерах, ніж застосовані Hitachi Ultrastar 15K600) масиви на LSI SAS9260 швидше в тестах PCMark менш ніж удвічі, то відносно навіть не найшвидшого «бюджетного» SSD усі вони однозначно програють! Результати дискового тесту PCMark05 дають аналогічну картину (див. табл.; малювати окрему діаграму для них немає сенсу).

Схожу картину (з окремими застереженнями) для масивів на LSI SAS9260 можна спостерігати ще в одному «трековому» бенчмарку додатків - C'T H2BenchW 4.13. Тут лише два найбільш повільні (по будові) масиву (RAID 6 з 4 дисків і просте «дзеркало») помітно відстають від усіх інших масивів, продуктивність яких, очевидно, досягає того «достатнього» рівня, коли вона впирається вже не в дискову підсистему, а ефективність роботи процесора SAS2108 з кеш-пам'яттю контролера при даних комплексних послідовностях звернень. А радувати нас у цьому контексті може те, що продуктивність масивів на базі LSI SAS9260 у завданнях такого класу майже не залежить від типу масиву, що використовується (RAID 0, 5, 6 або 10), що дозволяє використовувати більш надійні рішення без шкоди для підсумкової продуктивності.

Втім, не всі коту Масляна - якщо ми змінимо тести і перевіримо роботу масивів з реальними файлами на файловій системі NTFS, то картина кардинально зміниться. Так, у тесті Intel NASPT 1.7, багато хто з «передвстановлених» сценаріїв якого мають досить пряме відношення до завдань, типових для комп'ютерів, оснащених контролером LSI MegaRAID SAS9260-8i, диспозиція масивів схожа на ту, що ми спостерігали в тесті ATTO під час читання та запису великих файлів - швидкодія пропорційно наростає зі зростанням «лінійної» швидкості масивів.

На цій діаграмі ми наводимо усереднений за всіма тестами та патернами NASPT показник, тоді як у таблиці можна побачити детальні результати. Підкреслю, що NASPT проганявся нами як під Windows XP (так зазвичай роблять численні оглядачі), так і під Windows 7 (що в силу певних особливостей цього тесту робиться рідше). Справа в тому, що Seven (і її «старший братик» Windows 2008 Server) використовують агресивніші алгоритми власного кешування при роботі з файлами, ніж XP. Крім того, копіювання великих файлів у «Сімка» відбувається переважно блоками по 1 Мбайт (XP, як правило, оперує блоками по 64 Кбайт). Це призводить до того, що результати "файлового" тесту Intel NASPT істотно різняться в Windows XP і Windows 7 - в останній вони набагато вищі, часом більш ніж удвічі! До речі, ми порівняли результати NASPT (та інших тестів нашого пакету) під Windows 7 з 1 Гбайт і 2 Гбайт встановленої системної пам'яті (є інформація, що при великих обсягах системної пам'яті кешування дискових операцій у Windows 7 посилюється і результати NASPT стають ще вищими) Однак у межах похибки вимірювань ми не знайшли жодної різниці.

Суперечки про те, під якою ОС (у плані політик кешування та ін.) «краще» тестувати диски та RAID-контролери, ми залишаємо для гілки обговорень цієї статті. Ми ж вважаємо, що тестувати накопичувачі та рішення на їх основі треба в умовах максимально наближених до реальних ситуацій їх експлуатації. Саме тому рівну цінність, з погляду, мають результати, отримані нами обох ОС.

Але повернемося до діаграми усередненої продуктивності NASPT. Як бачимо, різниця між найшвидшим і найповільнішим із протестованих нами масивів тут становить у середньому трохи менше трьох разів. Це, звичайно, не п'ятиразовий розрив, як при читанні і записі великих файлів, але теж дуже відчутно. Масиви розташувалися фактично пропорційно до своєї лінійної швидкості, і це не може не тішити: отже, процесор LSI SAS2108 досить швидко обробляє дані, майже не створюючи вузьких місць при активній роботі масивів рівнів 5 і 6.

Заради справедливості слід зазначити, що і в NASPT є патерни (2 з 12), в яких спостерігається та ж картина, що і в PCMark з H2BenchW, а саме що продуктивність всіх протестованих масивів практично однакова! Це Office Productivity та Dir Copy to NAS (див. табл.). Особливо це під Windows 7, хоча й у Windows XP тенденція «зближення» очевидна (проти іншими патернами). Втім, і в PCMark c H2BenchW є патерни, де є зростання продуктивності масивів пропорційно їхній лінійній швидкості. Так що все не так просто і однозначно, як може, деяким хотілося б.

Спочатку я хотів обговорити діаграму із загальними показниками швидкодії масивів, усередненими по всіх тестах додатків (PCMark+H2BenchW+NASPT+ATTO), тобто цю:

Однак обговорювати тут особливо нічого: ми бачимо, що поведінка масивів на контролері LSI SAS9260 у тестах, що емулюють роботу тих чи інших додатків, може кардинально відрізнятися залежно від сценаріїв. Тому висновки про користь тієї чи іншої конфігурації краще робити, виходячи з того, які завдання ви збираєтеся при цьому виконувати. І в цьому нам може помітно допомогти ще один професійний тест – синтетичні патерни для IOmeter, що емулюють те чи інше навантаження на систему зберігання даних.

Тести в IOmeter

В даному випадку ми опустимо обговорення численних патернів, які ретельно вимірюють швидкість роботи в залежності від розміру блоку звернення, відсотка операцій запису, відсотка випадкових звернень та ін. Це, по суті, чиста синтетика, що дає мало корисний практичною інформації, що представляє інтерес, скоріше чисто теоретично. Адже основні практичні моменти щодо «фізики» ми вже з'ясували вище. Нам важливіше зосередитися на патернах, що емулюють реальну роботу – серверів різного типу, а також операцій із файлами.

Для емуляції серверів типу File Server, Web Server і DataBase (сервер бази даних) ми скористалися однойменними та добре відомими патернами, запропонованими свого часу Intel та StorageReview.com. Для всіх випадків ми протестували масиви за глибини черги команд (QD) від 1 до 256 з кроком 2.

У патерні «База даних», які використовують випадкові звернення до диска блоками по 8 Кбайт у межах всього обсягу масиву, можна спостерігати істотну перевагу масивів без контролю парності (тобто RAID 0 і 1) при глибині черги команд від 4 і вище, тоді як усі масиви з контролем парності (RAID 5 і 6) демонструють дуже близьку швидкодію (попри дворазове різницю між ними швидкості лінійних звернень). Ситуація пояснюється просто: всі масиви з контролем парності показали в тестах на середній час випадкового доступу близькі значення (див. вище діаграму), а саме цей параметр в основному визначає продуктивність в даному тесті. Цікаво, що швидкодія всіх масивів наростає практично лінійно зі зростанням глибини черги команд аж до 128, і лише за QD=256 деяких випадків можна побачити натяк на насичення. Максимальна продуктивність масивів з контролем парності при QD=256 склала близько 1100 IOps (операцій на секунду), тобто на обробку однієї порції даних у 8 Кбайт процесор LSI SAS2108 витрачає менше 1 мс (близько 10 млн однобайтових XOR-операцій на секунду) ; зрозуміло, процесор при цьому виконує паралельно та інші завдання з введення-виведення даних і роботи з кеш-пам'яттю).

У патерні файлового сервера, що використовує блоки різного розміру при випадкових зверненнях читання та запису до масиву в межах всього його обсягу, ми спостерігаємо схожу на DataBase картину з тією різницею, що п'ятидискові масиви з контролем парності (RAID 5 і 6) помітно обходять по швидкості свої 4-дискові аналоги та демонструють при цьому майже ідентичну продуктивність (близько 1200 IOps при QD=256)! Мабуть, додавання п'ятого диска на другий із двох 4-канальних SAS-портів контролера якимось чином оптимізує обчислювальні навантаження на процесор (за рахунок операцій введення-виведення?). Можливо, варто порівняти за швидкістю 4-дискові масиви, коли накопичувачі попарно підключені до різних Mini-SAS-роз'ємів контролера, щоб виявити оптимальну конфігурацію для організації масивів на LSI SAS9260, але це вже завдання для іншої статті.

У патерні веб-сервера, де, за задумом його творців, відсутні як клас операції запису на диск (отже, і обчислення XOR-функцій на запис), картина стає ще цікавішою. Справа в тому, що всі три п'ятидискові масиви з нашого набору (RAID 0, 5 і 6) показують тут ідентичну швидкодію, незважаючи на помітну різницю між ними за швидкістю лінійного читання та обчислень з контролю парності! До речі, ці три масиви, але з 4 дисків, також ідентичні за швидкістю один одному! І лише RAID 1 (і 10) випадає із загальної картини. Чому так відбувається, судити важко. Можливо, контролер має дуже ефективні алгоритми вибірки «вдалих дисків» (тобто тих з п'яти або чотирьох дисків, з яких першими приходять потрібні дані), що у разі RAID 5 і 6 підвищує ймовірність більш раннього надходження даних із пластин, заздалегідь готуючи процесор необхідних обчислень (згадаймо про глибоку чергу команд і великий буфер DDR2-800). А це в результаті може компенсувати затримку, пов'язану з XOR-обчисленнями і зрівнює їх у «шансах» з «простим» RAID 0. У будь-якому випадку, контролер LSI SAS9260 можна тільки похвалити за екстремально високі результати (близько 1700 IOps для 5-дискових масивів при QD = 256) у патерні Web Server для масивів з контролем парності. На жаль, ложкою дьогтю стала дуже низька продуктивність дводискового "дзеркала" у всіх цих серверних патернах.

Паттерну Web Server вторить наш власний патерн, що емулює випадкове читання невеликих (64 Кбайт) файлів у межах простору масиву.

Знову результати об'єдналися в групи - всі 5-дискові масиви ідентичні один одному за швидкістю і лідирують у нашому «забігу», 4-дискові RAID 0, 5 та 6 теж не відрізнити один від одного за продуктивністю, і лише «дзеркалки» випадають із загальної маси (до речі, 4 дискова «дзеркалка», тобто RAID 10 виявляється швидше за решту 4-дискових масивів - мабуть, за рахунок того ж самого алгоритму «вибору вдалого диска»). Підкреслимо, дані закономірності справедливі лише великий глибини черги команд, тоді як із малої черги (QD=1-2) ситуація і лідери може бути зовсім іншими.

Все змінюється під час роботи серверів із великими файлами. В умовах сучасного «важкого» контенту та нових «оптимізованих» ОС типу Windows 7, 2008 Server тощо. робота з мегабайтними файлами та блоками даних по 1 Мбайт набуває все більш важливого значення. У цій ситуації наш новий патерн, що емулює випадкове читання 1-мегабайтних файлів в межах всього диска (деталі нових патернів будуть описані в окремій статті за методикою), виявляється дуже доречним, щоб більш повно оцінити серверний потенціал контролера LSI SAS9260.

Як бачимо, 4-дискове «дзеркало» тут уже нікому не залишає надій на лідерство, явно домінуючи за будь-якої черги команд. Його продуктивність також спочатку зростає лінійно зі зростанням глибини черги команд, проте при QD=16 для RAID 1 вона виходить насичення (швидкість близько 200 Мбайт/с). Трохи пізніше (при QD = 32) насичення продуктивності настає у більш повільних в цьому тесті масивів, серед яких срібло і бронзу доводиться віддати RAID 0, а масиви з контролем парності виявляються в аутсайдерах, поступившись навіть раніше не блискучому RAID 1 з двох дисків, який виявляється несподівано гарний. Це призводить нас до висновку, що навіть при читанні обчислювальна XOR-навантаження на процесор LSI SAS2108 при роботі з великими файлами і блоками (розташованими випадковим чином) виявляється для нього дуже обтяжлива, а для RAID 6, де вона фактично подвоюється, часом навіть непомірна - продуктивність рішень ледве перевищує 100 Мбайт/с, тобто у 6-8 разів нижче, ніж за лінійного читання! «Надлишковий» RAID 10 тут застосовувати явно вигідніше.

При випадковому запису дрібних файлів картина знову разюче відрізняється від тих, що ми бачили раніше.

Справа в тому, що тут вже продуктивність масивів фактично не залежить від глибини черги команд (очевидно, позначається великий кеш контролера LSI SAS9260 і великі кеші самих вінчестерів), але кардинально змінюється з типом масиву! У беззастережних лідерах тут «простенькі» для процесора RAID 0, а «бронза» з більш ніж дворазовим програшем лідеру - у RAID 10. ), триразово програючи лідерам. Так, це, безумовно, тяжке навантаження на процесор контролера. Однак такого «провалу» я, відверто кажучи, від SAS2108 не очікував. Іноді навіть софтовий RAID 5 на «чіпсеті» SATA-контролері (з кешуванням) засобами Windowsі обрахунком за допомогою центрального процесора ПК) здатний працювати швидше ... Втім, "свої" 440-500 IOps контролер при цьому все-таки видає стабільно - порівняйте це з діаграмою за середнім часом доступу при записі на початку розділу результатів.

Перехід на випадковий запис великих файлів по 1 Мбайт призводить до зростання абсолютних показників швидкості (для RAID 0 – майже до значень при випадковому читанні таких файлів, тобто 180-190 Мбайт/с), проте загальна картина майже не змінюється – масиви з контролем парності у рази повільніше RAID 0.

Цікава картина для RAID 10 – його продуктивність падає зі зростанням глибини черги команд, хоч і не сильно. Для решти масивів такого ефекту немає. Дводискове "дзеркало" тут знову виглядає скромно.

Тепер подивимося на патерни, де файли в рівних кількостях читаються і пишуться на диск. Такі навантаження характерні, зокрема, для деяких відеосерверів або під час активного копіювання/дуплікування/резервування файлів у межах одного масиву, а також у разі дефрагментації.

Спочатку - файли по 64 Кбайт випадково по всьому масиву.

Тут очевидно деяка подібність з результатами патерна DataBase, хоча абслютні швидкості у масивів в три рази вище, та й при QD=256 вже помітно деяке насичення продуктивності. Більший (порівняно з патерном DataBase) відсоток операцій запису в цьому випадку призводить до того, що масиви з контролем парності та дводискове «дзеркало» стають явними аутсайдерами, суттєво поступаючись за швидкістю масивам RAID 0 і 10.

При переході на файли по 1 Мбайт ця закономірність в цілому зберігається, хоча абсолютні швидкості приблизно потроюються, а RAID 10 стає таким же швидким, як 4-дисковий "страйп", що не може не тішити.

Останнім патерном у цій статті буде випадок послідовного (на противагу випадковим) читання та запису великих файлів.

І тут уже багатьом масивам вдається розігнатися до дуже пристойних швидкостей близько 300 Мбайт/с. І хоча більш ніж дворазовий розрив між лідером (RAID 0) і аутсайдером (дводисковий RAID 1) зберігається (зауважимо, що при лінійному читанні АБО запису цей розрив п'ятикратний!), що увійшов до трійки лідерів RAID 5, та й інші XOR-масиви, що підтягнулися, не підтягнулися можуть не обнадіювати. Адже якщо судити з того переліку застосувань даного контролера, який наводить сама LSI (див. початок статті), багато цільових завдань використовуватимуть саме цей характер звернень до масивів. І це безперечно варто враховувати.

Насамкінець наведу підсумкову діаграму, в якій усереднені показники всіх озвучених вище патернів тесту IOmeter (геометрично по всіх патернах і чергах команд, без вагових коефіцієнтів). Цікаво, що якщо усереднення даних результатів усередині кожного патерну проводити арифметично з ваговими коефіцієнтами 0,8, 0,6, 0,4 та 0,2 для черг команд 32, 64, 128 та 256 відповідно (що умовно враховує падіння частки операцій з високою глибиною черги команд у спільній роботі накопичувачів), то підсумковий (за всіма патернами) нормований індекс швидкодії масивів у межах 1% збігається із середнім геометричним.

Отже, середня «температура по лікарні» в наших патернах для тесту IOmeter показує, що від «фізики з матемачихою» нікуди не втекти - однозначно лідирують RAID 0 і 10. деяких випадках пристойну продуктивність, загалом неспроможна «дотягнути» такі масиви рівня простого «страйпа». При цьому цікаво, що 5-дискові конфігурації явно додають порівняно з 4 дисковими. Зокрема, 5-дисковий RAID 6 однозначно швидше за 4-дисковий RAID 5, хоча з «фізики» (часу випадкового доступу і швидкості лінійного доступу) вони фактично ідентичні. Також засмутило дводискове "дзеркало" (в середньому воно рівноцінне 4-дисковому RAID 6, хоча для дзеркала двох XOR-обчислень на кожен біт даних не потрібно). Втім, просте «дзеркало» - це явно не цільовий масив для потужного 8-портового SAS-контролера з великим кешем і потужним процесором «на борту». :)

Цінова інформація

8-портовий SAS-контролер LSI MegaRAID SAS 9260-8i з повним комплектом пропонується за ціною близько 500 доларів, що можна вважати досить привабливим. Його спрощений 4-портовий аналог ще дешевше. Більш точна поточна середня роздрібна вартість пристрою в Москві, актуальна на момент читання вами цієї статті:

LSI SAS 9260-8iLSI SAS 9260-4i
$571() $386()

Висновок

Підсумовуючи сказано вище, можна зробити висновок, що єдиних рекомендацій «для всіх» щодо 8-портового контролера LSI MegaRAID SAS9260-8i ми давати не ризикнемо. Про необхідність його використання та конфігурування тих чи інших масивів за його допомогою кожен повинен робити висновки самостійно - суворо з того класу завдань, які передбачається у своїй запускать. Справа в тому, що в одних випадках (на одних завданнях) цей недорогий «мегамонстр» здатний показати видатну продуктивність навіть на масивах з подвійним контролем парності (RAID 6 і 60), проте в інших ситуаціях швидкість його RAID 5 і 6 явно бажає кращого . І порятунком (майже універсальним) стане лише масив RAID 10, який майже з тим самим успіхом можна організувати і на більш дешевих контролерах. Втім, нерідко саме завдяки процесору та кеш-пам'яті SAS9260-8i масив RAID 10 веде себе тут анітрохи не повільніше за «страйп» з тієї ж кількості дисків, забезпечуючи при цьому високу надійність рішення. А ось чого однозначно варто уникати з SAS9260-8i, так це дводискові «дзеркалки» і 4-дискові RAID 6 і 5 - для даного контролера це очевидно неоптимальні конфігурації.

Дякуємо компанії Hitachi Global Storage Technologies
за надані для тестів жорсткі диски.

mob_info